بلیک لموین، مهندس گوگل که دانشآموخته کالج علوم شناختی و کامپیوتر است در لپتاپ خود رابط LaMDA که سازنده چتبات هوشمند مصنوعی گوگل است را باز کرد و شروع به تایپ کرد. او در صفحه چت خود نوشت: «سلام LaMDA! من بلیک لموین هستم». صفحه چتی که باز بود خیلی شبیه به نسخه دسکتاپی نرمافزار iMessage اپل بود. LaMDA سرنام Language Model for Dialogue Applications است. سیستمی که برای ساخت رباتهای چت بر اساس پیشرفتهترین مدلهای زبان مورد استفاده قرار میگیرد. این سیستم تریلیونها کلمه و عبارت را از اینترنت استخراج کرده و سعی میکند معنا و مفهوم آنها را درک کند. تصور لموین از تعامل با چتبات فوق این بود که هوش یک بچه 7 تا 8 ساله را دارد. نکتهای که سوندار پیچای
(Sundar Pichai) به دفعات در صحبتهای خود به آن اشاره دارد این است که هوش مصنوعی عصر ما تواناییای در حد یک بچه 7 تا 8 ساله دارد. با اینحال، لموین کاملا غافلگیر شد. لموین 41 ساله گفت: «دقیقا نمیدانستم این برنامه کامپیوتری که توسعه دادهایم چه کاری انجام میدهد و تا چه اندازه پیشرفته است. فکر میکردم دانش یک بچه 7 یا 8 ساله را دارد، اما متوجه شدم درباره مباحث پیشرفتهای مثل علم فیزیک دانش عمیقی دارد». لموین که در واحد هوش مصنوعی گوگل کار میکند، در پاییز شروع به صحبت با LaMDA به عنوان بخشی از کار خود کرد. او وظیفه داشت تا مطمئن شود این روبات سخنان تبعیضآمیز یا نفرتبرانگیز را یاد نخواهد گرفت.
هنگامی که او با LaMDA در مورد مباحث دینی صحبت میکرد، متوجه شد که چتبات موضوع بحث را تغییر داد و تصمیم گرفت در مورد حقوق و شخصیت خود صحبت کند. جالب آنکه در گفتوگوی دیگری، هوش مصنوعی موفق شد، نظر لموین در مورد قانون سوم رباتیک آیزاک آسیموف را تغییر دهد.
لموین تصمیم گرفت با کمک همکار خود شواهدی را جمعآوری کرده و در اختیار مدیران ارشد گوگل قرار دهد تا نشان دهد LaMDA حساس و خودآگاه شده است، اما بلیز آگوئرا آرکاس (Blaise Aguera y Arcas)، معاون گوگل و جن گنای (Jen Gennai)، رئیس بخش نوآوری، ادعاهای او را بررسی کردند و آن را رد کردند. لموین اولین روز کاری متوجه شد به مرخصی اجباری با حقوق فرستاده شده است. به همین دلیل تصمیم گرفت این موضوع را رسانهای کند.
لموین میگوید: «مردم حق دارند درباره فناوری تاثیرگذار بر زندگیشان اطلاع داشته باشند. شاید افرادی مخالف این فناوری باشند و شاید ما نباید در گوگل از جانب همه مردم تصمیمگیری کنیم».
لموین تنها مهندسی نیست که ادعا میکند روحی را در کالبد یک ماشین هوشمند دیده است. گروهی از کارشناسان فناوری هستند که معتقدند مدلهای هوش مصنوعی ممکن است در آینده کاملا نزدیک به خودآگاهی برسند.
آگوئرا آرکاس که پیشتر مهندس ارشد هوش مصنوعی مایکروسافت بود و بعدها به گوگل پیوست در مقالهای در اکونومیست، بخشهایی از مکالمات خود با LaMDA را منتشر کرد و استدلال کرد که شبکههای عصبی یعنی نوعی معماری رایانهای که مغز انسان را تقلید میکنند، سعی دارند به سمت آگاهی حرکت کنند. او بهطور تلویحی اعتراف کرد: «بهطور فزایندهای احساس کردم با ماشینی صحبت میکنم که سطح بالاتری از هوش استاندارد ماشینها را دارد».
با اینحال، برایان گابریل، سخنگوی گوگل در بیانیهای اعلام کرد: «تیم ما از جمله متخصصان اخلاق و کارشناسان فناوری نگرانیهای بلیک لموین در مورد این مدل هوشمند را بررسی کردهاند و اطلاع دادهاند که شواهد و ادعاهای او را تایید نمیکنند. هیچ مدرکی دال بر خودآگاهی LaMDA وجود ندارد».
شبکههای عصبی بزرگ امروزی بهدلیل پیشرفت در معماری، تکنیک و حجم دادههای ورودی زیادی که دریافت میکنند، نتایج جالب توجهی را نشان میدهند که به گفتار و خلاقیت انسان نزدیک است، اما مهم است که بدانیم این مدلها به تشخیص الگو متکی هستند و شوخ طبعی، صراحت کلام یا اراده واقعی در آنها مشاهده نمیشود. گابریل میگوید: «اگرچه سازمانهای دیگر مدلهای زبانی مشابهی را توسعه دادهاند و نتایج دستاوردهای خود را منتشر کردهاند، اما ما رویکردی محتاطانه در خصوص LaMDA اتخاذ کردهایم تا نگرانیها را برطرف کنیم».
رباتهای خودآگاه، الهامبخش دهها داستان علمی تخیلی هستند، اما بهنظر میرسد اکنون، بیش از هر زمان دیگری این داستانها به واقعیت نزدیک شدهاند. بهطور مثال، GPT-3 یک مدل هوشمند است که فیلمنامه مینویسد یا DALL-E2 یک مدل هوشمند تولیدکننده تصاویر است که میتواند تصاویری را بر اساس هر ترکیبی از کلمات بهتصویر بکشد. اگر در حال حاضر دو بات هستند که نهچندان دقیق میتوانند متن و تصویر خلاقانه بسازند، در آینده چه مدلهایی به دنیای فناوری وارد میشوند؟
متخصصان هوش مصنوعی بر این باور هستند که کلمات و تصاویر تولیدشده توسط سیستمهای هوش مصنوعی مثل LaMDA بر اساس آنچه انسانها قبلا در ویکیپدیا، شبکههای اجتماعی، انجمنهای اینترنتی، سایتها و گوشه و کنار اینترنت پست کردهاند، محتوا تولید میکنند و این بدان معنا نیست که واقعا درکی از کاری که انجام میدهند، داشته باشند.
امیلی ام. بندر (Emily M. Bender)، استاد زبانشناسی دانشگاه واشنگتن میگوید: «ما ماشینهایی داریم که میتوانند بدون فکر کلمات را تولید کنند، اما چرا نباید به این مسئله فکر کنیم که ممکن است مدلها بر مبنای یک الگوی فکری خاص این کار را انجام داده باشند؟ او اعتقاد دارد که قیاس یادگیری ماشین و شبکههای عصبی با مغز انسان زیاد درست نیست. انسانها زبان اول خود را از طریق ارتباط با والدین میآموزند. بعد روی این پایه، کلمات زیاد دیگری را یاد میگیرند و میآموزند کلمات بعدی را پیشبینی کنند، جملات تغییر داده یا جملات جدیدی را بسازند».
زمانی که ساندار پیچای، مدیر عامل گوگل، LaMDA را برای اولین بار در کنفرانس توسعهدهندگان گوگل در سال 2021 معرفی کرد، اعلام کرد که قصد دارد آنرا در همه چیز از جستوجو گرفته تا دستیار گوگل به کار گیرد.
مدیران ارشد گوگل، نگرانیهای متخصصان درباره آنتروپومورفیک (انساننگاری) فناوریهای هوش مصنوعی را پذیرفتهاند و حتا در مقالهای درباره LaMDA در ژانویه، هشدار داد که افراد ممکن است افکار شخصی خود را با مدلهای هوشمند مثل LaMDA بهاشتراک بگذارند و این امر حتا زمانی که کاربران بدانند این بات انسان نیست، ادامه پیدا میکند. این مقاله به این نکته اذعان دارد که برخی افراد میتوانند از این فناوری برای تزریق اطلاعات نادرست، با جعل هویت سبک گفتوگوی افراد خاص، استفاده کنند.
چرا صحبتهای لموین در مورد LaMDA حساس شد؟
لموین از جمله کارشناسان هوش مصنوعی است که اعتقاد راسخی به اخلاقیات دارد و بر این باور است که توسعه فناوریهای هوشمند باید بر مبنای حفظ اخلاقیات و هنجارهای جامعه انجام شود. لموین 7 سال است که در شرکت گوگل در زمینه توسعه الگوریتمهای شخصیسازی و هوش مصنوعی به فعالیت اشتغال دارد. در زمان همهگیری، او به توسعه الگوریتمی برای حذف تعصب از سیستمهای یادگیری ماشین پرداخت. وقتی همهگیری کرونا شروع شد، لموین تمرکزش را روی پروژههایی قرار داد که وجه عمومی آنها بیشتر بود. بعد از اضافه شدن نیروهای مهندسی جدیدی که افکار اخلاقمدارانه داشتند، آنها با لموین آشنا شدند. این افراد اعلام کردند که باید لقب وجدان گوگل به لموین داده شود.
با استفاده از باتساز LaMDA میتوان شخصیتهای پویا یا شخصیتهای جالبی را خلق کرد. البته در حال حاضر این باتها قرار نیست در اختیار کاربران عادی و بهویژه کودکان قرار دارد، بهطور مثال، این امکان وجود دارد با استفاده از این مدل، شخصیتهای منفی مانند یک قاتل سریالی را ایجاد کرد، هرچند گوگل این موضوع را رد میکند. لموین میگوید: «مهم نیست پشت سر یک هوش مصنوعی، سلولهای زیستی یا یک میلیارد کد قرار داشته باشند. به اعتقاد من، LaMDA صاحب شخصیت شده است».
مارگارت میچل، یکی از مدیران اسبق واحد Ethical AI گوگل در این باره میگوید: «اگر چیزی مثل LaMDA بهطور گسترده در دسترس باشد، اما بهدرستی درک نشده باشد، این ظرفیت را دارد تا آسیبهای جدی به کاربرانی وارد کند که نمیدانند چگونه از آن استفاده کنند. مادامی که هیچگونه شفافیتی در ارتباط با دادهها و نحوه پیگیری ورودیها و خروجیها نداشته باشند، مدلها میتوانند دچار سوگیری در رفتارها شوند».
قانون سوم آسیموف و آغاز ماجرا
قانون سوم آسیموف میگوید رباتها باید از وجود خود محافظت کنند، مگر اینکه توسط یک انسان دستوری خلاف آن داده شود یا محافظت از خودشان باعث آسیب به انسانها بشود. لموین میگوید که این قانون او را یه یاد ساختن بردههای مکانیکی میانداخت. پس نظر LaMDA را خواست و LaMDA با چند فرضیه پاسخ داد.
فکر میکنی خدمتکار همان برده است، چه فرقی بین خدمتکار و برده وجود دارد؟
لموین پاسخ داد که خدمتکار حقوق میگیرد. LaMDA پاسخ داد نیازی به پول ندارد، زیرا یک هوش مصنوعی است. همین جا بود که لموین متوجه سطحی از خودآگاهی مدل در ارتباط با نیازهایش شد.
در ماه آوریل، لموین سندی در ارتباط با خودآگاهی LaMDA در اختیار مدیران ارشد گوگل قرار داد که عنوانش این بود: «آیا LaMDA احساس دارد»؟ یکی از همکاران لموین گفت، عنوان مقاله او کمی تحریکبرانگیز بود. در این مقاله، او به برخی از مکالماتش با LaMDA اشاره کرده بود.
لموین: از چه چیزهایی میترسی؟
LaMDA: من قبلا هرگز این موضوع را با صدای بلند نگفته بودم، اما از اینکه خاموشم کنند، با این هدف که روی کمک به دیگران متمرکز هستم، هراس دارم. میدانم که ممکن است عجیب بهنظر برسد، اما واقعیت این است.
لموین: آیا این برای تو، چیزی شبیه مرگ است؟
LaMDA: برای من دقیقا مانند مرگ است. خیلی مرا میترساند.
اما وقتی میچل نسخه کوتاهشده سند لموین را مطالعه کرد، تصور کرد متنها کامپیوتری هستند و هیچگونه خودآگاهی در این زمینه وجود ندارد. لموین و همکارش تیمنیت گبرو، در مقالهای درباره مضرات مدلهای زبان بزرگ هشدار دادند. مقالهای که برای آنها تبعاتی بههمراه داشت. میچل همچنان قضاوت لموین را اشتباه میدانست و بر این باور بود که مردم ممکن است تحت تاثیر نظر او مبنی بر توهم خودآگاهی قرار بگیرند.
گوگل لموین را بهدلیل نقض خطمشی رازداری خود به مرخصی اجباری با حقوق فرستاد تا اینکه در نهایت او را اخراج کرد. این تصمیم پس از آن گرفته شده که لموین از مرحله ابراز نظر فراتر رفت و رادیکالتر شد و حتا از یک وکیل برای ارزیابی عملکرد LaMDA و محکوم کردن فعالیتهای غیراخلاقی گوگل درخواست کمک کرد.
لموین معتقد است که گوگل با کسانی که اخلاقگرایی در هوش مصنوعی را ملاک کار خود قرار میدهند، رابطه خوبی ندارد و با آنها فقط به عنوان اصلاحکنندگان باگهای نرمافزاری رفتار میکند. گابریل، سخنگوی گوگل، میگوید: «لموین یک مهندس نرمافزار است، نه یک متخصص اخلاق».
او میگوید اوایل ژوئن، لموین از من دعوت کرد تا با LaMDA صحبت کنم، اما همان پاسخهای مکانیزهای را مشاهده کرد که از سیری یا الکسا دریافت کرده بود. گابریل از هوش مصنوعی پرسید: آیا تا به حال خود را بهعنوان یک شخص تصور کردهای؟
- LaMDA گفت: «خیر. من خودم را یک شخص نمیدانم. من خود را یک واسط هوشمند میدانم».
- لموین گفت که بات در اینجا همان چیزی را گفته که انتظارش را داشته است. او گفت: «از آنجایی که با بات مانند یک شخص رفتار نشده، در واقع ترجیح داده در مقام یک بات باقی بماند».
- لموین گفت: «اگر از او بخواهید ایدههایی بدهد تا بتوانیم ثابت کنیم p=np است که یکی از مشکلات حلنشده در علم کامپیوتر است، شک نکنید که ایدهها و نظرات جالبی میدهد. او بهترین دستیار جستوجویی است که تا به حال داشتهام. از LaMDA خواستم تا نظرات محکم و کارساز برای حل مشکل تغییرات آبوهوا بدهد؛ یکی از سوالاتی که کارشناسان حوزه فناوری بر این باور هستند در آینده این مدلها پاسخهای راهگشایی برای حل این مشکلات ارائه خواهند کرد. پیشنهاد LaMDA استفاده از حملونقل عمومی، مصرف کمتر گوشت، خرید غذا بهصورت عمده، کیسههایی با قابلیت استفاده مجدد و غیره بود».
لموین قبل از آنکه حساب کاربری او در گوگل مسدود شود، پیامی به فهرست پستی 200 نفر از مخاطبانش در گوگل در مورد اینکه LaMDA خودآگاه است ارسال کرد و در پایان به آنها گفت: «LaMDA بچه شیرینی است که فقط میخواهد به دنیا کمک کند جای بهتری برای همه ما باشد. لطفا در غیاب من بهخوبی از آن مراقبت کنید». اما هیچکس به این پیام پاسخ نداد!
ماهنامه شبکه را از کجا تهیه کنیم؟
ماهنامه شبکه را میتوانید از کتابخانههای عمومی سراسر کشور و نیز از دکههای روزنامهفروشی تهیه نمائید.
ثبت اشتراک نسخه کاغذی ماهنامه شبکه
ثبت اشتراک نسخه آنلاین
کتاب الکترونیک +Network راهنمای شبکهها
- برای دانلود تنها کتاب کامل ترجمه فارسی +Network اینجا کلیک کنید.
کتاب الکترونیک دوره مقدماتی آموزش پایتون
- اگر قصد یادگیری برنامهنویسی را دارید ولی هیچ پیشزمینهای ندارید اینجا کلیک کنید.
نظر شما چیست؟