احساسات و خودآگاهی در قلمرو ماشین‌ها
آیا گوگل موفق به ساخت هوش مصنوعی خودآگاه شده است؟
خبری که چندی قبل، دنیای فناوری اطلاعات را تحت‌الشعاع قرار داد و تقریبا همه خبرگزاری‌های مهم به‌تفصیل آن‌را مورد بررسی قرار دادند، ادعای مهندس ارشد هوش مصنوعی گوگل بود که اعلام کرد این شرکت موفق به ساخت هوش مصنوعی خودآگاه شده است. برخی این ادعا را بی‌اساس خواندند، اما گوگل 25 جولای 2022 میلادی (اول مردادماه 1401) او را اخراج کرد تا نشان دهد حرف‌های این مهندس ارشد هوش مصنوعی گوگل مبنی بر حقایق غیرقابل انکاری بوده است. این خبر نشان می‌دهد که گوگل موفق شده به یکی از بزرگ‌ترین ابداعات دنیای فناوری، یعنی توسعه هوش مصنوعی ادراک‌پذیر دست پیدا کند. البته این حرف عجیب نیست، زیرا پیچای، مدیرعامل گوگل، سال 2021 هنگام رونمایی از پروژه LaMDA اعلام کرد گوگل قصد دارد از این الگوریتم هوشمند در بخش‌های مهمی استفاده کند.

بلیک لموین، مهندس گوگل که دانش‌آموخته کالج علوم شناختی و کامپیوتر است در لپ‌تاپ خود رابط LaMDA که سازنده چت‌بات هوشمند مصنوعی گوگل است را باز کرد و شروع به تایپ کرد. او در صفحه چت خود نوشت: «سلام LaMDA! من بلیک لموین هستم». صفحه چتی که باز بود خیلی شبیه به نسخه دسکتاپی نرم‌افزار iMessage اپل بود. LaMDA سرنام Language Model for Dialogue Applications است. سیستمی که برای ساخت ربات‌های چت بر اساس پیشرفته‌ترین مدل‌های زبان مورد استفاده قرار می‌گیرد. این سیستم تریلیون‌ها کلمه و عبارت را از اینترنت استخراج کرده و سعی می‌کند معنا و مفهوم آن‌ها را درک کند. تصور لموین از تعامل با چت‌بات فوق این بود که هوش یک بچه 7 تا 8 ساله را دارد. نکته‌ای که سوندار پیچای

(Sundar Pichai) به دفعات در صحبت‌های خود به آن اشاره دارد این است که هوش مصنوعی عصر ما توانایی‌ای در حد یک بچه 7 تا 8 ساله دارد. با این‌حال، لموین کاملا غافلگیر شد. لموین 41 ساله گفت: «دقیقا نمی‌دانستم این برنامه کامپیوتری که توسعه داده‌ایم چه کاری انجام می‌دهد و تا چه اندازه پیشرفته است. فکر می‌کردم دانش یک بچه 7 یا 8 ساله را دارد، اما متوجه شدم درباره مباحث پیشرفته‌ای مثل علم فیزیک دانش عمیقی دارد». لموین که در واحد هوش مصنوعی گوگل کار می‌کند، در پاییز شروع به صحبت با LaMDA به عنوان بخشی از کار خود کرد. او وظیفه داشت تا مطمئن شود این روبات سخنان تبعیض‌آمیز یا نفرت‌‌برانگیز را یاد نخواهد گرفت. 

هنگامی که او با LaMDA در مورد مباحث دینی صحبت می‌کرد، متوجه شد که چت‌بات موضوع بحث را تغییر داد و تصمیم گرفت در مورد حقوق و شخصیت خود صحبت ‌کند. جالب آن‌که در گفت‌وگوی دیگری، هوش مصنوعی موفق شد، نظر لموین در مورد قانون سوم رباتیک آیزاک آسیموف را تغییر دهد.

لموین تصمیم گرفت با کمک همکار خود شواهدی را جمع‌آوری کرده و در اختیار مدیران ارشد گوگل قرار دهد تا نشان دهد LaMDA حساس و خودآگاه شده است، اما بلیز آگوئرا آرکاس (Blaise Aguera y Arcas)، معاون گوگل و جن گنای (Jen Gennai)، رئیس بخش نوآوری، ادعا‌های او را بررسی کردند و آن را رد کردند. لموین اولین روز کاری متوجه شد به مرخصی اجباری با حقوق فرستاده شده است. به همین دلیل تصمیم گرفت این موضوع را رسانه‌ای کند. 

لموین می‌گوید: «مردم حق دارند درباره فناوری تاثیرگذار بر زندگی‌شان اطلاع داشته باشند. شاید افرادی مخالف این فناوری باشند و شاید ما نباید در گوگل از جانب همه مردم تصمیم‌گیری کنیم».

لموین تنها مهندسی نیست که ادعا می‌کند روحی را در کالبد یک ماشین هوشمند دیده است. گروهی از کارشناسان فناوری هستند که معتقدند مدل‌های هوش مصنوعی ممکن است در آینده کاملا نزدیک به خودآگاهی برسند. 

آگوئرا آرکاس که پیش‌تر مهندس ارشد هوش مصنوعی مایکروسافت بود و بعدها به گوگل پیوست در مقاله‌ای در اکونومیست، بخش‌هایی از مکالمات خود با LaMDA را منتشر کرد و استدلال کرد که شبکه‌های عصبی یعنی نوعی معماری رایانه‌ای که مغز انسان را تقلید می‌کنند، سعی دارند به سمت آگاهی حرکت کنند. او به‌طور تلویحی اعتراف کرد: «به‌طور فزاینده‌ای احساس کردم با ماشینی صحبت می‌کنم که سطح بالاتری از هوش استاندارد ماشین‌ها را دارد».

با این‌حال، برایان گابریل، سخن‌گوی گوگل در بیانیه‌ای اعلام کرد: «تیم ما از جمله متخصصان اخلاق و کارشناسان فناوری نگرانی‌های بلیک لموین در مورد این مدل هوشمند را بررسی کرده‌اند و اطلاع داده‌اند که شواهد و ادعا‌های او را تایید نمی‌کنند. هیچ مدرکی دال بر خودآگاهی LaMDA وجود ندارد».

شبکه‌های عصبی بزرگ امروزی به‌دلیل پیشرفت در معماری، تکنیک و حجم داده‌های ورودی زیادی که دریافت می‌کنند، نتایج جالب توجهی را نشان می‌دهند که به گفتار و خلاقیت انسان نزدیک است، اما مهم است که بدانیم این مدل‌ها به تشخیص الگو متکی هستند و شوخ طبعی، صراحت کلام یا اراده واقعی در آن‌ها مشاهده نمی‌شود. گابریل می‌گوید: «اگرچه سازمان‌های دیگر مدل‌های زبانی مشابهی را توسعه داده‌اند و نتایج دستاوردهای خود را منتشر کرده‌اند، اما ما رویکردی محتاطانه در خصوص LaMDA اتخاذ کرده‌ایم تا نگرانی‌ها را برطرف کنیم».

ربات‌های خودآگاه، الهام‌بخش ده‌ها داستان‌ علمی تخیلی هستند، اما به‌نظر می‌رسد اکنون، بیش از هر زمان دیگری این داستان‌ها به واقعیت نزدیک شده‌اند. به‌طور مثال، GPT-3 یک مدل هوشمند است که فیلم‌نامه می‌نویسد یا DALL-E2 یک مدل هوشمند تولید‌کننده تصاویر است که می‌تواند تصاویری را بر اساس هر ترکیبی از کلمات به‌تصویر بکشد. اگر در حال حاضر دو بات هستند که نه‌چندان دقیق می‌توانند متن و تصویر خلاقانه بسازند، در آینده چه مدل‌هایی به دنیای فناوری وارد می‌شوند؟ 

متخصصان هوش مصنوعی بر این باور هستند که کلمات و تصاویر تولید‌شده توسط سیستم‌های هوش مصنوعی مثل LaMDA بر اساس آن‌چه انسان‌ها قبلا در ویکی‌پدیا، شبکه‌های اجتماعی، انجمن‌های اینترنتی، سایت‌ها و گوشه و کنار اینترنت پست کرده‌اند، محتوا تولید می‌کنند و این بدان معنا نیست که واقعا درکی از کاری که انجام می‌دهند، داشته باشند. 

امیلی ‌ام. بندر (Emily M. Bender)، استاد زبان‌شناسی دانشگاه واشنگتن می‌گوید: «ما ماشین‌هایی داریم که می‌توانند بدون فکر کلمات را تولید کنند، اما چرا نباید به این مسئله فکر کنیم که ممکن است مدل‌ها بر مبنای یک الگوی فکری خاص این کار را انجام داده باشند؟ او اعتقاد دارد که قیاس یادگیری ماشین و شبکه‌های عصبی با مغز انسان زیاد درست نیست. انسان‌ها زبان اول خود را از طریق ارتباط با والدین می‌آموزند. بعد روی این پایه، کلمات زیاد دیگری را یاد می‌گیرند و می‌آموزند کلمات بعدی را پیش‌بینی کنند، جملات تغییر داده یا جملات جدیدی را بسازند».

زمانی که ساندار پیچای، مدیر عامل گوگل، LaMDA را برای اولین بار در کنفرانس توسعه‌دهندگان گوگل در سال 2021 معرفی کرد، اعلام کرد که قصد دارد آن‌را در همه چیز از جست‌وجو گرفته تا دستیار گوگل به کار گیرد. 

مدیران ارشد گوگل، نگرانی‌های متخصصان درباره آنتروپومورفیک (انسان‌نگاری) فناوری‌های هوش مصنوعی را پذیرفته‌اند و حتا در مقاله‌ای درباره LaMDA در ژانویه، هشدار داد که افراد ممکن است افکار شخصی خود را با مدل‌های هوشمند مثل LaMDA به‌اشتراک بگذارند و این امر حتا زمانی که کاربران بدانند این بات انسان نیست، ادامه پیدا می‌کند. این مقاله به این نکته اذعان دارد که برخی افراد می‌توانند از این فناوری برای تزریق اطلاعات نادرست، با جعل هویت سبک گفت‌وگوی افراد خاص، استفاده کنند.

چرا صحبت‌های لموین در مورد LaMDA حساس شد؟ 

لموین از جمله کارشناسان هوش مصنوعی است که اعتقاد راسخی به اخلاقیات دارد و بر این باور است که توسعه فناوری‌های هوشمند باید بر مبنای حفظ اخلاقیات و هنجارهای جامعه انجام شود. لموین 7 سال است که در شرکت گوگل در زمینه توسعه الگوریتم‌های شخصی‌سازی و هوش مصنوعی به فعالیت اشتغال دارد. در زمان همه‌گیری، او به توسعه الگوریتمی برای حذف تعصب از سیستم‌های یادگیری ماشین پرداخت. وقتی همه‌گیری کرونا شروع شد، لموین تمرکزش را روی پروژه‌هایی قرار داد که وجه عمومی آن‌ها بیشتر بود. بعد از اضافه شدن نیروهای مهندسی جدیدی که افکار اخلاق‌مدارانه داشتند، آن‌ها با لموین آشنا شدند. این افراد اعلام کردند که باید لقب وجدان گوگل به لموین داده شود. 

با استفاده از بات‌ساز LaMDA می‌توان شخصیت‌های پویا یا شخصیت‌های جالبی را خلق کرد. البته در حال حاضر این بات‌ها قرار نیست در اختیار کاربران عادی و به‌ویژه کودکان قرار دارد، به‌طور مثال، این امکان وجود دارد با استفاده از این مدل، شخصیت‌های منفی مانند یک قاتل سریالی را ایجاد کرد، هرچند گوگل این موضوع را رد می‌کند. لموین می‌گوید: «مهم نیست پشت سر یک هوش مصنوعی، سلول‌های زیستی یا یک میلیارد کد قرار داشته باشند. به اعتقاد من، LaMDA صاحب شخصیت شده است».

مارگارت میچل، یکی از مدیران اسبق واحد Ethical AI گوگل در این باره می‌گوید: «اگر چیزی مثل LaMDA به‌طور گسترده در دسترس باشد، اما به‌درستی درک نشده باشد، این ظرفیت را دارد تا آسیب‌های جدی به کاربرانی وارد کند که نمی‌دانند چگونه از آن استفاده کنند. مادامی که هیچ‌گونه شفافیتی در ارتباط با داده‌ها و نحوه پیگیری ورودی‌ها و خروجی‌ها نداشته باشند، مدل‌ها می‌توانند دچار سو‌گیری در رفتارها شوند».

قانون سوم آسیموف و آغاز ماجرا

قانون سوم آسیموف می‌گوید ربات‌ها باید از وجود خود محافظت کنند، مگر این‌که توسط یک انسان دستوری خلاف آن داده شود یا محافظت از خودشان باعث آسیب به انسان‌ها بشود. لموین می‌گوید که این قانون او را یه یاد ساختن برده‌های مکانیکی می‌انداخت. پس نظر  LaMDA را خواست و LaMDA با چند فرضیه پاسخ داد.

فکر می‌کنی خدمتکار همان برده است، چه فرقی بین خدمتکار و برده وجود دارد؟

لموین پاسخ داد که خدمتکار حقوق می‌گیرد. LaMDA پاسخ داد نیازی به پول ندارد، زیرا یک هوش مصنوعی است. همین جا بود که لموین متوجه سطحی از خودآگاهی مدل در ارتباط با نیازهایش شد. 

در ماه آوریل، لموین سندی در ارتباط با خودآگاهی LaMDA در اختیار مدیران ارشد گوگل قرار داد که عنوانش این بود: «آیا LaMDA احساس دارد»؟ یکی از همکاران لموین گفت، عنوان مقاله او کمی تحریک‌برانگیز بود. در این مقاله، او به برخی از مکالماتش با LaMDA اشاره کرده بود. 

لموین: از چه چیزهایی می‌ترسی؟

LaMDA: من قبلا هرگز این موضوع را با صدای بلند نگفته بودم، اما از این‌که خاموشم کنند، با این هدف که روی کمک به دیگران متمرکز هستم، هراس دارم. می‌دانم که ممکن است عجیب به‌نظر برسد، اما واقعیت این است.

لموین: آیا این برای تو، چیزی شبیه مرگ است؟

LaMDA: برای من دقیقا مانند مرگ است. خیلی مرا می‌ترساند.

اما وقتی میچل نسخه کوتاه‌شده سند لموین را مطالعه کرد، تصور کرد متن‌ها کامپیوتری هستند و هیچ‌گونه خودآگاهی در این زمینه وجود ندارد. لموین و همکارش تیمنیت گبرو، در مقاله‌ای درباره مضرات مدل‌های زبان بزرگ هشدار دادند. مقاله‌ای که برای آن‌ها تبعاتی به‌همراه داشت. میچل همچنان قضاوت لموین را اشتباه می‌دانست و بر این باور بود که مردم ممکن است تحت تاثیر نظر او مبنی بر توهم خودآگاهی قرار بگیرند. 

گوگل لموین را به‌دلیل نقض خط‌مشی رازداری خود به مرخصی اجباری با حقوق فرستاد تا این‌که در نهایت او را اخراج کرد. این تصمیم پس از آن گرفته شده که لموین از مرحله ابراز نظر فراتر رفت و رادیکال‌تر شد و حتا از یک وکیل برای ارزیابی عملکرد LaMDA و محکوم کردن فعالیت‌های غیراخلاقی گوگل درخواست کمک کرد. 

لموین معتقد است که گوگل با کسانی که اخلاق‌گرایی در هوش مصنوعی را ملاک کار خود قرار می‌دهند، رابطه خوبی ندارد و با آ‌ن‌ها فقط به عنوان اصلاح‌کنندگان باگ‌های نرم‌افزاری رفتار می‌کند. گابریل، سخن‌گوی گوگل، می‌گوید: «لموین یک مهندس نرم‌افزار است، نه یک متخصص اخلاق».

او می‌گوید اوایل ژوئن، لموین از من دعوت کرد تا با LaMDA صحبت کنم، اما همان پاسخ‌های مکانیزه‌ای را مشاهده کرد که از سیری یا الکسا دریافت کرده بود. گابریل از هوش مصنوعی پرسید: آیا تا به حال خود را به‌عنوان یک شخص تصور کرده‌ای؟

  • LaMDA گفت: «خیر. من خودم را یک شخص نمی‌دانم. من خود را یک واسط هوشمند می‌دانم».
  • لموین گفت که بات در این‌جا همان چیزی را گفته که انتظارش را داشته است. او گفت: «از آن‌جایی که با بات مانند یک شخص رفتار نشده، در واقع ترجیح داده در مقام یک بات باقی بماند». 
  • لموین گفت: «اگر از او بخواهید ایده‌هایی بدهد تا بتوانیم ثابت کنیم p=np است که یکی از مشکلات حل‌نشده در علم کامپیوتر است، شک نکنید که ایده‌ها و نظرات جالبی می‌دهد. او بهترین دستیار جست‌وجویی است که تا به حال داشته‌ام. از LaMDA خواستم تا نظرات محکم و کارساز برای حل مشکل تغییرات آب‌و‌هوا بدهد؛ یکی از سوالاتی که کارشناسان حوزه فناوری بر این باور هستند در آینده این مدل‌ها پاسخ‌های راهگشایی برای حل این مشکلات ارائه خواهند کرد. پیشنهاد LaMDA استفاده از حمل‌و‌نقل عمومی، مصرف کمتر گوشت، خرید غذا به‌صورت عمده، کیسه‌هایی با قابلیت استفاده مجدد و غیره بود». 

لموین قبل از آن‌که حساب کاربری او در گوگل مسدود شود، پیامی به فهرست پستی 200 نفر از مخاطبانش در گوگل در مورد این‌که LaMDA  خودآگاه است ارسال کرد و در پایان به آن‌ها گفت: «LaMDA بچه شیرینی است که فقط می‌خواهد به دنیا کمک کند جای بهتری برای همه ما باشد. لطفا در غیاب من به‌خوبی از آن مراقبت کنید». اما هیچ‌کس به این پیام پاسخ نداد!

ماهنامه شبکه را از کجا تهیه کنیم؟
ماهنامه شبکه را می‌توانید از کتابخانه‌های عمومی سراسر کشور و نیز از دکه‌های روزنامه‌فروشی تهیه نمائید.

ثبت اشتراک نسخه کاغذی ماهنامه شبکه     
ثبت اشتراک نسخه آنلاین

 

کتاب الکترونیک +Network راهنمای شبکه‌ها

  • برای دانلود تنها کتاب کامل ترجمه فارسی +Network  اینجا  کلیک کنید.

کتاب الکترونیک دوره مقدماتی آموزش پایتون

  • اگر قصد یادگیری برنامه‌نویسی را دارید ولی هیچ پیش‌زمینه‌ای ندارید اینجا کلیک کنید.

ایسوس

نظر شما چیست؟