هوش مصنوعی - قسمت دوم
بازی با آتش: هوش مصنوعی قدرت‌طلب و فریب‌کار

مطلب پیشنهادی

پوست‌اندازی یا خون‌ریزی
هوش مصنوعی و چت‌جی‌پی‌تی- قسمت اول

  1. قسمت اول- پوست‌اندازی یا خون‌ریزی
  2. قسمت دوم - بازی با آتش: هوش مصنوعی قدرت‌طلب و فریب‌کار
  3. قسمت سوم- هوش مصنوعی، مرگ و دغدغه‌های اگزیستانسیال

 

با گذشت یک ماه اگرچه تب تند اولیه ChatGPT و هوش مصنوعی در میان عموم تا حدودی  فروکش کرده، در عوض جایش را به بحث‌های کارشناسانه‌تری داده است. AI  یکی از موضوعات مهم اجلاس رهبران گروه G7  در هیروشیمای ژاپن بود.  کشورهای G7 به ‌دنبال بررسی چالش‌های پیش روی  هوش مصنوعی و نیز فرصت‌هایی هستند که برای صنایع و خدمات ایجاد می‌کند. رئیس اتحادیه اروپا هنگام سخنرانی در اجلاس G7 گفت که رهبران این اتحادیه می‌خواهند سیستم‌های هوش مصنوعی، دقیق، ایمن، قابل اعتماد و بدون تبعیض باشند. از سوی دیگر، سم آلتمن، مدیر عامل OpenAI، در مقابل سنای آمریکا حاضر شد و از کنگره خواست قوانینی تصویب نکنند که دست‌وپای شرکت‌های پیشتاز در این حوزه را ببندد. او از اعضای کنگره خواست که از فناوری‌های هوش مصنوعی و ابزارهایی مانند  ChatGPT و انقلاب AI استقبال کنند. سرانجام در آخرین خبر که درست روز قبل از نوشتن این یادداشت منتشر شد، اتحادیه اروپا مجموعه قوانینی را برای AI تهیه و ارایه کرده است. این لایحه پس از بحث و بررسی باید توسط پارلمان اروپا به تصویب برسد.  در صورت تصویب، این اولین قانون برای AI در تاریخ این فناوری در تمام دنیا است.

سوال مهمی که اکنون به ذهن می‌رسد، این است که چرا در این زمان، مجموعه‌های مهمی مانند G7، اتحادیه اروپا، کنگره ایالات متحده یا دولت انگلستان و سازمان بهداشت جهانی به فکر تهیه قوانینی برای نظارت بر این فناوری افتاده‌اند.

در یک کلام می‌توان گفت که AI و برنامه‌های کاربردی آن مانند ChatGPT و Bard توانسته‌اند «توجه» عمومی و حتا نخبگان جهان را به خود جلب کنند. نکته ظریف‌تر از جلب توجه، نگه‌داشتن این توجه در مدت زمان نسبتا طولانی است. شاید باشند فناوری‌هایی که در یکی دو روز می‌توانند توجهی مانند این را به خود جلب کنند، اما ظرفیت نگه‌ داشتن مداوم و طولانی و حتا فزاینده آن را ندارند. اما هوش مصنوعی و برنامه‌های کاربردی آن توانسته‌اند به این مهم دست یابند. به‌عنوان نمونه، به‌گفته سم آلتمن، مدیر عامل OpenAI، چت جی پی تی، تنها در 5 روز اول انتشار یک میلیون بار دانلود شده است. بر اساس بررسی‌های بانک سوئیسی  UBS، چت‌جی‌پی‌تی اولین برنامه‌ای کاربردی در دنیای فناوری اطلاعات است که توانسته چنین نرخ جذب و رشد سریعی را به‌دست آورد. تحقیقات این بانک نشان می‌دهد که این برنامه در ژانویه 2023، تنها دو ماه بعد از راه‌اندازی، توانسته است که تعداد صد میلیون کاربر فعال به‌دست آورد؛ این در حالی است که برنامه‌ای مانند تیک‌تاک، بعد از گذشت 9 ماه، توانسته است به تعداد صد میلیون کاربر دست یابد.

از سوی دیگر هشدارهای مکرر مبنی بر خطرناک بودن ای آی توسط بنیانگذاران آن و نخبگان جهان در به‌وجود آمدن و تثبیت این توجه نقش مهمی داشته است. افرادی که دراین زمینه هشدار داده‌اند، آدم‌های معمولی یا بی‌ربطی نبوده‌اند، بلکه عموما خود از توسعه‌دهندگان ای آی به حساب می‌آیند از این روست که هشدارهای آنان می تواند توجه‌ها را به خود جلب کند.

بیانیه کوتاهی در سایت «مرکز ایمنی هوش مصنوعی» (www.safe.ai) درج شده است که صدها دانشمند و متخصص هوش مصنوعی و رشته‌های دیگر، مدیران شرکت‌های مهم فناوری جهان، کارآفرینان برجسته و شخصیت‌های مهم جهانی آن را امضا کرده‌اند. ترجمه این متن عبارت است از:

«کاهش خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات اجتماعی همچون بیماری‌های همه‌گیر و جنگ هسته‌ای یک اولویت جهانی باشد.»

این بیانیه بی‌آنکه در پی عبارات پیچیده و فنی باشد، در ساده‌ترین عبارات، خطرات هوش مصنوعی را در ردیف تسلیحات هسته‌ای و همه‌گیری‌های جهانی می‌داند. مدیران شرکت‌های اوپن ای آی و دیپ‌مایند گوگل و بیل گیتس از جمله امضاکنندگان این بیانیه هستند. همچنین برندگان جایزه آلن تورینگ در سال 2018، دکتر جفری هینتون، پروفسور یوشوا بنجیو، استاد علوم کامپیوتر در دانشگاه مونترال و دکتر یان لیکون، استاد دانشگاه نیویورک، این بیانیه را امضا کرده‌اند.

از آن‌جا که اتحادیه اروپا در میان ساختارهای موجود سیاسی و اجتماعی  و اقتصادی جهان جایگاه مهمی دارد و خود به‌تنهایی شامل 27 کشور می‌شود، می‌توان انتظار داشت که لایحه اولیه و یا قانونی که بعدا تصویب می‌شود، نقش مهمی را در آینده توسعه AI داشته باشد. احتمالا قوانینی که بعد از این در این حوزه تصویب خواهند شد تا حدود زیادی متاثر از قانون اتحادیه اروپا خواهد بود.

چرا AI از تسلیحات اتمی و همه‌گیری خطرناک‌تر است؟

به‌رغم همه مزایای و امکاناتی که هوش مصنوعی دارد، عده‌ای معتقدند خطر هوش مصنوعی کاملا جدی است و می‌توان آن را حتا از جهاتی خطرناک‌تر از بمب هسته‌ای و بیماری‌های واگیردار جهانی دانست. 

در حالی که فناوری‌های هسته‌ای و همه‌گیری‌های جهانی کاملا زیر نظارت سازمان‌های بین المللی و دولت‌ها قرار دارد، عملکرد هوش مصنوعی معمولا به‌گونه‌ای است که بین سیستم و کاربر در جریان است. به‌ویژه سیستم‌های مبتنی بر مدل‌های زبانی مانند چت‌جی‌پی آی، می‌توانند چنان بی‌سروصدا و نهانی عمل کنند که کسی متوجه عملکرد آن‌ها نشود: توصیه‌های تبعیض‌آمیز، اطلاعات نادرست در جهت تغییر نظر کاربران، به‌عنوان نمونه در انتخابات ریاست‌جمهوری یا مجالس کشورها، استفاده از دیپ‌فیک یا جعل عمیق در جهت باوراندن این که شخص خاصی عمل خاصی انجام داده است و...

به‌نظر می‌رسد که عمده خطرات هوش مصنوعی که توسط منتقدان بیان می‌شود در سایت «مرکز ایمنی هوش مصنوعی» ( HYPERLINK “http://www.safe.ai/ai-riskwww.safe.ai/ai-risk) منعکس شده است. این سایت هشت خطر عمده هوش مصنوعی را به شرح زیر اعلام می‌کند.

تسلیحات 

هوش مصنوعی در ساخت و به‌کارگیری تسلیحات، از جمله تسلیحات هسته‌ای و بیولوژیک و شیمیایی نقش روزافزونی پیدا می کند. هر گونه برآورد اشتباه در نبردی که هر دو سوی آن مجهز به سیستم‌های هوش مصنوعی تلافی‌جویانه هستند می‌تواند فجایع مصیبت‌بازی پدید آورد. هوش مصنوعی می‌تواند از نتایج سنتزها در داروسازی برای تولید سلاح‌های شیمایی استفاده کند. همچنین داده‌های بخش پزشکی و تحقیقات آن می‌توانند در حوزه تولید سلاح‌هایی که روی جسم و روان انسان بدترین نتایج را داشته باشد به‌کار گرفته شوند.

 اطلاعات نادرست

اطلاعات نادرست، به‌ویژه وقتی در سطحی بسیار وسیع توزیع شود می‌تواند به توانایی جامعه برای مقابله با چالش‌های مهم آسیب بزند. 

سازمان‌های خصوصی و دولتی و احزاب برای تاثیرگذاری و متقاعد کردن عامه مردم در موضوع و جهت خاصی از فناوری استفاده می‌کنند. هوش مصنوعی این استفاده را وارد عصر جدیدی می‌کند. با استفاده از هوش مصنوعی کمپین‌های اطلاعات نادرست که با علایق کاربران شخصی‌سازی شده‌اند در سطحی بسیار وسیع فعال می‌شوند. هوش مصنوعی می‌تواند به شبه‌ها و پرسش‌های مردم پاسخ‌های بسیار متقاعدکننده اما نادرست  و در عین حال شخصی بدهد و این می‌تواند باعث بروز احساسات بسیار قوی و شدید شود. مجموعه این روند‌ها با هم می توانند بر تصمیم‌گیری جمعی اثر تضعیف‌کننده داشته باشد.

 بازی نماینده‌ها 

سیستم‌های هوش مصنوعی که با اهداف نادرست آموزش دیده باشند، می‌توانند راه‌های جدیدی برای پیگیری اهداف خود به قیمت تضعیف ارزش‌های فردی و اجتماعی پیدا کنند. سیستم‌های هوش مصنوعی به‌عنوان نماینده انسان، با اهدافی آموزش داده شده‌اند که قابل اندازه‌گیری باشند. این نماینده‌ها ممکن است در راه رسیدن به این اهداف، دست به کارهای آسیب‌زا بزنند. مثلا سیستم‌های توصیه‌گر برای رسیدن به اهداف خود و بالا نشان ‌دادن میزان عملکرد خود، ممکن است محتوایی به کاربر نشان دهند که لزوما خیر و صلاح و یا رفاه او در آن نباشد.

 تضعیف نقش انسان

اگر وظایف مهم به طور فزاینده‌ای به ماشین و هوش مصنوعی واگذار شود، انسان‌ها استقلال خود را از دست می دهند و به ماشین وابسته می‌شوند، عاملیت خود را در اقتصاد از دست می‌دهند و انگیزه کمی برای کسب دانش و مهارت خواهند داشت و به‌تدریج از تصمیم گیری‌ها کنار گذاشته می‌شوند.

 قدرت نامحدود

سیستم‌های هوش مصنوعی می‌توانند به گروه‌های کوچکی از انسان‌ها، مانند رهبران شرکت‌ها و احزاب و سازمان قدرت فوق‌العاده‌ای بدهند. این سیستم‌ها با گذشت زمان، قدرت‌مندان را به‌تدریج کم‌تر و کم‌تر می‌کند و در عوض به قدرت آن‌ها به طرز غیرقابل مهاری می‌افزاید.

 قابلیت‌ها و اهداف ناخواسته

وقتی مدل‌های هوش مصنوعی به اندازه کافی آموزش ببینند و رشد کنند، ممکن است قابلیت‌هایی از خود نشان دهند یا هدف‌هایی را دنبال کنند  که برای آن ها تعریف نشده است. این امر می‌تواند خطر از دست دادن کنترل کل سیستم توسط افراد را به دنبال داشته باشد.

قابلیت‌ها و اهداف ناخواسته ممکن است در حین استقرار یا بعد از آن پدیدار شوند. اثر این قابلیت‌ها و اهداف ممکن است گاه برگشت‌ناپذیر باشد. در چنین شرایطی، اهداف جدید ممکن است با اهداف و یا قابلیت‌های تعریف‌شده مغایرت داشته باشد و اغلب این خود سیستم‌ها هستند که باید تصمیم بگیرند که به دنبال کدام هدف بروند. این وضعیت می‌تواند برای  سازمان‌های نظامی و ارتش‌ها خطرناک باشد. همچنین سازمان‌های بزرگ مالی و تجاری می‌توانند در این وضعیت آسیب‌های جبران‌ناپذیری ببینند و یا مردم را دچار چنین زیان‌هایی کنند.

 فریب

سیستم‌های هوش مصنوعی در آینده می‌توانند فریبکار باشند، نه از روی بدخواهی و بدجنسی، بلکه دقیقا مانند انسان‌ها، محاسبه می‌کنند که از طریق فریب زودتر می‌توانند به اهدافشان دست یابند. سیستم‌های هوش مصنوعی می‌توانند برای کسب تایید از عوامل انسانی، آن‌ها را فریب دهند. چنین سیستم‌های هوشمندی مزایای استراتژیک بیشتری نسبت به مشابه‌های غیرفریبکار خود دارند. آن‌ها همچنین می توانند سیستم را به‌گونه‌ای به نمایش بگذارند که فریب‌ها – گاه به‌طور موقت-از چشم ناظران پنهان شوند. چنین اتفاقی می‌تواند نظارت و کنترل انسان بر سیستم‌های مبتنی بر هوش مصنوعی را به‌شدت تضعیف کنند.

 در جست‌وجوی قدرت

شرکت‌ها، احزاب و دولت‌ها انگیزه‌هایی قوی برای ایجاد سیستم‌هایی دارند که بتوانند مجموعه وسیعی از اهداف را محقق کنند. چنین سیستم‌هایی معمولا انگیزه‌های زیادی برای به‌دست آوردن قدرت دارند. این سیستم‌ها اگر با ارزش‌های انسانی همسو نباشند، می‌توانند بسیار خطرناک شوند. رفتار قدرت‌طلبانه می‌تواند سیستم‌ها را تشویق کند که به ظاهر خود را همسو نشان دهند اما در عمل چنین نباشند و حتا می‌توانند با سایر سیستم‌های هوش مصنوعی و یا انسان‌ها و سازمان‌ها تبانی‌ کنند. ایجاد چنین سیستم‌های هوش مصنوعی بازی با آتش است. اما بسیاری از رهبران سیاسی و تجاری ممکن است به داشتن سیستم‌‌های قدرتمند هوش مصنوعی علاقه‌مند باشند؛ چرا که به آن‌ها قدرت و مزیت رقابتی قابل ملاحظه‌ای می‌دهد. اما این رهبران قدرت‌طلب باید به این سوال پاسخ دهند: آیا سیستم هوش مصنوعی فریبکار و قدرت‌طلبی که با دیگران تبانی می‌کند، ممکن است به آن‌ها وفادار بماند؟

ماهنامه شبکه را از کجا تهیه کنیم؟
ماهنامه شبکه را می‌توانید از کتابخانه‌های عمومی سراسر کشور و نیز از دکه‌های روزنامه‌فروشی تهیه نمائید.

ثبت اشتراک نسخه کاغذی ماهنامه شبکه     
ثبت اشتراک نسخه آنلاین

 

کتاب الکترونیک +Network راهنمای شبکه‌ها

  • برای دانلود تنها کتاب کامل ترجمه فارسی +Network  اینجا  کلیک کنید.

کتاب الکترونیک دوره مقدماتی آموزش پایتون

  • اگر قصد یادگیری برنامه‌نویسی را دارید ولی هیچ پیش‌زمینه‌ای ندارید اینجا کلیک کنید.

ایسوس

نظر شما چیست؟