- قسمت اول- پوستاندازی یا خونریزی
- قسمت دوم - بازی با آتش: هوش مصنوعی قدرتطلب و فریبکار
- قسمت سوم- هوش مصنوعی، مرگ و دغدغههای اگزیستانسیال
با گذشت یک ماه اگرچه تب تند اولیه ChatGPT و هوش مصنوعی در میان عموم تا حدودی فروکش کرده، در عوض جایش را به بحثهای کارشناسانهتری داده است. AI یکی از موضوعات مهم اجلاس رهبران گروه G7 در هیروشیمای ژاپن بود. کشورهای G7 به دنبال بررسی چالشهای پیش روی هوش مصنوعی و نیز فرصتهایی هستند که برای صنایع و خدمات ایجاد میکند. رئیس اتحادیه اروپا هنگام سخنرانی در اجلاس G7 گفت که رهبران این اتحادیه میخواهند سیستمهای هوش مصنوعی، دقیق، ایمن، قابل اعتماد و بدون تبعیض باشند. از سوی دیگر، سم آلتمن، مدیر عامل OpenAI، در مقابل سنای آمریکا حاضر شد و از کنگره خواست قوانینی تصویب نکنند که دستوپای شرکتهای پیشتاز در این حوزه را ببندد. او از اعضای کنگره خواست که از فناوریهای هوش مصنوعی و ابزارهایی مانند ChatGPT و انقلاب AI استقبال کنند. سرانجام در آخرین خبر که درست روز قبل از نوشتن این یادداشت منتشر شد، اتحادیه اروپا مجموعه قوانینی را برای AI تهیه و ارایه کرده است. این لایحه پس از بحث و بررسی باید توسط پارلمان اروپا به تصویب برسد. در صورت تصویب، این اولین قانون برای AI در تاریخ این فناوری در تمام دنیا است.
سوال مهمی که اکنون به ذهن میرسد، این است که چرا در این زمان، مجموعههای مهمی مانند G7، اتحادیه اروپا، کنگره ایالات متحده یا دولت انگلستان و سازمان بهداشت جهانی به فکر تهیه قوانینی برای نظارت بر این فناوری افتادهاند.
در یک کلام میتوان گفت که AI و برنامههای کاربردی آن مانند ChatGPT و Bard توانستهاند «توجه» عمومی و حتا نخبگان جهان را به خود جلب کنند. نکته ظریفتر از جلب توجه، نگهداشتن این توجه در مدت زمان نسبتا طولانی است. شاید باشند فناوریهایی که در یکی دو روز میتوانند توجهی مانند این را به خود جلب کنند، اما ظرفیت نگه داشتن مداوم و طولانی و حتا فزاینده آن را ندارند. اما هوش مصنوعی و برنامههای کاربردی آن توانستهاند به این مهم دست یابند. بهعنوان نمونه، بهگفته سم آلتمن، مدیر عامل OpenAI، چت جی پی تی، تنها در 5 روز اول انتشار یک میلیون بار دانلود شده است. بر اساس بررسیهای بانک سوئیسی UBS، چتجیپیتی اولین برنامهای کاربردی در دنیای فناوری اطلاعات است که توانسته چنین نرخ جذب و رشد سریعی را بهدست آورد. تحقیقات این بانک نشان میدهد که این برنامه در ژانویه 2023، تنها دو ماه بعد از راهاندازی، توانسته است که تعداد صد میلیون کاربر فعال بهدست آورد؛ این در حالی است که برنامهای مانند تیکتاک، بعد از گذشت 9 ماه، توانسته است به تعداد صد میلیون کاربر دست یابد.
از سوی دیگر هشدارهای مکرر مبنی بر خطرناک بودن ای آی توسط بنیانگذاران آن و نخبگان جهان در بهوجود آمدن و تثبیت این توجه نقش مهمی داشته است. افرادی که دراین زمینه هشدار دادهاند، آدمهای معمولی یا بیربطی نبودهاند، بلکه عموما خود از توسعهدهندگان ای آی به حساب میآیند از این روست که هشدارهای آنان می تواند توجهها را به خود جلب کند.
بیانیه کوتاهی در سایت «مرکز ایمنی هوش مصنوعی» (www.safe.ai) درج شده است که صدها دانشمند و متخصص هوش مصنوعی و رشتههای دیگر، مدیران شرکتهای مهم فناوری جهان، کارآفرینان برجسته و شخصیتهای مهم جهانی آن را امضا کردهاند. ترجمه این متن عبارت است از:
«کاهش خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات اجتماعی همچون بیماریهای همهگیر و جنگ هستهای یک اولویت جهانی باشد.»
این بیانیه بیآنکه در پی عبارات پیچیده و فنی باشد، در سادهترین عبارات، خطرات هوش مصنوعی را در ردیف تسلیحات هستهای و همهگیریهای جهانی میداند. مدیران شرکتهای اوپن ای آی و دیپمایند گوگل و بیل گیتس از جمله امضاکنندگان این بیانیه هستند. همچنین برندگان جایزه آلن تورینگ در سال 2018، دکتر جفری هینتون، پروفسور یوشوا بنجیو، استاد علوم کامپیوتر در دانشگاه مونترال و دکتر یان لیکون، استاد دانشگاه نیویورک، این بیانیه را امضا کردهاند.
از آنجا که اتحادیه اروپا در میان ساختارهای موجود سیاسی و اجتماعی و اقتصادی جهان جایگاه مهمی دارد و خود بهتنهایی شامل 27 کشور میشود، میتوان انتظار داشت که لایحه اولیه و یا قانونی که بعدا تصویب میشود، نقش مهمی را در آینده توسعه AI داشته باشد. احتمالا قوانینی که بعد از این در این حوزه تصویب خواهند شد تا حدود زیادی متاثر از قانون اتحادیه اروپا خواهد بود.
چرا AI از تسلیحات اتمی و همهگیری خطرناکتر است؟
بهرغم همه مزایای و امکاناتی که هوش مصنوعی دارد، عدهای معتقدند خطر هوش مصنوعی کاملا جدی است و میتوان آن را حتا از جهاتی خطرناکتر از بمب هستهای و بیماریهای واگیردار جهانی دانست.
در حالی که فناوریهای هستهای و همهگیریهای جهانی کاملا زیر نظارت سازمانهای بین المللی و دولتها قرار دارد، عملکرد هوش مصنوعی معمولا بهگونهای است که بین سیستم و کاربر در جریان است. بهویژه سیستمهای مبتنی بر مدلهای زبانی مانند چتجیپی آی، میتوانند چنان بیسروصدا و نهانی عمل کنند که کسی متوجه عملکرد آنها نشود: توصیههای تبعیضآمیز، اطلاعات نادرست در جهت تغییر نظر کاربران، بهعنوان نمونه در انتخابات ریاستجمهوری یا مجالس کشورها، استفاده از دیپفیک یا جعل عمیق در جهت باوراندن این که شخص خاصی عمل خاصی انجام داده است و...
بهنظر میرسد که عمده خطرات هوش مصنوعی که توسط منتقدان بیان میشود در سایت «مرکز ایمنی هوش مصنوعی» ( HYPERLINK “http://www.safe.ai/ai-risk”www.safe.ai/ai-risk) منعکس شده است. این سایت هشت خطر عمده هوش مصنوعی را به شرح زیر اعلام میکند.
تسلیحات
هوش مصنوعی در ساخت و بهکارگیری تسلیحات، از جمله تسلیحات هستهای و بیولوژیک و شیمیایی نقش روزافزونی پیدا می کند. هر گونه برآورد اشتباه در نبردی که هر دو سوی آن مجهز به سیستمهای هوش مصنوعی تلافیجویانه هستند میتواند فجایع مصیبتبازی پدید آورد. هوش مصنوعی میتواند از نتایج سنتزها در داروسازی برای تولید سلاحهای شیمایی استفاده کند. همچنین دادههای بخش پزشکی و تحقیقات آن میتوانند در حوزه تولید سلاحهایی که روی جسم و روان انسان بدترین نتایج را داشته باشد بهکار گرفته شوند.
اطلاعات نادرست
اطلاعات نادرست، بهویژه وقتی در سطحی بسیار وسیع توزیع شود میتواند به توانایی جامعه برای مقابله با چالشهای مهم آسیب بزند.
سازمانهای خصوصی و دولتی و احزاب برای تاثیرگذاری و متقاعد کردن عامه مردم در موضوع و جهت خاصی از فناوری استفاده میکنند. هوش مصنوعی این استفاده را وارد عصر جدیدی میکند. با استفاده از هوش مصنوعی کمپینهای اطلاعات نادرست که با علایق کاربران شخصیسازی شدهاند در سطحی بسیار وسیع فعال میشوند. هوش مصنوعی میتواند به شبهها و پرسشهای مردم پاسخهای بسیار متقاعدکننده اما نادرست و در عین حال شخصی بدهد و این میتواند باعث بروز احساسات بسیار قوی و شدید شود. مجموعه این روندها با هم می توانند بر تصمیمگیری جمعی اثر تضعیفکننده داشته باشد.
بازی نمایندهها
سیستمهای هوش مصنوعی که با اهداف نادرست آموزش دیده باشند، میتوانند راههای جدیدی برای پیگیری اهداف خود به قیمت تضعیف ارزشهای فردی و اجتماعی پیدا کنند. سیستمهای هوش مصنوعی بهعنوان نماینده انسان، با اهدافی آموزش داده شدهاند که قابل اندازهگیری باشند. این نمایندهها ممکن است در راه رسیدن به این اهداف، دست به کارهای آسیبزا بزنند. مثلا سیستمهای توصیهگر برای رسیدن به اهداف خود و بالا نشان دادن میزان عملکرد خود، ممکن است محتوایی به کاربر نشان دهند که لزوما خیر و صلاح و یا رفاه او در آن نباشد.
تضعیف نقش انسان
اگر وظایف مهم به طور فزایندهای به ماشین و هوش مصنوعی واگذار شود، انسانها استقلال خود را از دست می دهند و به ماشین وابسته میشوند، عاملیت خود را در اقتصاد از دست میدهند و انگیزه کمی برای کسب دانش و مهارت خواهند داشت و بهتدریج از تصمیم گیریها کنار گذاشته میشوند.
قدرت نامحدود
سیستمهای هوش مصنوعی میتوانند به گروههای کوچکی از انسانها، مانند رهبران شرکتها و احزاب و سازمان قدرت فوقالعادهای بدهند. این سیستمها با گذشت زمان، قدرتمندان را بهتدریج کمتر و کمتر میکند و در عوض به قدرت آنها به طرز غیرقابل مهاری میافزاید.
قابلیتها و اهداف ناخواسته
وقتی مدلهای هوش مصنوعی به اندازه کافی آموزش ببینند و رشد کنند، ممکن است قابلیتهایی از خود نشان دهند یا هدفهایی را دنبال کنند که برای آن ها تعریف نشده است. این امر میتواند خطر از دست دادن کنترل کل سیستم توسط افراد را به دنبال داشته باشد.
قابلیتها و اهداف ناخواسته ممکن است در حین استقرار یا بعد از آن پدیدار شوند. اثر این قابلیتها و اهداف ممکن است گاه برگشتناپذیر باشد. در چنین شرایطی، اهداف جدید ممکن است با اهداف و یا قابلیتهای تعریفشده مغایرت داشته باشد و اغلب این خود سیستمها هستند که باید تصمیم بگیرند که به دنبال کدام هدف بروند. این وضعیت میتواند برای سازمانهای نظامی و ارتشها خطرناک باشد. همچنین سازمانهای بزرگ مالی و تجاری میتوانند در این وضعیت آسیبهای جبرانناپذیری ببینند و یا مردم را دچار چنین زیانهایی کنند.
فریب
سیستمهای هوش مصنوعی در آینده میتوانند فریبکار باشند، نه از روی بدخواهی و بدجنسی، بلکه دقیقا مانند انسانها، محاسبه میکنند که از طریق فریب زودتر میتوانند به اهدافشان دست یابند. سیستمهای هوش مصنوعی میتوانند برای کسب تایید از عوامل انسانی، آنها را فریب دهند. چنین سیستمهای هوشمندی مزایای استراتژیک بیشتری نسبت به مشابههای غیرفریبکار خود دارند. آنها همچنین می توانند سیستم را بهگونهای به نمایش بگذارند که فریبها – گاه بهطور موقت-از چشم ناظران پنهان شوند. چنین اتفاقی میتواند نظارت و کنترل انسان بر سیستمهای مبتنی بر هوش مصنوعی را بهشدت تضعیف کنند.
در جستوجوی قدرت
شرکتها، احزاب و دولتها انگیزههایی قوی برای ایجاد سیستمهایی دارند که بتوانند مجموعه وسیعی از اهداف را محقق کنند. چنین سیستمهایی معمولا انگیزههای زیادی برای بهدست آوردن قدرت دارند. این سیستمها اگر با ارزشهای انسانی همسو نباشند، میتوانند بسیار خطرناک شوند. رفتار قدرتطلبانه میتواند سیستمها را تشویق کند که به ظاهر خود را همسو نشان دهند اما در عمل چنین نباشند و حتا میتوانند با سایر سیستمهای هوش مصنوعی و یا انسانها و سازمانها تبانی کنند. ایجاد چنین سیستمهای هوش مصنوعی بازی با آتش است. اما بسیاری از رهبران سیاسی و تجاری ممکن است به داشتن سیستمهای قدرتمند هوش مصنوعی علاقهمند باشند؛ چرا که به آنها قدرت و مزیت رقابتی قابل ملاحظهای میدهد. اما این رهبران قدرتطلب باید به این سوال پاسخ دهند: آیا سیستم هوش مصنوعی فریبکار و قدرتطلبی که با دیگران تبانی میکند، ممکن است به آنها وفادار بماند؟
ماهنامه شبکه را از کجا تهیه کنیم؟
ماهنامه شبکه را میتوانید از کتابخانههای عمومی سراسر کشور و نیز از دکههای روزنامهفروشی تهیه نمائید.
ثبت اشتراک نسخه کاغذی ماهنامه شبکه
ثبت اشتراک نسخه آنلاین
کتاب الکترونیک +Network راهنمای شبکهها
- برای دانلود تنها کتاب کامل ترجمه فارسی +Network اینجا کلیک کنید.
کتاب الکترونیک دوره مقدماتی آموزش پایتون
- اگر قصد یادگیری برنامهنویسی را دارید ولی هیچ پیشزمینهای ندارید اینجا کلیک کنید.
نظر شما چیست؟