ایلان ماسک، مدیرعامل شرکتهای اسپیس ایکس و تسلا، در صحبتها و توییتهای خود ساخت هوش عمومی مصنوعی را نکوهش کرده و بر این باور است که توسعه ابرهوش مصنوعی پایان کار انسانها است. در جریان برگزاری رویداد SXSW در سال 2018، او گفت: «توسعه ابرهوشهای دیجیتالی بزرگترین تهدید جوامع بشری هستند، زیرا آنها خودمختار هستند، برای انجام کارهای خود نیازی به کمک انسانها ندارند و حتا برای کاری که انجام میدهند به کسی جواب پسنمیدهند. این ابرهوشها فشار مضاعفی بر جامعه وارد میکنند». او در ادامه صحبتهای خود گفت: «روزی خواهد رسید که سیستمهای ابرهوش مصنوعی خطرناکتر و کشندهتر از بمبهای هستهای شوند». استیون هاوکینگ فقید در مصاحبهای که سال 2014 با یکی از شبکههای خبری انجام داد، نگرانیهای شدید خود را ابراز کرد و گفت: «اگر در مسیر توسعه هوش عمومی مصنوعی گام بردارید، نژاد انسان بهپایان میرسد.»
استوارت راسل (Stuart Russell)، دانشمند علوم کامپیوتر در مستند کوتاهی که تحت عنوان Slaughterbots منتشر شد و درباره ساخت سلاحهایی است که از هوش مصنوعی برای شناسایی و کشتن انسانها استفاده میکنند، نگرانی عمیق خود را ابراز کرد. او بر این باور است که باید فیلمهای مستند کوتاهی در مورد ماهیت خطرناک بهکارگیری این فناوری در مقاصد مخرب ساخته شود تا مردم آگاه شوند و شرکتها را مجبور کنند دست از ساخت سلاحهای خودران کاملا هوشمند بردارند.
با اینحال، عده کمی نسبت به مخاطراتی که سیستمهای هوش مصنوعی برای انسانها بهوجود میآورد، دست به اعتراض زدهاند. متاسفانه، در عصر فعلی نیز، سامانههای هوش مصنوعی آسیبهای جدی به ساختار جوامع وارد کردهاند، اما تاثیرات مخرب آنها بهگونهای نیست که مورد توجه همه مردم قرار گیرد. بهطور مثال، امروزه الگوریتمهای هوشمندی توسعه پیدا کردهاند که قادر به شناسایی قومیتها از روی چهرهها آنها هستند.
در حال حاضر، نگرانی خاصی از بابت برتری سیستمهای ابرهوشمند نسبت به انسانها یا تاثیرگذاری مخرب آنها بر جهان وجود ندارد، زیرا آنها بیشتر در واحدهای تولیدی و کارخانهها استفاده میشوند و تنها باعث بیکاری افراد میشوند و در نتیجه هنوز فاصله زیادی با زمانی داریم که این ابر سیستمهای هوشمند تبدیل به سرکارگرانی شوند که مسئولیت نیروی کار به آنها سپرده شده است. با اینحال، نگرانی بزرگی که اکنون وجود دارد در روند استخدام است. امروزه، برخی شرکتها از سیستمهای هوش مصنوعی بهجای مدیران استخدامی استفاده میکنند تا رزومههای دریافتی را ارزیابی کنند و از میان آنها گزینههای مناسب را دعوت به مصاحبه کنند. یکی از بزرگترین نگرانیها در حوزه توسعه الگوریتمهای هوشمند در بخش منابع انسانی، ورود تعصبات فرهنگی و اجتماعی در هنگام توسعه این مدل سامانهها است.
دانشمندان داده و آماردانان جمله معروفی دارند که میگوید: «ورودی اشتباه و بدون کیفیت، خروجی نادرست ارائه میکند.»
هنگامیکه در مورد الگوریتمهای یادگیری ماشین صحبت میکنیم، گزاره بالا به یک چالش بزرگ تبدیل میشود. یادگیری عمیق یکی از زیرشاخههای مهم یادگیری ماشین است که اشاره به شبکههای عصبی و نورونهایی دارد که تلاش میکنند الگوها را شناسایی کنند. این الگوی تطبیقی همان چیزی است که به کامپیوترها امکان میدهد با شنیدن فقط چند ثانیه از یک موسیقی یا آهنگها، آنها را شناسایی کنند یا وقتی فردی در حال صحبت است او را شناسایی کنند و گفتار را به نوشتار تبدیل کنند یا بتوانند محتوای جعلی عمیق تولید کنند. در تمامی این موارد، دادهها حرف اول و آخر را میزنند.
هر زمان خبری منتشر میشود مبنی بر اینکه متخصصی از عکسهای عمومی سایتهایی مانند فیسبوک برای آموزش یک برنامه تشخیص چهره استفاده کرده، به این معنا است که دادهها را بهعنوان خوراک ورودی در اختیار الگوریتم یادگیری ماشین قرار داده است. در حالت کلی، متخصصان پس از آنکه عکسها را در اختیار الگوریتم یادگیری ماشین قرار دادند و آموزش الگوریتم را تکمیل کردند، تصاویر را پاک میکنند، زیرا دیگر کاربردی برای دانشمندان داده ندارد. با اینحال، کارشناسان امنیتی معتقد هستند این رویکرد نقض آشکار حریم شخصی کاربران است.
برخی تصور میکنند، سلفیهای دوست داشتنی که در شبکههایی مثل اینستاگرام منتشر میکنند، ارزشی ندارد. با اینحال، بخش اعظمی از سلفیهایی که بهعنوان ورودی در اختیار الگوریتمها قرار میگیرند، اطلاعات جالبی در ارتباط با چهرههای افراد و نژاد آنها ارائه میکنند. در این حالت، الگوریتم نحوه طبقهبندی افراد، جوامع و قومیتها را یاد میگیرد و در گذر زمان مهارت خوبی در این زمینه پیدا میکند. حالا تصور کنید که یک مدل الگوریتم هوشمند بتواند مردم هر کشور را تنها با نگاه کردن به چهره آنها شناسایی کند، چه اتفاقی میافتد؟ این سامانه میتواند در گیتهای ورودی فرودگاهها مستقر شود و هویت افراد را حتا وقتیکه تابعیت کشور دیگری دارند را با نگاه کردن به چهره آنها شناسایی کند و به مامور مربوطه اعلام کرد که باید چه سوالات مشخص و هدفمندی از فرد بپرسند.
واکنش مجریان قانون به استفاده از الگوریتمهای هوشمند چیست؟
از اوایل دهه 90 میلادی به بعد، گزارشهای مداوم نیروهای پلیس در ایالات متحده در ارتباط با آمارهای جرم و جنایت باعث شد تا مجریان قانون تصمیم بگیرند از یک مدل پیشگویانه استفاده کنند تا نیروهای پلیس از طریق گزارشهای این مدل، تمرکز خود را روی مکانهایی قرار دهند که آمار جنایات بیشتری دارد. با اینحال، اگر بخش عمدهای از نیروهای پلیس در یک منطقه خاص مستقر شوند، این احتمال وجود ندارد در مناطقی که قومیتها و فرهنگهای مختلف در آنجا زندگی میکنند، اما حضور نیروهای پلیس در آن مناطق کمرنگتر است، جرم بیشتر شود؟
الگوریتم متوجه میشود که جرایم در نواحی خاصی بیشتر اتفاق میافتد، بنابراین پیشنهاد میکند نیروهای پلیس بیشتری به آن مناطق اعزام شوند، زیرا ممکن است جرایم بیشتری کشف شوند. متاسفانه، این حلقه بازخورد نمیتواند مشخص کند که جرایم دقیقا در کجا اتفاق میافتد، بلکه پیشبینی کلی در ارتباط با مناطقی ارائه میدهد که نیروهای پلیس ممکن است جرایم بیشتری در آن مناطق شناسایی کنند. شاید رویکرد فوق در نگاه اول دقیق بهنظر برسد، اما باز هم ممکن است تعصبات مشکلساز شوند. بهطور مثال، در ایالات متحده، نیروهای پلیس طبق روال معمول بیشتر به سراغ مناطقی میروند که فقیرتر هستند یا اقوام مختلف در آن مناطق حضور دارند و مدلهای هوشمند نیز بیشتر این مناطق را مستعد جرم و جنایت میدانند. در نتیجه سیاستگذاریها، محدودیتها و فشار بر مردم این مناطق بیشتر میشود. همین مسئله باعث میشود تا مردم این مناطق ذهنیت بدی نسبت به نیروهای پلیس پیدا کنند. دوباره تاکید میکنیم که این اتفاق یک داستان خیالی و تخیلی نیست. امروزه این الگوریتمهای متعصب توسعه پیدا کردهاند و همانگونه که اشاره شد، در اختیار کادر پلیس کشورهای پیشرفته قرار گرفتهاند.
مقالههای پیشنهادی:
- مهندس هوش مصنوعی کیست؟
- چگونه یک مهندس هوش مصنوعی خبره شویم؟
- هوش مصنوعی و متخصصان این رشته در ایران چه جایگاهی دارند؟
- هوش مصنوعی توزیعی و تجمیعی چیست؟
معضلات دادههای اشتباه
در خصوص شناسایی چهره، اگر مجریان قانون از سیستم تشخیص چهره برای شناسایی مظنونان جرایم مختلف استفاده کنند و اگر الگوریتم در خصوص شناسایی چهرههایی با رنگ پوست تیره خوب آموزش ندیده باشد، باعث میشود افراد زیادی بهاشتباه بازداشت شوند. اگر این مظنونان توسط الگوریتم شناسایی چهره بهاشتباه مجرم تشخیص داده شوند، ممکن است بیگناه محکوم شوند.
همانگونه که اشاره شد، الگوریتمهای هوشمند میتوانند تجمع نیروهای پلیس در منطقه یا مناطقی که آمار جرم و جنایت زیادی دارند را افزایش دهند. با اینحال، اگر فردی بابت جرمی که مرتکب نشده توسط ماموران پلیس بازداشت شود و الگوریتم هوش مصنوعی با نگاه کردن به دوربینهای امنیتی تشخیص دهد که او همان فردی است که مرتکب جرم شده، آنگاه اثبات بیگناهی کار سختی است، زیرا تصویر یک فرد در زوایای مختلف ممکن است شبیه به فرد دیگری بهنظر برسد. مواردی که به آنها اشاره شد، بخشی از تلاشهای انجام شده برای جایگزینی الگوریتمهای یادگیری ماشین بهجای انسانها است. با اینحال، همانگونه که اشاره شد، الگوریتمهای هوشمند همواره با مشکل تبعیض، تمایز قائل شدن میان شهروندان، پیشنهاد دادن برای اعمال فشار بر قشر ضعیف و برخورد مغرضانه با اقلیتها روبرو هستند. متاسفانه، برخی بر این باور هستند که هوش مصنوعی تعصبات و گرایشات انسانی ندارد و بنابراین نتایج ارائه شده توسط الگوریتمها را قبول میکنند، در صورتی که واقعیت چیز دیگری است و این الگوریتمها میتوانند تعصبات و رویکرد سیستماتیک داشته باشند که باید از آنها دوری کنیم.
دادههای باکیفیتتر کلید حل مشکلات هستند؟
آیا مشکلاتی که به آنها اشاره شد از طریق بهکارگیری دادههای باکیفیتتر حل میشوند یا این امکان وجود دارد که مشکلات خودبهخود حل شوند؟ مشخص کردن تعصبات و گرایشها در دادههایی که برای آموزش یادگیری ماشین استفاده میشود، باعث ساخت مدلهای کارآمدتر میشود، اما باز هم معایبی وجود دارد. ما هیچوقت موفق نخواهیم شد تا مدلهایی خنثا پیادهسازی کنیم، زیرا فرآیند تحلیل دادهها تا این اندازه دقیق کار بسیار مشکل و شاید غیرممکنی است. شاید بهتر باشد، بهجای اینکه سعی کنیم تا سیستمهای هوش مصنوعی بدون تعصب بسازیم که احتمالا کار غیرممکنی است، از خود درباره کارهای اساسی که قصد انجام آنها را داریم سوال کنیم. بهطور مثال آیا واقعا نیازی به توسعه هوش عمومی مصنوعی داریم؟
رشیدا ریچاردسون، وکیل و محقق در زمینه تعصبات الگوریتمی در دانشکده حقوق Rutgers نیوجرسی آمریکا معتقد است راهحل روشنی وجود دارد. او میگوید: «بهجای تلاش برای توضیح این بخش تاریک از یادگیری ماشین، بهتر است تلاشمان را معطوف به مشکلات ریشهای جهان کنیم و از هوش مصنوعی برای اصلاح و برطرف کردن مشکلات واقعی استفاده کنیم. آنگاه میتوانیم به دنبال ساخت ابزارهای هوشمند قابلاطمینان باشیم».
کلام آخر
شاید، در آینده دور، باید نگران هوش عمومی مصنوعی باشیم که مشابه فیلمهای تخیلی است، اما در حال حاضر، مهم این است که مردم را نسبت به مخاطرات احتمالی هوش مصنوعی آگاه کرد و قوانین تصویب کرد تا شرکتهای فعال در حوزه توسعه الگوریتمهای هوشمند بر مبنای آن قوانین گام بردارند و تعصبات از دنیای هوش مصنوعی برچیده شود.
ماهنامه شبکه را از کجا تهیه کنیم؟
ماهنامه شبکه را میتوانید از کتابخانههای عمومی سراسر کشور و نیز از دکههای روزنامهفروشی تهیه نمائید.
ثبت اشتراک نسخه کاغذی ماهنامه شبکه
ثبت اشتراک نسخه آنلاین
کتاب الکترونیک +Network راهنمای شبکهها
- برای دانلود تنها کتاب کامل ترجمه فارسی +Network اینجا کلیک کنید.
کتاب الکترونیک دوره مقدماتی آموزش پایتون
- اگر قصد یادگیری برنامهنویسی را دارید ولی هیچ پیشزمینهای ندارید اینجا کلیک کنید.
نظر شما چیست؟