تعصبات انسانی در قلب فناوری‌های هوشمند
خط‌دهی هدف‌دار هوش مصنوعی، خطرناک‌تر از سرعت رشد این فناوری است
طی پنج سال گذشته صحبت‌های زیادی پیرامون هوش عمومی مصنوعی (AGI) سرنام Artificial General Intelligence مطرح شده است. هوش عمومی مصنوعی بالاترین سطح از هوش مصنوعی است که عملکردش نزدیک به مغز انسان است. برعکس هوش مصنوعی محدود که برای انجام کارهای مشخصی توسعه پیدا می‌کند، هوش عمومی مصنوعی توانایی انجام کارهای مختلفی را دارد. ابر هوش مصنوعی، الگوریتمی کاملا آگاه است که می‌تواند هر کاری که نیازمند پردازش‌های پیچیده است را انجام دهد، نکات ارزشمند آن‌را بیاموزد و در کاربردهای آتی از آن استفاده کند. این هوش مصنوعی به‌اندازه‌ای کارآمد و قدرتمند است که متخصصان و دانشمندان در بازه‌های زمانی مختلف نگرانی خود از بابت توسعه این مدل هوش مصنوعی را ابراز کرده‌اند. دانشمندان و متخصصان بر این باور هستند که توسعه هوش عمومی مصنوعی مشابه روبات‌هایی که در سری فیلم‌های معروف ترمیناتور مشاهده کردیم، به آن‌ها اجازه می‌دهد خارج از کنترل انسان‌ها کار کنند. روبات‌هایی که به‌سادگی عصبانی می‌شوند و می‌توانند خرابی‌های زیادی به‌بار آورند و باعث مرگ افراد زیادی شوند.

ایلان ماسک، مدیرعامل شرکت‌های اسپیس ایکس و تسلا، در صحبت‌ها و توییت‌های خود ساخت هوش عمومی مصنوعی  را نکوهش کرده و بر این باور است که توسعه ابرهوش مصنوعی پایان کار انسان‌ها است. در جریان برگزاری رویداد SXSW در سال 2018، او گفت: «توسعه ابرهوش‌های دیجیتالی بزرگ‌ترین تهدید جوامع بشری هستند، زیرا آن‌ها خودمختار هستند، برای انجام کارهای خود نیازی به کمک انسان‌ها ندارند و حتا برای کاری که انجام می‌دهند به کسی جواب پس‌نمی‌دهند. این ابرهوش‌ها فشار مضاعفی بر جامعه وارد می‌کنند». او در ادامه صحبت‌های خود گفت: «روزی خواهد رسید که سیستم‌های ابرهوش مصنوعی خطرناک‌تر و کشنده‌تر از بمب‌های هسته‌ای شوند». استیون هاوکینگ فقید در مصاحبه‌ای که سال 2014 با یکی از شبکه‌های خبری انجام داد، نگرانی‌های شدید خود را ابراز کرد و گفت: «اگر در مسیر توسعه هوش عمومی مصنوعی گام بردارید، نژاد انسان به‌پایان می‌رسد.»

استوارت راسل (Stuart Russell)، دانشمند علوم کامپیوتر در مستند کوتاهی که تحت عنوان Slaughterbots منتشر شد و درباره ساخت سلاح‌هایی است که از هوش مصنوعی برای شناسایی و کشتن انسان‌ها استفاده می‌کنند، نگرانی عمیق خود را ابراز کرد. او بر این باور است که باید فیلم‌های مستند کوتاهی در مورد ماهیت خطرناک به‌کارگیری این فناوری در مقاصد مخرب ساخته شود تا مردم آگاه شوند و شرکت‌ها را مجبور کنند دست از ساخت سلاح‌های خودران کاملا هوشمند بردارند.

با این‌حال، عده کمی نسبت به مخاطراتی که سیستم‌های هوش مصنوعی برای انسان‌ها به‌وجود می‌آورد، دست به اعتراض زده‌اند. متاسفانه، در عصر فعلی نیز، سامانه‌های هوش مصنوعی آسیب‌های جدی به ساختار جوامع وارد کرده‌اند، اما تاثیرات مخرب آن‌ها به‌گونه‌ای نیست که مورد توجه همه مردم قرار گیرد. به‌طور مثال، امروزه الگوریتم‌های هوشمندی توسعه پیدا کرده‌اند که قادر به شناسایی قومیت‌ها از روی چهره‌ها آن‌ها هستند. 

در حال حاضر، نگرانی خاصی از بابت برتری سیستم‌های ابرهوشمند نسبت به انسان‌ها یا تاثیرگذاری مخرب آن‌ها بر جهان وجود ندارد، زیرا آن‌ها بیشتر در واحدهای تولیدی و کارخانه‌ها استفاده می‌شوند و تنها باعث بیکاری افراد می‌شوند و در نتیجه هنوز فاصله زیادی با زمانی داریم که این ابر سیستم‌های هوشمند تبدیل به سرکارگرانی شوند که مسئولیت نیروی کار به آن‌ها سپرده شده است. با این‌حال، نگرانی بزرگی که اکنون وجود دارد در روند استخدام است. امروزه، برخی شرکت‌ها از سیستم‌های هوش مصنوعی به‌جای مدیران استخدامی استفاده می‌کنند تا رزومه‌های دریافتی را ارزیابی کنند و از میان آن‌ها گزینه‌های مناسب را دعوت به مصاحبه کنند. یکی از بزرگ‌ترین نگرانی‌ها در حوزه توسعه الگوریتم‌های هوشمند در بخش منابع انسانی، ورود تعصبات فرهنگی و اجتماعی در هنگام توسعه این مدل سامانه‌ها است. 

دانشمندان داده و آماردانان جمله معروفی دارند که می‌گوید: «ورودی اشتباه و بدون کیفیت، خروجی نادرست ارائه می‌کند.»

هنگامی‌که در مورد الگوریتم‌های یادگیری ماشین صحبت می‌کنیم، گزاره بالا به یک چالش بزرگ تبدیل می‌شود. یادگیری عمیق یکی از زیرشاخه‌های مهم یادگیری ماشین است که اشاره به شبکه‌های عصبی و نورون‌هایی دارد که تلاش می‌کنند الگو‌ها را شناسایی کنند. این الگوی تطبیقی همان چیزی است که به کامپیوترها امکان می‌دهد با شنیدن فقط چند ثانیه از یک موسیقی یا آهنگ‌ها، آن‌ها را شناسایی کنند یا وقتی فردی در حال صحبت است او را شناسایی کنند و گفتار را به نوشتار تبدیل کنند یا بتوانند محتوای جعلی عمیق تولید کنند. در تمامی این موارد، داده‌ها حرف اول و آخر را می‌زنند. 


هر زمان خبری منتشر می‌شود مبنی بر این‌که متخصصی از عکس‌های عمومی سایت‌هایی مانند فیس‌بوک برای آموزش یک برنامه تشخیص چهره استفاده کرده، به این معنا است که داده‌ها را به‌عنوان خوراک ورودی در اختیار الگوریتم یادگیری ماشین قرار داده است. در حالت کلی، متخصصان پس از آن‌که عکس‌ها را در اختیار الگوریتم یادگیری ماشین قرار دادند و آموزش الگوریتم را تکمیل کردند، تصاویر را پاک می‌کنند، زیرا دیگر کاربردی برای دانشمندان داده ندارد. با این‌حال، کارشناسان امنیتی معتقد هستند این رویکرد نقض آشکار حریم شخصی کاربران است.

برخی تصور می‌کنند، سلفی‌های دوست داشتنی که در شبکه‌هایی مثل اینستاگرام منتشر می‌کنند، ارزشی ندارد. با این‌حال، بخش اعظمی از سلفی‌هایی که به‌عنوان ورودی در اختیار الگوریتم‌ها قرار می‌گیرند، اطلاعات جالبی در ارتباط با چهره‌های افراد و نژاد آن‌ها ارائه می‌کنند. در این حالت، الگوریتم نحوه طبقه‌بندی افراد، جوامع و قومیت‌ها را یاد می‌گیرد و در گذر زمان مهارت خوبی در این زمینه پیدا می‌کند. حالا تصور کنید که یک مدل الگوریتم هوشمند بتواند مردم هر کشور را تنها با نگاه کردن به چهره آن‌ها شناسایی کند، چه اتفاقی می‌افتد؟ این سامانه می‌تواند در گیت‌های ورودی فرودگاه‌ها مستقر شود و هویت افراد را حتا وقتی‌که تابعیت کشور دیگری دارند را با نگاه کردن به چهره آن‌ها شناسایی کند و به مامور مربوطه اعلام کرد که باید چه سوالات مشخص و هدفمندی از فرد بپرسند. 

واکنش مجریان قانون به استفاده از الگوریتم‌های هوشمند چیست؟

از اوایل دهه 90 میلادی به بعد، گزارش‌های مداوم نیروهای پلیس در ایالات متحده در ارتباط با آمارهای جرم و جنایت باعث شد تا مجریان قانون تصمیم بگیرند از یک مدل پیشگویانه استفاده ‌کنند تا نیروهای پلیس از طریق گزارش‌های این مدل، تمرکز خود را روی مکان‌هایی قرار دهند که آمار جنایات بیشتری دارد. با این‌حال، اگر بخش عمده‌ای از نیروهای پلیس در یک منطقه خاص مستقر شوند، این احتمال وجود ندارد در مناطقی که قومیت‌ها و فرهنگ‌های مختلف در آن‌جا زندگی می‌کنند، اما حضور نیروهای پلیس در آن مناطق کم‌رنگ‌تر است، جرم بیشتر شود؟ 

الگوریتم متوجه می‌شود که جرایم در نواحی خاصی بیشتر اتفاق می‌افتد، بنابراین پیشنهاد می‌کند نیروهای پلیس بیشتری به آن مناطق اعزام شوند، زیرا ممکن است جرایم بیشتری کشف شوند. متاسفانه، این حلقه بازخورد نمی‌تواند مشخص کند که جرایم دقیقا در کجا اتفاق می‌افتد، بلکه پیش‌بینی کلی در ارتباط با مناطقی ارائه می‌دهد که نیروهای پلیس ممکن است جرایم بیشتری در آن مناطق شناسایی کنند. شاید رویکرد فوق در نگاه اول دقیق به‌نظر برسد، اما باز هم ممکن است تعصبات مشکل‌ساز شوند. به‌طور مثال، در ایالات متحده، نیروهای پلیس طبق روال معمول بیشتر به سراغ مناطقی می‌روند که فقیرتر هستند یا اقوام مختلف در آن مناطق حضور دارند و مدل‌های هوشمند نیز بیشتر این مناطق را مستعد جرم و جنایت می‌دانند. در نتیجه سیاست‌گذاری‌ها، محدودیت‌ها و فشار بر مردم این مناطق بیشتر می‌شود. همین مسئله باعث می‌شود تا مردم این مناطق ذهنیت بدی نسبت به نیروهای پلیس پیدا کنند. دوباره تاکید می‌کنیم که این اتفاق یک داستان خیالی و تخیلی نیست. امروزه این الگوریتم‌های متعصب توسعه پیدا کرده‌اند و همان‌گونه که اشاره شد، در اختیار کادر پلیس کشورهای پیشرفته قرار گرفته‌اند. 

مقاله‌های پیشنهادی:

معضلات داده‌های اشتباه

در خصوص شناسایی چهره، اگر مجریان قانون از سیستم تشخیص چهره برای شناسایی مظنونان جرایم مختلف استفاده کنند و اگر الگوریتم در خصوص شناسایی چهره‌هایی با رنگ پوست‌ تیره خوب آموزش ندیده باشد، باعث می‌شود افراد زیادی به‌اشتباه بازداشت شوند. اگر این مظنونان توسط الگوریتم شناسایی چهره به‌اشتباه مجرم تشخیص داده شوند، ممکن است بی‌گناه محکوم شوند. 

همان‌گونه که اشاره شد، الگوریتم‌های هوشمند می‌توانند تجمع نیروهای پلیس در منطقه یا مناطقی که آمار جرم و جنایت زیادی دارند را افزایش دهند. با این‌حال، اگر فردی بابت جرمی که مرتکب نشده توسط ماموران پلیس بازداشت شود و الگوریتم هوش مصنوعی با نگاه کردن به دوربین‌های امنیتی تشخیص دهد که او همان فردی است که مرتکب جرم شده، آن‌گاه اثبات بی‌گناهی کار سختی است، زیرا تصویر یک فرد در زوایای مختلف ممکن است شبیه به فرد دیگری به‌نظر برسد. مواردی که به آن‌ها اشاره شد، بخشی از تلاش‌های انجام شده برای جایگزینی الگوریتم‌های یادگیری ماشین به‌جای انسان‌ها است. با این‌حال، همان‌گونه که اشاره شد، الگوریتم‌های هوشمند همواره با مشکل تبعیض، تمایز قائل شدن میان شهروندان، پیشنهاد دادن برای اعمال فشار بر قشر ضعیف و برخورد مغرضانه با اقلیت‌ها روبرو هستند. متاسفانه، برخی بر این باور هستند که هوش مصنوعی تعصبات و گرایشات انسانی ندارد و بنابراین نتایج ارائه شده توسط الگوریتم‌ها را قبول می‌کنند، در صورتی که واقعیت چیز دیگری است و این الگوریتم‌ها می‌توانند تعصبات و رویکرد سیستماتیک داشته باشند که باید از آن‌ها دوری کنیم. 

داده‌های باکیفیت‌تر کلید حل مشکلات هستند؟ 

آیا مشکلاتی که به آن‌ها اشاره شد از طریق به‌کارگیری داده‌های باکیفیت‌تر حل می‌شوند یا این امکان وجود دارد که مشکلات خودبه‌خود حل شوند؟ مشخص کردن تعصبات و گرایش‌ها در داده‌هایی که برای آموزش یادگیری ماشین استفاده می‌شود، باعث ساخت مدل‌های کارآمدتر می‌شود، اما باز هم معایبی وجود دارد. ما هیچ‌وقت موفق نخواهیم شد تا مدل‌هایی خنثا پیاده‌سازی کنیم، زیرا فرآیند تحلیل داده‌ها تا این اندازه دقیق کار بسیار مشکل و شاید غیرممکنی است. شاید بهتر باشد، به‌جای این‌که سعی کنیم تا سیستم‌های هوش مصنوعی بدون تعصب بسازیم که احتمالا کار غیرممکنی است، از خود درباره کارهای اساسی که قصد انجام آن‌ها را داریم سوال کنیم. به‌طور مثال آیا واقعا نیازی به توسعه هوش عمومی مصنوعی داریم؟

رشیدا ریچاردسون، وکیل و محقق در زمینه تعصبات الگوریتمی در دانشکده حقوق Rutgers نیوجرسی آمریکا معتقد است راه‌حل روشنی وجود دارد. او می‌گوید: «به‌جای تلاش برای توضیح این بخش تاریک از یادگیری ماشین، بهتر است تلاش‌مان را معطوف به مشکلات ریشه‌ای جهان کنیم و از هوش مصنوعی برای اصلاح و برطرف کردن مشکلات واقعی استفاده کنیم. آن‌گاه می‌توانیم به دنبال ساخت ابزارهای هوشمند قابل‌اطمینان باشیم».

کلام آخر

شاید، در آینده دور، باید نگران هوش عمومی مصنوعی باشیم که مشابه فیلم‌های تخیلی است، اما در حال حاضر، مهم این است که مردم را نسبت به مخاطرات احتمالی هوش مصنوعی آگاه کرد و قوانین تصویب کرد تا شرکت‌های فعال در حوزه توسعه الگوریتم‌های هوشمند بر مبنای آن قوانین گام بردارند و تعصبات از دنیای هوش مصنوعی برچیده شود.

ماهنامه شبکه را از کجا تهیه کنیم؟
ماهنامه شبکه را می‌توانید از کتابخانه‌های عمومی سراسر کشور و نیز از دکه‌های روزنامه‌فروشی تهیه نمائید.

ثبت اشتراک نسخه کاغذی ماهنامه شبکه     
ثبت اشتراک نسخه آنلاین

 

کتاب الکترونیک +Network راهنمای شبکه‌ها

  • برای دانلود تنها کتاب کامل ترجمه فارسی +Network  اینجا  کلیک کنید.

کتاب الکترونیک دوره مقدماتی آموزش پایتون

  • اگر قصد یادگیری برنامه‌نویسی را دارید ولی هیچ پیش‌زمینه‌ای ندارید اینجا کلیک کنید.

ایسوس

نظر شما چیست؟