در دنیای هوش مصنوعی، قانونی وجود دارد که میگوید روباتها نباید به انسانها آسیب برسانند و همواره باید مطیع آنها باشند. اما مطیع بودن ممکن است با اصل هوشمندی کمی منافات داشته باشد، گروهی از دانشمندان بر این باور هستند که باید حق "نه" گفتن را در اختیار روباتها قرار داد. اما عده دیگری از کارشناسان "نه" گفتن را به معنای سرپیچی از دستورات تخصیص داده شده به روباتها تفسیر کردهاند. در ظاهر چنین به نظر میرسد که مهندسان در حال آموزش این مفهوم به روباتها هستند که باید از فرمانهای ارباب خود سرپیچی کرده و بر علیه آنها به پا برخیزند، اما این جمله ممکن است کمی مشکلساز باشد.
سؤال اصلی این است که آیا ما واقعا نیاز داریم به هوش مصنوعی اجازه دهیم، در آینده برای انجام کارها به ما "نه" بگویید؟ قبل از آنکه بهطور صریح و روشن به این سؤال پاسخ دهیم ابتدا بهتر است یکسری اطلاعات در اختیار ما قرار بگیرند تا ذهن ما به صورت شفافتری به این سؤال پاسخ دهد. به عبارت دیگر نه گفتن در بعضی موارد ممکن است در زندگی واقعی جان انسانهای زیادی را نجات دهد. اما چگونه؟
روباتهای کارگری که سهوا جان انسانها را میگیرند
روباتهایی که در خط مونتاژ یک کارخانه خودروسازی کار میکنند را در نظر بگیرید، در بیشتر موارد این روباتها به سادگی دستورالعملهایی که به آنها تخصیص داده شده است را دنبال میکنند، اما اگر بهطور مثال بازوی انسانی در معرض خطر قرار داشته باشد آیا این دستگاه نباید به اندازه کافی هوشمند باشد که فعالیت خود را متوقف سازد؟ در اوایل سال جاری میلادی بود که کارگر کارخانه ماشینسازی در آلمان در میان بازوهای مکانیکی روبات کارخانه گرفتار شد و جان خود را از دست داد. برای آنکه این ماشین توانایی چنین کاری را داشته باشد، لازم است یکسری پیشفرضهای برنامهنویسی که برای آن در نظر گرفته شده است را رونویسی کرده یا به عبارت دقیقتر از آنها صرفنظر کرده، تا انسانها در معرض تهدیدات کمتری قرار بگیرند. (در دنیای برنامهنویسی متدها از نمونههای چندگانهای ساخته شدهاند که هر یک بر اساس پارامترهای ورودی مختلف کار میکنند، همچنین شرکتهای نرمافزاری این توانایی را در اختیار برنامهنویسان قرار میدهند تا متدهای موجود در یک کلاس را در اصطلاح رایج رونویسی override کنند.) یک تیم از محققان آزمایشگاه تعامل انسان و ماشین در دانشگاه Tufts در نظر دارند چنین مفهومی را به روباتها آموزش دهند.
تحقیقات و مطالعات این تیم روی مفهومی به نام شرایط اقتضایی (Felicity conditions) که در آن مغز انسان هر زمان کاری از او خواسته شود آنرا انجام میدهد، متمرکز است. تحت چنین شرایطی، ما با در نظر گرفتن یکسری ملاحظات کارها را انجام میدهیم. بهطوری که قبل از انجام هرگونه کنشی سؤالات زیر را از خود میپرسیم:
آیا من میدانم چگونه باید این کار را انجام دهم؟ آیا من به لحاظ فیزیکی از عهده انجام این کار بر میآیم؟ آیا اکنون این کار را به درستی انجام دادهام؟ آیا من به لحاظ موقعیت اجتماعی توانایی انجام این کار را دارم؟ و سرانجام آیا کاری که انجام میدهم باعث نقض هنجارها نمی شود؟
هوش مصنوعی به ادراکپذیری نیازمند است
اگر روباتها به درجهای از ادراکپذیری برسند که توانایی پاسخگویی به چنین سؤالاتی را داشته باشند، آنگاه این توانایی را خواهند داشت، تا خود را با شرایط غیر منتظره تطبیق داده و هماهنگ سازند. در میان سؤالاتی که به آنها اشاره شد، دو سؤال آخر در پروسه ادارکپذیری روباتها اهمیت بسزایی دارند. یک روبات مسئولیتپذیر باید در خصوص دستورالعملهایی که از سوی کارفرمایش دریافت میکند، تصمیمات مستقلی را اتخاذ کند، بهطوری که باید دلایل خود را در ارتباط با نادیده گرفتن وظایفی که به او تخصیص داده شده است، بیان کرده و نشان دهد این دستورات باعث آسیب رساندن به افراد میشود.
این یک مفهوم ساده و سطحی نیست که بتوان آنرا در سریعترین زمان پیادهسازی و اجرا کرد. همانگونه که در فیلم 2001 ادویسه فضایی آنرا مشاهده کردیم. در فیلمی که این گروه از محققان آنرا منتشر کردهاند، آنها یکسری مکالمات ساده را بین روبات و کاربر مورد آزمایش قرار دادهاند، بهطوری که یک تعامل دو طرفه مابین هر دو گروه وجود داشته است. آنها سعی دارند به روبات یاد دهند که برای انجام کارها دلایل خود را بیان کند. بهطور مثال روبات میتواند بگویید که در اثر انجام یک فرآیند خاص بهطور مثال نزدیک شدن به لبه میز سقوط خواهد کرد. در حالی که اپراتور میتواند دلایل بیشتری برای انجام این کار ارائه کند.
مشکل تصمیمگیری تنها مختص روباتها نیست
اما این مشکل تنها مختص سازندگان روباتها نیست. محققانی که در زمینه طراحی ماشینهای خودران مشغول به کار هستند نیز با معضل اخلاقی مشابهی روبرو هستند. اگر یک ماشین خودران در شرایط اضطراری قرار بگیرد که در آن زندگی چند انسان در معرض خطر قرار داشته باشد، آیا این ماشین باید به صورت خودآگاه و از روی عمد خود را به دیواری کوبیده و منجر به کشته شدن سرنشینان درون ماشین شود یا باید مطابق با دستورالعملهایی که به آن تخصیص داده شده است رفتار کرده، به میان مردم رفته و باعث مرگ انسانهای بیشتری شود؟ پیتر دکریال در اینباره گفته است: «در نظرسنجی به عمل آمده از سوی مردم، آنها اعلام کردهاند که با کاهش میزان تلفات موافق هستند. حتی اگر این کار منجر به مرگ سرنشینان داخل یک خودرو شود.» متن کامل این گزارش را در سایت ScienceAlert مطالعه کنید.
در حالی که نافرمانی روباتها یا به عبارت دقیقتر سرپیچی آنها از دستورات انسانی یک خطر بالقوه و خطرناک میتواند قلمداد شود، اما دنبال کردن کورکورانه دستوراتی که به آنها تخصیص داده شده است، در واقع خطرات بیشتری را متوجه انسانها خواهد ساخت. انسان به دلایل متعددی ممکن است از اجرای دستورات سرپیچی کند. ناتوانی در اجرای دستورات یا مغایرت با اصول اخلاقی تنها دو مورد از هزاران دلیلی است که انسانها برای سرباز زدن از اجرای دستورات از آنها استفاده میکنند. در نهایت، مجموعهای یکپارچه از مکانیزمهای ادراکی در ارتباط با معماری شناختی روباتها برای قبول کردن یک دستور یا سرباز زدن از اجرای دستورات خلاءای است که در این زمینه وجود دارد. آنها باید برای اجرا یا عدم اجرای دستورات خود دلایل قانع کنندهای ارائه کنند.
========================
شاید به این مطالب هم علاقمند باشید:
ماهنامه شبکه را از کجا تهیه کنیم؟
ماهنامه شبکه را میتوانید از کتابخانههای عمومی سراسر کشور و نیز از دکههای روزنامهفروشی تهیه نمائید.
ثبت اشتراک نسخه کاغذی ماهنامه شبکه
ثبت اشتراک نسخه آنلاین
کتاب الکترونیک +Network راهنمای شبکهها
- برای دانلود تنها کتاب کامل ترجمه فارسی +Network اینجا کلیک کنید.
کتاب الکترونیک دوره مقدماتی آموزش پایتون
- اگر قصد یادگیری برنامهنویسی را دارید ولی هیچ پیشزمینهای ندارید اینجا کلیک کنید.
نظر شما چیست؟