روبات‌ها چه زمانی به شخصیت قانونی خود می‌رسند و چگونه بازخواست می‌شوند؟
روبات عصیانگر در شهر بی‌قانون؛ آغاز عصر وحشت
تا همین چند سال قبل مبحث شخصیت و حقوق قانونی روبات‌ها و هوش مصنوعی موضوعی بود که عمدتاً در فیلم‌های علمی تخیلی شاهد آن بودیم. داگلاس آدامز نویسنده دومین کتاب از سری کتاب‌های Hitchhiker’s Guide to the Galaxy به‌نام «رستوران آخر دنیا» (The Restaurant at the End of the Universe) به داستان آسانسور هوشمندی اشاره می‌کند که قادر است آینده را پیش‌بینی کند. این آسانسور پیش از آنکه مردم درخواست آسانسور کنند، به‌موقع در طبقات مختلف حضور می‌یابد و به مردم سرویس‌دهی می‌کند. این آسانسور هوشمند به‌دنبال آن است تا از هدررفت زمان مردم و تعاملات اجتماعی بی‌هدف آن‌ها در مقابل درب آسانسور ممانعت به عمل آورد و در این زمینه راهگشا باشد.

 اما در ادامه، این آسانسور از کار یکنواختی که از صبح تا شب انجام می‌دهد خسته می‌شود و به‌جای آنکه تنها در مسیر عمودی به حرکت خود ادامه دهد، به چپ و راست حرکت می‌کند تا به‌نوعی اعتراض وجودی (Existential Protest) خود را به تصویر بکشد. درست است که ما هنوز چیزی به‌نام آسانسور هوشمند در اختیار نداریم، اما این حرف به‌معنای آن نیست که شرکت‌های بزرگ عرصه فناوری در این زمینه بیکار بوده‌اند. ممکن است این شرکت‌ها نمونه‌های اولیه‌ای از چنین آسانسورهایی را طراحی کرده‌ باشند، اما ما از وجود آن‌ها بی‌خبر هستیم. اگر به پیرامون خود نگاه کنیم، شاهدیم که الگوریتم‌های پیچیده قادرند در حل مسائل و حتی پیش‌بینی وقوع جرایم به ما کمک کنند. نزدیک به یک ماه پیش در زمان نگارش این مقاله اولین روبات وکیل جهان کار خود را به‌شکل گسترده در ایالات متحده آغاز کرد. چت‌باتی که به‌منظور مشاوره دادن به مردم در زمینه مشکلات حقوقی طراحی شده است. اما با ورود به سال 2040 شاهد حضور الگوریتم‌ها و روبات‌هایی به‌مراتب پیچیده‌تر و کارآمدتر خواهیم بود. روبات‌هایی که نه‌تنها در زمینه پیگیری پرونده‌ها و بررسی جرایم کارآمد خواهند بود، بلکه خود این توانایی را خواهند داشت تا جرایمی را مرتکب شوند. در آن زمان، قوانین ما چگونه قادر خواهند بود به جرایم الگوریتم‌های هوشمند رسیدگی کنند؟ راه ‌چاره‌ای برای این مشکل وجود دارد یا از هم‌اکنون باید به عصری سلام گوییم که بر پایه ترس و وحشت پایه‌گذاری خواهد شد؟ آیا بهتر نیست برنامه‌ریزی‌ دقیق و جامعی را برای مشکلی که ممکن است در آینده به یک چالش اصلی تبدیل شود ارائه کنیم؟ برای دستیابی به چنین پاسخ‌هایی باید ابتدا به فکر تعریف شخصیت هوش مصنوعی باشیم.

مطلب پیشنهادی

آیا روبات‌ها شغل‌تان را تهدید می‌کنند؟ از این سایت بپرسید
روبات‌ها به‌زودی همه صنایع را تصرف می‌کنند

آیا باید به‌دنبال احقاق حقوق هوش مصنوعی باشیم؟

اگر اخبار مرتبط با هوش مصنوعی را دنبال کرده باشید، به‌خوبی اطلاع دارید که هوش مصنوعی کمتر از 50 سال دیگر یا شاید زودتر از این بازه زمانی به مغز متفکر بسیاری از ماشین‌ها تبدیل خواهد شد. امروزه تعداد سلول‌های عصبی یک شبکه‌ عمیق از تعداد سلول‌های عصبی موجود در مغز موجوداتی همچون زنبور عسل یا سوسک بیشتر است و جالب‌تر آنکه این روند افزایش تعداد سلول‌های عصبی نه‌تنها متوقف نشده است، بلکه یک ماهیت تصاعدی به خود گرفته است. امروزه الگوریتم‌های هوشمندی همانند آنچه گوگل طراحی کرده است قادرند الگوریتم‌های زیستی را در مقیاس بزرگ شبیه‌سازی و حتی کارکردهای مغز انسان را نیز شبیه‌سازی کنند. امروزه دانشمندان روی پروژه‌هایی در حال کار هستند تا شعور و آگاهی انسان را به درون شبکه‌های عمیق عصبی وارد کنند. 
به ‌طور مثال، در پروژه‌ای به‌نام OpenWorm دانشمندان به‌دنبال آن هستند تا سیستم اعصاب مرکزی کرم الگانس را بازطراحی کنند. این کرم از آن جهت انتخاب شده است که ما موفق شده‌ایم سیستم عصبی این موجود را به ‌طور کامل نقشه‌برداری و تحلیل کنیم. سال گذشته میلادی از 175 متخصص برتر حوزه هوش مصنوعی این سؤال پرسیده شد که نظر آن‌ها در ارتباط با هوش مصنوعی چیست؟ در این نظرسنجی عده‌ای اعلام داشتند تا سال 2040 هوش مصنوعی هم‌تراز با هوش انسانی خواهد شد. 90 درصد این افراد نیز اعلام داشتند تا سال 2075 این اتفاق رخ خواهد داد. این حرف به‌معنای آن است که تا پیش از رسیدن به این سال‌ها هوش مصنوعی از هوش حیوانی پیشی خواهد گرفت و به همین دلیل است که این فرضیه مطرح شده است که همان گونه که ما برای حیوانات حقوقی قائل هستیم، برای هوش مصنوعی نیز باید چنین حقوقی را در نظر بگیریم. به این ترتیب، باید ابزارهایی همچون آسانسورهای هوشمند را ملزم کنیم مطابق با قوانین وضع شده تنها در حالت عمومی حرکت کنند. (شکل 1) 

شکل 1

مطلب پیشنهادی

این 10 روبات به‌دنبال تغییر دنیای اطراف ما هستند

بیل تامسون نویسنده نام‌آشنای حوزه فناوری چند سال قبل گفت: «اگر به‌دنبال آن باشیم تا هوش مصنوعی کاملاً مطیع را توسعه دهیم، به‌طوری که همیشه فرمان‌بر باشد، در عمل هیچ‌گاه موفق نخواهیم شد هوش مصنوعی مستقلی را طراحی کنیم.»

هوش مصنوعی در آینده دوست خواهد بود یا دشمن؟

بسیاری از کارشناسان حوزه فناوری بر این باورند که درباره هوش مصنوعی و خطرات آن کمی اغراق شده است. به ‌طوری که هوش مصنوعی آن‌ گونه که در فیلم‌ها به آن پرداخته شده است، هیچ‌گاه قادر نخواهد بود جوامع بشری را در معرض تهدید جدی قرار دهد. اما واقعیت این است که فناوری می‌تواند به یک ماهیت ترسناک تبدیل شود. به‌ویژه زمانی که با ماهیتی روبه‌رو می‌شویم که جدید و قدرتمند بوده و با سؤالات مبهم بسیاری احاطه شده است. در حالی که فیلم‌هایی همچون نابودگر و غرب وحشی بیشتر بر جنبه سرگرمی هوش مصنوعی متمرکز بودند، اما دورنمایی اجمالی از آینده و خطراتی را برای ما به تصویر کشیده‌اند که ممکن است در آینده ما وارث آن باشیم. تا به امروز موضوعات مختلفی در ارتباط با هوش مصنوعی مورد بررسی قرار گرفته است و کارشناسان راهکارهای بازدارندگی مختلفی را در ارتباط با این فناوری پیشنهاد داده‌اند، اما در این میان نباید از نقش قانون و کارکرد آن در این زمینه غافل شویم. با وجود اطلاع‌رسانی‌های متعدد و هشدارهای مختلف هنوز هم کارشناسان حوزه فناوری درباره چالش‌ها و خطراتی که در آینده از جانب روبات‌های پیشرفته ممکن است ما را در معرض تهدید قرار دهند، دیدگاه‌های متفاوتی دارند. اما واقعیت این است که فناوری‌های مستقلی که قادرند به‌طور مستقیم به ما آسیب وارد کنند، در عصر کنونی نیز پیرامون ما قرار دارند. از پهپادهای نظامی گرفته تا روبات‌های مجری قانون همواره این احتمال وجود دارد که این ابزارهای هوشمند مرتکب اشتباهی ناخواسته شوند. به ‌طوری که ممکن است یک فرد مظنون را به قتل برسانند و در ادامه مشخص شود شخص مذکور بیگناه بوده است. در همه این موارد روبات‌ها ضمن آنکه به مردم آسیب وارد می‌کنند به‌واسطه خطاهای نرم‌افزاری یا سهل‌انگاری اپراتور مسئول مرتکب عملی متضاد با هنجارهای جامعه می‌شوند. به عبارت دقیق‌تر، این روبات‌ها یک جرم را مرتکب می‌شوند.

مطلب پیشنهادی

آیا ما در حال ورود به عصری در سیطره هوش مصنوعی هستیم
آینده‌ای که ارزش انتظار کشیدن را دارد

جمله معروفی در این زمینه وجود دارد که می‌گوید: «هر جا فرد خطاکاری وجود داشته باشد، یک فرد مدعی نیز حضور دارد.» اما اگر روزگاری روباتی اشتباهی را مرتکب شود، چه کسی را باید مقصر بدانیم؟ ممکن است در مقطع کنونی به‌دلیل بیش از حد انتزاعی بودن این موضوع بتوانیم از کنار آن راحت عبور کنیم. اما نباید از این موضوع غافل شویم که چندی پیش روباتی به‌خاطر خرید مواد مخدر دستگیر شد، اما بدون هیچ‌گونه اتهامی آزاد شد. ماشین خودرانی که شرکت تسلا آن ‌را طراحی کرده بود، باعث مرگ راننده وسیله نقلیه شد. اما سازمان ملی ایمنی ترافیک حکم خاصی در این خصوص صادر نکرد. ممکن است در مقطع فعلی مواردی که به آن‌ها اشاره شد جزء موضوعات خاص و نادر باشند، اما زمانی که چنین فناوری‌هایی همه‌گیر شوند و چنین اتفاقاتی رخ دهد، چه کسی مسئول بروز چنین مشکلاتی خواهد بود؟

روبات‌های گناهکار

نقش قانون را در ارتباط با روبات‌ها از زوایای مختلفی می‌توان مورد بررسی قرار داد. اما قانون مرتبط با روبات‌ها درنهایت باید به گونه‌ای به تصویب برسد که انتظارات آحاد جامعه را برآورده سازد. در جوامع بشری زمانی که به فردی حمله می‌شود، شخص مذکور از فرد مهاجم شکایت می‌کند و انتظار دارد فرد خاطی به سزای اعمال خود برسد. امروزه رانندگان وسایل نقلیه خودشان تصمیم می‌گیرند چه زمانی سرعت وسیله نقلیه را افزایش دهند یا از محدوده سرعت مطمئنه عبور کنند. در چنین شرایطی اگر مرتکب تخلفی شویم، از دیدگاه قانون ما مقصر هستیم. اما زمانی که مالک یک ماشین خودران می‌شوید و تصمیم‌گیری‌ها بر عهده ماشین قرار می‌گیرد، همه چیز متفاوت می‌شود. اگر ماشین به ‌طور ناخواسته با سرعتی مافوق تصور به حرکت ادامه دهد و خسارت‌هایی را به بار آورد، چه کسی مقصر است؟ مالک ماشین؟ سازنده‌ای که ماشین را ساخته است؟ توسعه‌دهنده‌ای که الگورتیم هوشمند را نوشته است؟ و... امروزه قانون به دستیاران شخصی همچون آلکسا، سیری یا کورتانا یا چت‌بات‌های هوشمند به‌عنوان یک شخص واقعی نگاه نمی‌کند، زیرا این الگورتیم‌های هوشمند در حال حاضر قادر نیستند آسیب جدی به ما وارد کنند یا جرمی مرتکب شوند. اما اگر فرزندان پیشرفته‌تر این دستیاران شخصی در آینده آسیب‌های واقعی به ما وارد کنند، چه اتفاقی رخ خواهد داد؟

مطلب پیشنهادی

116 دانشمند برجسته جهان خواستار ممنوعیت به‌کارگیری روبات‌های قاتل شدند

هوش ‌مصنوعی می‌تواند ذهن مجرمانه داشته باشد؟

برای آنکه بتوانیم به این پرسش پاسخ دهیم، ابتدا باید به دو سؤال پیش‌نیاز به این پرسش پاسخ دهیم. زمانی که روبات‌ها عملی انجام می‌دهند که باعث آسیب مردم می‌شود یا به‌نوعی ضرر و زیانی را متحمل آن‌ها می‌کند، چه کسی مسئول است؟ دوم آنکه در زمینه وقوع جرم ما همواره به‌دنبال انگیزه و نیت انجام عمل هستیم. اگر یک روبات یا در حالت‌ کلی‌تر یک ماشین هوشمند خود به‌تنهایی مرتکب جرمی شود، قانون باید چگونه به این جرم رسیدگی کند؟ اگر ماشین‌ها به وکلایی نیاز داشته باشند، این وکلا چگونه باید نیت جرم را تشریح یا آن ‌را رد کنند؟ آیا قوانین امروزی حاکم بر جوامع بشری می‌توانند به چنین جرائمی رسیدگی کنند؟ (البته اگر فرض کنیم وکلای روبات‌های خطاکار خود یک الگوریتم هوشمند نباشند!) 

عدالتی برای هوش مصنوعی

امروزه ماشین‌های خودران تنها در صورتی می‌توانند در جاده‌ها به تردد بپردازند که یک عامل انسانی پشت فرمان نشسته باشد. این قانونی است که برای امنیت مردم تصویب شده است. اما زمانی که ماشین‌ها به ‌طور کامل خودکار شوند، باید قوانین جامع‌تری وضع شود تا نحوه تعامل انسان و ماشین را مورد بررسی قرار دهند. مشخص است روزگاری که هوش مصنوعی بر هوش انسانی غلبه کند، از کنترل ما خارج خواهد شد. در چنین برهه زمانی دیگر ما کنترلی بر ماشین‌های خودران نخواهیم داشت و همواره از بابت خسارات‌هایی که ممکن است به بار آورند در هراس خواهیم بود. در آن زمان خواهیم گفت چگونه می‌توانیم ماشین‌های خودران را مجازات کنیم؟ ممکن است در فیلم‌ها و داستان‌های کمیک با دورنمایی از خطرات هوش مصنوعی آشنا شویم، اما تدوین قانونی در ارتباط با تخطی هوش مصنوعی از دستورالعمل‌ها موضوعی نیست که با نگاه به چند فیلم بتوان آن ‌را نگارش و تصویب کرد. آیا روبات‌ها روزی این توانایی را خواهند داشت تا جرمی را مرتکب شوند؟ پاسخ این پرسش مثبت است. اگر یک روبات انسانی را به قتل برساند، در واقع یک جرم را از دید ما مرتکب شده است. اما از دید یک روبات او یک عنصر مادی را حذف کرده است. در نتیجه به‌لحاظ فنی باید بگوییم روبات تنها نیمی از یک جرم را مرتکب شده است، به‌واسطه آنکه اثبات اینکه انگیزه او از انجام این عمل چه بوده است کاملاً پیچیده خواهد بود. این پیچیدگی را هم‌اکنون نیز می‌توانیم مشاهده کنیم؛ زمانی که مهندسان هوش مصنوعی گوگل با صراحت اعلام می‌دارند به‌درستی نمی‌دانند الگوریتم هوشمند آن‌ها بر مبنای چه قاعده‌ای یک راه‌ حل را پیشنهاد داده است. 
در نتیجه به این پرسش اساسی می‌رسیم که چگونه می‌توانیم از انگیزه و نیت یک روبات پیش از وقوع یک جرم اطلاع پیدا کنیم؟ ممکن است امروزه در زمینه ساخت روبات‌های انسان‌‌نما با محدودیت‌هایی روبه‌رو باشیم، اما بدون تردید امروزه الگوریتم‌هایی را مشاهده می‌کنیم که در بعضی موارد به‌شکلی تبعیض‌آمیز با مردم برخورد می‌کنند. (شکل 2) (برای اطلاع در این خصوص به پرونده ویژه خرداد ماه ماهنامه شبکه مدیریت الگوریتم/ شورش الگوریتمی مراجعه کنید.) 

شکل 2

به‌ طور مثال، فرض کنید روباتی همچون نابودگر فردی را به قتل برساند. در چنین موردی نباید به‌دنبال اثبات جرم باشیم، بلکه باید به‌دنبال نیت و انگیزه باشیم. در این حالت به پرسشی چالشی‌تر می‌رسیم که چگونه می‌توانیم از روبات‌ها همانند انسان‌ها بازجویی کنیم؟ آیا باید به درون لایه‌های مختلف شبکه عصبی آن‌ها برویم و کدهای شرکت سازنده را مورد بررسی قرار دهیم؟ اما پرسشی بدیهی‌تری نیز وجود دارد. اساساً مغز و ذهن روبات چگونه به‌سمت ارتکاب جرمی همچون جنایت متمایل می‌شود؟ وکلا چگونه می‌توانند ثابت کنند که یک روبات برای دفاع از خود مرتکب قتل شده است یا برعکس روبات تا چه اندازه به‌عمد این ‌کار را انجام داده است. اگر به‌دنبال آن هستیم تا بر مشکلات و چالش‌هایی که در آینده ممکن است از جانب هوش مصنوعی ما را تهدید کند فائق آییم، چاره‌ای نداریم جز اینکه در ابتدا برای این عامل‌های هوشمند حقوق و هویت قانونی در نظر بگیریم. 

مطلب پیشنهادی

موسیو توانایی درک رفتار انسانی را دارد
روباتی سرشار از هوش مصنوعی

ابزارهای هوشمند به قوانین هوشمند نیاز دارند

در مقطع فعلی در بسیاری از کشورها دستگاه قضا با ابزارهای غیرهوشمند روبه‌رو است و ترجیح می‌دهد اوضاع بر همین منوال باشد. در حال حاضر، زمانی که فردی با سلاح گرم مرتکب جرمی می‌شود، قوانین فرد خاطی را مجرم می‌دانند نه خود اسلحه را. زمانی که سلاحی به‌واسطه یک نقص فنی در دستان صاحب خود منفجر می‌شود، شرکت سازنده مورد بازخواست قرار می‌گیرد. چنین موضوعی درباره روبات‌ها نیز صادق است. اگر به دهه 80 میلادی بازگردیم، به شرکتی برخورد می‌کنیم که یک روبات آموزش‌دهنده تنیس به‌نام Athlone را ساخته بود. این روبات با عملکرد خشنی که از خود نشان داد، خبرساز شد و کار به دادگاه کشید. در آن زمان قاضی اعلام کرد این امکان وجود ندارد که بتوان از روبات‌ها شکایت کرد، در نتیجه مدیران شرکت مقصر اصلی این پرونده هستند. مشابه چنین پرونده‌ای در سال 2009 و این بار برای یک راننده رقم خورد. راننده‌ای از طریق سامانه موقعیت‌یاب به جاده‌ای کوهستانی می‌رسد و گم می‌شود، به ‌طوری که درنهایت برای بازگشت از نیروهای پلیس کمک می‌گیرد. زمانی که راننده به‌دلیل عملکرد ضعیف فناوری موقعیت‌یاب شکایت می‌کند، دادگاه راننده را به کم‌توجهی در رانندگی متهم می‌کند. (شکل 3) 

شکل 3-

واقعیت این است که فناوری‌هایی که در گذشته مورد استفاده قرار می‌دادیم، با فناوری‌هایی که در زمان حال و آینده مورد استفاده قرار می‌دهیم تفاوت‌های بسیاری دارند. دستگاه‌های هوشمندی همچون ماشین‌های خودران یا روبات‌ها دیگر همچون گذشته ابزارهای دردست انسان‌ها نیستند. این ابزارها قادرند به‌صورت مستقل عمل و تصمیم‌گیری کنند. این دستگاه‌ها با استناد به الگوریتم‌های هوشمند داده‌ها را جمع‌آوری می‌کنند و بر مبنای دانشی که به دست می‌آورند فعالیتی را انجام می‌دهند. در نتیجه در زمان بروز پیامد ناگواری نمی‌‌توان با صراحت سازنده را مقصر دانست. 
دیوید ولادک استاد حقوق دانشگاه واشنگتن می‌گوید: «با توجه به اینکه امروزه افراد و شرکت‌های مختلفی در پیشبرد هوش مصنوعی ایفاگر نقش هستند، به‌سختی می‌توان یک فرد یا سازمان خاصی را مسئول بروز پیشامدی دانست. با توجه به اینکه امروزه اکثر سامانه‌های هوش‌مصنوعی به‌شکلی کاملاً بسته آماده عرضه می‌شوند، ما در عمل قادر نیستیم مکانیسمی را که این سامانه‌ها بر مبنای آن کار می‌کنند تحلیل کنیم.» شان بایرن استاد حقوق دانشگاه فلوریدا در این ارتباط می‌گوید: «امروزه هوش مصنوعی به‌دلیل نبود قوانین صریح و روشنی در این زمینه، این شانس را دارد تا مدیر عامل شرکتی با مسئولیت محدود شود. در این حالت هوش مصنوعی صاحب یک شخصیت حقوقی می‌شود و اگر چنین باشد، به بحث مالیات گرفتن از هوش مصنوعی می‌رسیم. در نتیجه باید بگوییم صحبت‌های آقای بیل گیتس درخصوص دریافت مالیات از روبات‌ها رنگ واقعیت به خود خواهد گرفت. اما به این نکته توجه داشته باشید که اگر به هوش مصنوعی شخصیت حقوقی بدهید، این احتمال وجود دارد که سازندگان آن در ساخت آن جانب احتیاط را کمتر رعایت کنند، به‌دلیل اینکه به‌خوبی می‌دانند اگر مشکلی به وجود آید، دیگر آن‌ها مقصر شناخته نخواهند شد. همچنین، ما نمی‌توانیم هوش مصنوعی را همانند یک انسان مجازات یا به زندان منتقل کنیم. این حرف هیچ معنای خاصی ندارد.» 
دکتر جان داناهر استاد حقوق دانشگاه NUI Galway بر این باور است که در مقطع فعلی نباید درباره شخصیت حقوقی روبات‌ها صحبت کنیم. در آینده به‌دلیل تبعیضات اجتماعی و شغلی که ممکن است از جانب الگوریتم‌های هوشمند رخ دهد، سلب مسئولیت از سازندگان را به همراه خواهد داشت. اما دیدگاه‌های متفاوتی نیز در این زمینه وجود دارد. یووال نوآ حراری نویسنده کتاب:
 Sapiens: A Brief History of Humankind and Homo Deus: A Brief History of Tomorrow 
می‌گوید: «حتی اگر هوش مصنوعی هیچ‌گاه به سطحی از آگاهی و درک کامل دست پیدا نکند، باز هم به‌لحاظ یک سری موارد سیاسی، اقتصادی و بین‌المللی باید برای آن شخصیت و حقوق قائل شد. درست به همان شکل که برای شرکت‌ها و سازمان‌ها تعریف مشخص و قوانین مشخصی داریم، هوش مصنوعی این پتانسیل را دارد تا بر سازمان‌ها و حتی کشورها تسلط پیدا کند.»

مفهوم زندان برای روبات‌ها معنای خاصی ندارد 

تخلفات روبات‌ها و هوش مصنوعی تنها در ارتباط با جرایم خشن خطرناک نیستند. روبات‌ها و الگوریتم‌های هوشمند در آینده می‌توانند از کارت اعتباری شما برای خرید کالای قاچاق استفاده کنند. این یک داستان‌بافی ساده‌انگارانه نیست. چندی پیش دو طراح در کشور انگلستان روباتی را طراحی کردند که به‌صورت تصادفی تصمیم گرفت از وب تاریک محصولاتی را خریداری کند. به نظر شما این روبات به‌دنبال خرید چه چیزی بود؟ این روبات تقریباً همه چیز را خریداری می‌کرد. اکنون سازندگان این روبات مقصر خریدهای او هستند یا خود تصمیم گرفته است اقلام غیرقانونی را خریداری کند؟ شاید کمی خنده‌دار به نظر برسد روباتی را به زندان بفرستیم و برای او حکم حبس ابد یا 30 سال زندان در نظر بگیریم، به‌واسطه آنکه هیچ‌گاه پیر نشده و دل‌بستگی خاصی ندارد. (شکل 4)

شکل 4

مهم‌تر از این مسئله این امکان وجود دارد که روبات‌های زندان‌بان نیز تحت تأثیر روبات‌های مجرم قرار بگیرند. اگر روباتی جرمی را مرتکب شود، به‌معنای آن است که از الگوریتم قوی‌تری استفاده می‌کند که می‌تواند بر اوضاع مسلط شود. شاید بهترین راهکار تنبیه یک روبات این باشد که کدهای آن ‌را به گونه‌ای بازنویسی کرد که دومرتبه مرتکب جرمی نشود.

ماهنامه شبکه را از کجا تهیه کنیم؟
ماهنامه شبکه را می‌توانید از کتابخانه‌های عمومی سراسر کشور و نیز از دکه‌های روزنامه‌فروشی تهیه نمائید.

ثبت اشتراک نسخه کاغذی ماهنامه شبکه     
ثبت اشتراک نسخه آنلاین

 

کتاب الکترونیک +Network راهنمای شبکه‌ها

  • برای دانلود تنها کتاب کامل ترجمه فارسی +Network  اینجا  کلیک کنید.

کتاب الکترونیک دوره مقدماتی آموزش پایتون

  • اگر قصد یادگیری برنامه‌نویسی را دارید ولی هیچ پیش‌زمینه‌ای ندارید اینجا کلیک کنید.

ایسوس

نظر شما چیست؟