این مطلب یکی از مجموعه مقالات پرونده ویژه «کاربردهای هوش مصنوعی در زندگی روزمره» است. برای دریافت کل پرونده ویژه اینجا کلیک کنید.
تاریخ: پانزدهم ژوئن 2014
صاحب نظر: استفان هاوکینگ
دیدگاه: هوش مصنوعی یک خطر واقعی است.
فیزیکدان معروف در پانزدهم ژوئن سال گذشته میلادی در برنامه تلویزیونی شبکه HBO بهنام Last Week Tonight شرکت کرد و دیدگاههای خود را درباره هوش مصنوعی به سمع و نظر مخاطبان این برنامه رساند. او در این برنامه تلویزیونی گفتوگوی عمیقی را با جان اولیور انجام داد. مهمترین محور این گفتوگو در ارتباط با هوش مصنوعی بود. جان اولیور از هاوکینگ سؤال کرد: «همانند بسیاری از مصنوعات هوشمند، آیا هوش مصنوعی برای ما مضر یا اصلاً کشنده است؟» هاوکینگ در پاسخ به او گفت: «هوش مصنوعی در آیندهای نه چندان دور به یک خطر واقعی تبدیل میشود.» اولیور در ادامه از هاوکینگ سؤال کرد: «چرا من نباید از مبارزه با یک روبات هیجانزده شوم؟» هاوکینگ یک پاسخ علمی به او داد: «شما در این مبارزه بازنده خواهید بود.» اولیور در ادامه به هاوکینگ گفت اگر این ابرکامپیوتر قدرتمند وجود نداشت، شما نمیتوانستید با من به گفتوگو بپردازید. هاوکینگ (یا به عبارت دقیقتر روبات هاوکینگنما) به او جواب داد: «تو یک احمق هستی.» هاوکینگ در پایان صحبتهای خود هشدار داد، این احتمال وجود دارد که روباتها راهی برای ارتقا و پیشرفت خود پیدا کنند، پیشرفتی که دقیقاً به نفع انسانها نباشد.
تاریخ: دوم مه 2014
صاحب نظر: استیو وزنیاک
دیدگاه: ما بیش از اندازه ماشینها را بزرگ کردهایم.
«هر کاری که انجام میدهید باید حداقل کمی تفریح در آن وجود داشته باشد، اما هر ایدهای که میتواند جهان ما را تغییر دهد، لزوماً با اهمیت نیست. من عاشق فناوری هستم و خود شخصاً آن را مورد آزمایش قرار میدهم. من حداقل پنج آیفون و چند تا گوشی آندروییدی دارم. من آیندهای را تصور میکنم که ماشینها بتوانند به فرزندان ما آموزش دهند، اما بیش از اندازه هوش مصنوعی را هوشمند کردهایم و این اتفاق از مدتها قبل آغاز شده است. ماشینها دویست سال پیش برنده شدهاند. ما آنها را بیش از اندازه مهم کردهایم و همین موضوع باعث میشود تا هوش مصنوعی تهدیدی جدی برای بقای ما باشد. در حال حاضر، خلاقیت مهمترین ابزاری است که انسانها در اختیار دارند. شبیه به افرادی همچون هاوکینگ و ماسک، من هم بر این باور هستم که آینده ترسناک و بسیار بسیار بدی در انتظار بشریت قرار دارد. اگر دستگاههایی طراحی کنیم که مراقب تمام حالات ما باشد، سرانجام آنها میتوانند سریعتر از انسانها فکر کنند و بهراحتی از دست انسانها خلاص شوند.» او در ادامه صحبتهای خود افزود: «از این موضوع نگران هستم که روزگاری ما به حیوانات خانگی ماشینها تبدیل شویم.»
تاریخ: هجدهم ژوئن 2014
صاحب نظر: ایلان ماسک
دیدگاه: من نگران یک (نابودگر) ترمیناتور هستم.
در مصاحبهای که ایلان ماسک هجدهم ژوئن سال گذشته میلادی با CNBC داشت، اعلام کرد بیش از اندازه نگران هوش مصنوعی است و این احتمال وجود دارد که هوش مصنوعی به چشم شیطان تبدیل شود. ماسک در ادامه صحبتهای خود افزود: «فیلمهای مختلفی در این زمینه وجود دارد، «ترمیناتور» یکی از آنها است. نتایجی که در این فیلمها نشان داده میشود، بسیار ترسناک است. ما باید اطمینان حاصل کنیم هوش مصنوعی پیامدهای خوبی برای ما همراه دارد. اما این دیدگاه خوب یک عیب بزرگ نیز دارد. شما نمیتوانید اطمینان حاصل کنید همه چیز خوب پیش میرود. در حال حاضر، تقلید از مغز انسان یک سرگرمی محسوب میشود، اما در آینده اوضاع رنگ دیگری به خود خواهد گرفت.» او در ادامه صحبتهای خود افزود: «بهترین روش برای پیشگیری از چنین پیامدی پیادهسازی مکانیسم کنترل انسانی است.»
تاریخ: اول مه 2014
صاحب نظر: استفان هاوکینگ
دیدگاه: به نظر میرسد برتری از آن هوش مصنوعی است. آیا ما هوش مصنوعی را آن گونه که باید جدی گرفتهایم؟
استفان هاوکینگ، مدیر تحقیقات ریاضیات کاربردی و فیزیکدان کمبریج و برنده جایزه فیزیک بنیادی در زمینه گرانش کوانتومی در سال 2012؛ استوارت راسل، پروفسور علوم کامپیوتر در دانشگاه برکلی کالیفرنیا و یکی از نویسندگان کتاب «نگرش مدرن به هوش مصنوعی»؛ مکس تگ مارک، پروفسور فیزیک در مؤسسه تحقیقاتی MIT و نویسنده ریاضیات جهان ما؛ فرانک ولیچک، پروفسور فیزیک در MIT و برنده جایزه نوبل 2004 به خاطر کار روی نیروی هسته قوی، در نامهای که سال 2014 منتشر کردند، نوشتند: «طراحی موفقیتآمیز هوش مصنوعی بزرگترین رخداد تاریخ بشریت است. اما متأسفانه این اختراع میتواند پایان راه بشریت باشد، مگر آنکه یاد بگیریم چگونه از به وجود آمدن خطر پیشگیری کنیم.»
تاریخ: دوم دسامبر 2014
صاحب نظر: استفان هاوکینگ
دیدگاه: هوش مصنوعی میتواند بدترین کابوس انسانها باشد.
پروفسور استفان هاوکینگ، دانشمند برجسته انگلیسی، میگوید: «تلاش برای ساخت ماشینهایی که توانایی فکر کردن دارند، تهدیدی جدی برای موجودیت انسانها به شمار میرود. تلاش برای طراحی هوش مصنوعی کامل (هوشمندی کامل اکنون در اختیار انسانها قرار دارد) به معنای تلاش برای پایان دادن به بشریت است.» پروفسور هاوکینگ بر این باور است که شکل فعلی و ابتدایی هوش مصنوعی که ما این روزها از آن استفاده میکنیم، برای ما کارآمد و قابل قبول است. اما نگرانی او از بابت ساخت ماشینهایی است که جلوتر از انسانها باشند. هاوکینگ در بخشی از صحبتهای خود میگوید: «هوش مصنوعی این توانایی را دارد که خود را خاموش و اقدام به بازطراحی قدرتمندتری از خود کند. اما در نقطه مقابل تکامل بیولوژیکی انسانها قرار دارد که با سرعت کمی همراه است و نمیتواند با هوش مصنوعی به رقابت بپردازد. اما مردم از این موضوع اطلاع ندارند. در حالی که در کوتاهمدت تأثیر هوش مصنوعی به کنترلی بستگی دارد که روی آن اعمال میشود. در درازمدت تأثیر آن به این موضوع بستگی دارد که آیا اصلاً قابل کنترل خواهد بود یا نه؟»
تاریخ: سوم اوت 2014
صاحب نظر: ایلان ماسک
دیدگاه: خطر هوش مصنوعی از سلاحهای هستهای بیشتر است.
کارآفرین بزرگی که به شکلهای مختلف فناوری را در بخشهایی همچون ماشینهای برقی مورد استفاده قرار داده است، نگرانی عمیقی نسبت به هوشمندی فوقالعاده فناوری دارد. ایلان ماسک میلیاردر و مخترع بزرگی که معتقد است، در آینده انرژی خورشیدی و ماشینهای برقی انسانها را به خانه دوم آنها مریخ میبرد، میگوید آینده خطرناکی را مشاهده میکند که پر از ماشینهای فوقالعاده هوشمند است. او در توییتی که در سوم اوت سال گذشته میلادی منتشر کرد، اعلام کرد: «ما باید بیش از اندازه مراقب هوش مصنوعی باشیم. هوش مصنوعی این ظرفیت را دارد که خطرناکتر از سلاحهای هستهای باشد.»
تاریخ: هفتم ژوییه 2015
صاحب نظر: لینوس توروالدز
دیدگاه: خوشبین؛ هوش مصنوعی موضوع نگرانکنندهای نیست.
تاکنون نظرات کارشناسانی را خواندیم که همگی از بابت قدرت مهارنشدنی هوش مصنوعی ابزار نگرانی کردهاند. اما بد نیست بدانید، لینوس توروالدز که به خاطر طراحی هسته لینوکس معروف شده است، نظر دیگری در این زمینه دارد. او میگوید افرادی که از هوش مصنوعی هراس دارند، انسانهای سادهلوحی هستند. او در صحبتهای خود به نقاط قوت هوش مصنوعی اشاره میکند و میگوید ما هیچگاه شاهد ظهور هوش مخربی همچون اسکاینت (در فیلم «ترمیناتور») نخواهیم بود. او معتقد است، کارشناسان این توانایی را دارند تا از هوش مصنوعی در زمینه برنامهریزی یا ترجمه زبانها به یکدیگر استفاده کنند. او بر این باور است که برنامههایی شبیه Google Now یا سیری چیزی بیش از یک خیالبافی نیستند و این برنامهها ظرفیت آن را ندارند تا در مقام هوش انسانی به فعالیتهای خود بپردازند.
تاریخ: بیست و هشتم ژانویه 2015
صاحب نظر: بیل گیتس
دیدگاه: نگران قدرت مهارنشدنی هوش مصنوعی هستم.
نزدیک به هشت ماه پیش جلسه پرسش و پاسخی با حضور بیل گیتس در Reddit انجام شد. بیل گیتس جدا از آنکه بنیانگذار مایکروسافت بوده و انسان هوشمند عصر ما نام گرفته است، زمانی که صحبت از نجات دنیا میشود، حاضر است پول خود را صرف این کار کند. زمانی که صحبت از هوش مصنوعی به میان میآید، بیل گیتس همچون استفان هاوکینگ و ایلان ماسک، مرد آهنین تسلا موتورز، نگران است که هوش مصنوعی به تهدیدی برای بشریت تبدیل شود. در جلسه پرسش و پاسخی که چهارشنبه بیست و هشتم ژوئن سال جاری میلادی توسط Reddit برگزار شد، بیل گیتس گفت: «میترسم هوش مصنوعی به چنان ظرفیت و پتانسلی دست یابد که داستانهای فیلمهای «ترمیناتور» و سهگانه «ماتریکس» به واقعیت تبدیل شود.» او صحبتهای خود را این گونه ادامه داد: «من در همان کمپینی هستم که نگران هوش مصنوعی است. ماشینها کارهای عادی زیادی برای ما انجام میدهند، در نتیجه نمیتوانند زیاد باهوش باشند. کنترل کردن آنها ایده خوبی است. اما بعد از گذشت چند دهه، هوش مصنوعی بهقدری قدرتمند خواهد شد که باید درباره آن نگران باشیم. من با ایلان ماسک و دیگران در این مورد موافق هستم، اما متوجه نمیشوم چرا دیگران از این بابت نگران نیستند.»
تاریخ: بیست و هشتم ژوییه 2015
صاحب نظر: استوارت راسل
دیدگاه: از بابت مسابقه تسلیحاتی ساخت سلاحهای مبتنی بر هوش مصنوعی نگران است.
سایت NPR مصاحبهای را با استوارت راسل، پژوهشگر هوش مصنوعی، در بیست و هشتم ژوییه ترتیب داد. در این مصاحبه، راسل از بابت ساخت سلاحهای هوشمندی هشدار داد که مستقل از انسانها کار میکنند. راسل صحبتهای خود را این گونه آغاز کرد یک هواپیمای بدون سرنشین وسیله خودرانی است که از راه دور کنترل میشود. در اینجا یک انسان این هواپیما را کنترل میکند و با استفاده از دوربین نصب شده روی هواپیما به مشاهده مناظر میپردازد. انسان تصمیم میگیرد هدف چیست و آیا باید به هدف شناسایی شده موشکی شلیک شود یا خیر. اما برای یک سلاح هوشمند اوضاع به گونه دیگری رقم میخورد، به طوری که سلاح خود تصمیم میگیرد اکنون باید چه کاری انجام دهد. سلاح هوشمند خود تصمیم میگیرد به کجا برود. یک سلاح هوشمند خود تصمیم میگیرد هدفش را انتخاب کند و در نهایت خود تصمیم میگیرد چه کسی را باید به قتل برساند. در حال حاضر، در کشور کره جنوبی روباتهایی در بخشهای غیر نظامی مستقر شدهاند که میتوانند در فاصله دو مایلی یک انسان را دنبال و با دقت بسیار بالایی به آن شلیک کنند. این ماشین در دو وضعیت مورد استفاده قرار میگیرد. در حالت نخست، برای کشتن یک انسان نیازمند یک مجوز انسانی است. اما اگر از این حالت تغییر وضعیت دهد، ماشین در وضعیت خودکار قرار میگیرد و خود اقدام به کشتن یک انسان میکند.
ماهنامه شبکه را از کجا تهیه کنیم؟
ماهنامه شبکه را میتوانید از کتابخانههای عمومی سراسر کشور و نیز از دکههای روزنامهفروشی تهیه نمائید.
ثبت اشتراک نسخه کاغذی ماهنامه شبکه
ثبت اشتراک نسخه آنلاین
کتاب الکترونیک +Network راهنمای شبکهها
- برای دانلود تنها کتاب کامل ترجمه فارسی +Network اینجا کلیک کنید.
کتاب الکترونیک دوره مقدماتی آموزش پایتون
- اگر قصد یادگیری برنامهنویسی را دارید ولی هیچ پیشزمینهای ندارید اینجا کلیک کنید.
نظر شما چیست؟