گزارش منتشر شده از سوی سایت Buzfeed نشان داد چگونه اخبار جعلی همچون «دونالد ترامپ مورد تأیید پاپ فرانسیس است»، بهسرعت مورد توجه مردم قرار گرفت، در حالی که در آن زمان رسانههای بزرگ خبری، اقدام به انتشار داستانهای معتبری کردند، اما مردم عمدتاً به اخبار جعلی روی خوش نشان دادند. دامنه انتقادات از فیسبوک بهاندازهای شدت گرفت که سرانجام مارک زاکربرگ از خود واکنش نشان داد و اعلام کرد اخبار منتشر شده در فیسبوک هیچگونه تأثیری بر روند انتخابات نداشته است.
آمارهای منتشر شده نشان میدهند تقریباً نیمی از شهروندان ایالات متحده اخبار مهم روز را از طریق این رسانه اجتماعی دریافت میکنند. اما انتشار خبرهای جعلی باعث شد تا بسیاری از کارشناسان و حتی شرکتهای بزرگ عرصه فناوری نسبت به این موضوع حساس شوند و راهکارهایی را برای مقابله با این پدیده شوم ارائه کنند. در همین راستا، دو شرکت فیسبوک و گوگل تصمیم گرفتند به مقابله با این پدیده برخزیند و مانع از آن شوند تا تبلیغات ارائه شده از سوی این شرکتها روی سایتهایی که اقدام به نشر اکاذیب میکنند به نمایش درآیند. فیسبوک تصمیم گرفته است با شدت عمل بیشتری به میدان وارد شود. این شرکت ابزارها و راهکارهای جدیدی در اختیار کاربران خود قرار داده است تا گسترش اخبار جعلی در پلتفرم خود را محدود سازد. ابزارهای جدید به کاربران اجازه میدهد هر زمان محتوای مشکوکی را مشاهده کردند آن را گزارش کنند. در این حالت محتوای مشکوک با برچسب بحثبرانگیز (Disputed) به نمایش درمیآید تا نشان دهد خبر ممکن است قابل استناد نباشد. (شکل 1)
شکل 1- فیسبوک محتوای مشکوک را با برچسب بحثبرانگیز نشانهگذاری میکند.
در حالی که همه این اقدامات بهمنظور مقابله با نشر اکاذیب مفید هستند، اما به نظر میرسد ما به اهرمهای قدرتمندتر و کارآمدتری نیاز داریم. در واقع، بسیاری از کارشناسان معتقدند مسئله انتشار اخبار جعلی موضوعی است که به پژوهش عمیق نیاز دارد، بهدلیل اینکه اطلاعات غیرواقعی که امروزه نظارهگر آن هستیم، بهسان کوه یخی عظیمی است که تنها نوک آن قابل رؤیت است. در نتیجه برای حل این مشکل به یک پژوهش عمیق و جامع نیاز است. اما موضوع رسیدگی به محتوای جعلی زمانی شکل پیچیدهتر و حادتری به خود میگیرد که از ورود هوش مصنوعی به این عرصه صحبت کنیم. در واقع، بسیاری از کارشناسان بهجای آنکه از ورود این فناوری به حوزه محتوا خوشحال شوند، بیشتر نگران هستند. بهواسطه آنکه ورود فناوریهای هوشمندانه به این عرصه ممکن است بر پیچیدگی اوضاع بیافزاید.
هوش مصنوعی به میدان وارد میشود
دنیای فناوری پس از گذشت سالهای متمادی در سال 2016 شاهد حضور تمامعیار هوش مصنوعی بود. به طوری که به یکی از جریانهای اصلی سال گذشته تبدیل شد. هوش مصنوعی بهلطف پیشرفتهای چشمگیر در حوزه یادگیری عمیق نشان داد قادر است در بسیاری از حوزهها نقشآفرین باشد. هوش مصنوعی در عمل نشان داد برای حل یک مسئله دیگر نیازی به کدنویسی نیست. بلکه باید به کامپیوترها یاد بدهید براساس یک چهارچوب منطقی مشکلات خود را حل کنند. چند سال پیش کمتر کارشناس برجستهای قادر بود پیشبینی کند محصولات آینده بهشکلی باورنکردنی قادر خواهند بود عملیاتی که به آنها محول میشود را بدون نظارت یا با نظارت محدود عامل انسانی سازماندهی کنند. اکوی آمازون و خودروهای خودران بارزترین مثالی هستند که در این زمینه میتوان به آن اشاره کرد. در حالی که دستیابی به چنین موفقیتهایی فوقالعاده است، اما هوش مصنوعی این پتانسیل را دارد تا ابزارهای نوین و البته ترسناکی را خلق کند که بهراحتی در روند دستیابی کاربران به محتوای صحیح سنگاندازی کنند. ابزارهای قدرتمندی که ممکن است شیوه درک و مصرف اطلاعات را دستخوش تغییرات اساسی سازند. VoCo ابزار طراحی شده از سوی شرکت ادوبی از جمله ابزارهای هوشمندی است که ممکن است کاربردی دوگانه داشته باشد. VoCo یک ابزار مبتنیبر هوش مصنوعی است که قادر به تقلید صدای انسان است. (شکل 2)
شکل 2- VoCo ابزاری که سال گذشته میلادی ادوبی از آن رونمایی کرد، چیزی فراتر از یک ویرایشگر ساده صوتی است.
برای آنکه بتوانید از این ابزار استفاده کنید، کافی است یک فایل صوتی 20 دقیقهای ضبط شده از صدای شخص مورد نظر خود را در اختیار این ابزار قرار دهید تا آن را تحلیل کند و نحوه صحبت کردن با مخاطب را فراگیرد. در ادامه هرگونه محتوایی که تایپ کنید، کامپیوتر قادر خواهد بود محتوا را برمبنای صدای شخص مخاطب برای شما بازگو کند. ادوبی گفته است که ابزار VoCo بهمنظور کمک به تدوینگران طراحی شده است. ابزاری که به این افراد کمک میکند با کمترین زحمت مشکلات صوتی موجود در پادکستها یا فیلمها را شناسایی و آنها را برطرف کند. پس از معرفی این ابزار از سوی ادوبی بسیاری از کارشناسان درباره تبعات منفی احتمالی این ابزار هشدار دادند. کارشناسان بر این باورند که ابزار فوق نهتنها باعث میشود سطح اعتماد به روزنامهنگاران کم شود، بلکه باعث شکلگیری تهدیدات امنیتی تازهای میشود. اما این تمام ماجرا نیست، بهواسطه آنکه محتوای ویدئویی نیز همانند محتوای صوتی قابل دستکاری است. Face2Face یکی دیگر از ابزارهای مبتنیبر هوش مصنوعی است که قادر است بر فرآیند پخش یک محتوای ویدئویی بهصورت بیدرنگ نظارت کند. عملکرد ابزار Face2Face نیز شبیه به ابزار VoCo است، با این تفاوت که قادر است محتوای یک فایل ویدئویی ضبط شده از صحبت یک فرد را دریافت کند و در ادامه جزئیترین حرکات چهره شخص را در زمان صحبت کردن مورد تحلیل قرار دهد و الگوی جالبی را برای آن ارائه کند. در ادامه برمبنای فناوری ردیابی چهره (Face-Tracking) قادر به ترسیم چهره شما بهجای چهره آن شخص است. موضوع زمانی جالبتر میشود که به شما اعلام داریم این ابزار حتی قادر به تقلید حرکات چهره شخص مذکور است (شکل 3).
شکل 3- Face2Face ابزار هوشمندی که قادر است چهره شما را جایگزین چهره کاراکتر یک فیلم کند.
حال تصور کنید قابلیتهای دو ابزار VoCo و Face2Face را با یکدیگر ترکیب کنیم. آنگاه به ابزار بسیار قدرتمند و ترسناکی دست پیدا میکنیم که قادر است فایلهایی ویدئویی را دستکاری کند و به شما اجازه میدهد آنچه را تمایل دارید فرد درون ویدئو اعلام دارد از طریق این ابزار شبیهسازی کنید. این شبیهسازی به اندازهای واقعگرایانه خواهد بود که شناسایی ساختگی بودن آن تقریباً غیرممکن خواهد بود. اما کار به همین جا خلاصه نمیشود. هوش مصنوعی این توانایی را دارد تا از طریق راهکارهای متنوع دیگری به جعل هویت شما بپردازد. به طور مثال، پژوهشگران یک ابزار مبتنیبر هوش مصنوعی را طراحی کردهاند که قادر است هرگونه دستخطی را شبیهسازی کند. در نتیجه، امکان دستکاری اسناد حقوقی و تاریخی همراه با ارائه شواهد دروغ به دادگاه برای هر کاربری امکانپذیر میشود. کار به همین جا ختم میشود؟ خیر. هنوز هم جای ترس بیشتری وجود دارد. اگر به شما بگوییم ممکن است یک فرد بهلحاظ فیزیکی مرده باشد، اما بهلحاظ دیجیتالی زنده بماند با خود چه میگویید؟ بهتازگی شرکت نوبنیانی موفق شده است چتبات مبتنیبر هوش مصنوعی ویژهای را طراحی کند که قادر است در زمان صحبت با شخص تمام جزئیات مربوط بهشیوه برخورد او با دیگران در فضای مجازی را یاد بگیرد و در ادامه به دوستانش اجازه دهد بعد از مرگ او با شخصیت دیجیتالی او صحبت کنند. بهعبارت دقیقتر چتبات یک نسخه مجازی از شخصیت او را ایجاد میکند.
هوش مصنوعی در عمل نشان داد برای حل یک مسئله دیگر نیازی به کدنویسی نیست. بلکه باید به کامپیوترها یاد بدهید براساس یک چهارچوب منطقی مشکلات خود را حل کنند.
آخرین مرتبهای که به تصویری نگاه کردید و گمان میکردید در حال تماشای یک تصویر واقعی بودهاید، اما در ادامه متوجه شدید یک تصویر ساختگی با فتوشاپ بوده است را بهخاطر میآورید؟ بدون شک این تجربه باز هم بهسراغ شما خواهد آمد. مردم از جمله بسیار آشنایی استفاده میکنند که ممکن است بارها و بارها آن را شنیده باشید. دوربین دروغ نمیگوید. بهلطف ابداع این نوآوری برای نخستین بار موفق شدیم یک تصویر واقعی را درست به همان شکلی که وجود دارد مشاهده کنیم. عکسهایی که دوربینهای عکاسی برای ما ضبط میکردند خیلی زود به یکی از قابل استنادترین شواهد تبدیل شدند. در آن مقطع زمانی عبارت «خاطره تصویری» بر زبان مردم جاری شد. مردم در آن زمان عکسها را ویرایش و دستکاری میکردند. اما تنها افراد متخصص میتوانستند تصاویر را ویرایش کنند. امروزه این گونه نیست و هر کاربری بسته به سطح مهارتهای خود قادر به ویرایش تصاویر است. در عصر جدید دوربینها نقشی متفاوتتر از قبل را عهدهدار شدهاند. بهعبارت دقیقتر نسل جدید بهخوبی میدانند دوربینها ممکن است واقعیت را نشان ندهند. با توجه به اینکه امروزه ابزارهای متنوعی همچون فتوشاپ بهمنظور ویرایش و دستکاری تصاویر در اختیار همگان قرار دارد و این کار برای عدهای از مردم تبدیل به سرگرمی شده است، دیگر نمیتوان به هر تصویری اعتماد کرد.
با توجه به اینکه ویرایش تصاویر بیش از پیش ساده شده است، در نتیجه شناسایی تصویر واقعی از تصاویر ساختگی بهسختی امکانپذیر است. جالب آنکه امروزه ممکن است عکسی را مشاهده کنیم که در نگاه اول ساختگی به نظر آید. بهسرعت از عبارت «فتوشاپ است» استفاده میکنیم. اما پس از بررسی دقیقتر آگاه میشویم که در حال مشاهده یک عکس واقعی بودهایم.
هوش مصنوعی به ما اجازه داده است بهسمت آیندهای حرکت کنیم که دستیابی به آن دور از انتظار به نظر میرسد. درست به همان شکلی که روزگاری بازسازی صدا، ویدئو و متن یک ایده خیالپردازانه به نظر میرسیدند. اما به این نکته توجه داشته باشید که ابزارهایی شبیه به VoCo و Face2Face آغازگر یک تحول بنیادین نیستند. سالهای متمادی است که استودیوهای فیلمسازی از تکنیک جایگزینی چهره و صدا استفاده میکنند. اما اکنون یک تغییر مهم شکل گرفته است. امروزه نه به افراد حرفهای و نه به کامپیوترهای قدرتمند برای انجام این کار نیاز است. بهلطف ابزارهای جدیدی که عرضه شدهاند، هر فردی قادر است همان کار را با کامپیوتر خانگی خود انجام دهد و به نتایج مشابهی دست پیدا کند.
هرچند دو ابزاری که به آن اشاره کردیم محدودیتهایی دارند و ممکن است در بعضی موارد با کاستیهایی همراه باشند، اما بدون شک فناوری که در ساخت آنها مورد استفاده قرار گرفته بهمرور زمان تکامل پیدا خواهد کرد تا روزی که این ابزارها را به یک محصول تجاری تمام عیار تبدیل کند. این ابزارها ممکن است ظرف یک سال تا ده سال تکامل پیدا کنند. اما به هر ترتیب زمانی فراخواهد رسید که یک نوجوان عصبانی تصمیم بگیرد با نرمافزار مبتنیبر هوش مصنوعی که در اختیار دارد، هر محتوایی را بهگونهای دستکاری کند که اصالت آن هیچگاه قابل تشخیص نباشد.
با توجه به اینکه اخبار جعلی بهراحتی در فضای آنلاین منتشر و از سوی بعضی از مردم بهراحتی پذیرش میشوند، در آیندهای نهچندان دور ممکن است اعتماد مردم به صنعت رسانه کم شود. این موضوع نگرانکننده است. شاید این سؤال را مطرح کنید که این بیاعتمادی چه پیامدهایی ممکن است به همراه داشته باشد؟ ما به دو مورد حساس در این زمینه اشاره میکنیم.
امروزه محاکم قضایی با استناد به شواهد و مدارک موجود رأی صادر میکنند. اما همان گونه که اشاره کردیم، اگر امکان جعل این شواهد شبیه به تصاویر دیجیتالی بهسادگی امکانپذیر شود، در نتیجه این احتمال وجود دارد که محاکم قضایی با توجه به نبود راهکاری بهمنظور شناسایی یک محتوای واقعی رأی بر غیرمعتبر بودن این مدارک (متن، صدا و ویدئو) صادر کنند.. زیرا هیچ راهی وجود نخواهد داشت که نشان دهد این مدارک از طریق ابزارهای مبتنیبر هوش مصنوعی ساخته نشدهاند.
این احتمال وجود دارد که در دنیای سیاست شاهد عرضه فیلمهای ویدئویی تکاندهندهای باشیم که بهمنظور بیاعتبار کردن شخص یا گروهی ساخته شدهاند. حتی اگر یک فیلم واقعی نیز انتشار پیدا کند، فردی که تصویرش درون یک فیلم نشان داده شده ممکن است این ادعا را مطرح کند که فیلم ساختگی بوده و با نرمافزارهایی شبیه به VoCo ساخته شده است. (فتوشاپ است!)
در سال گذشته میلادی، آکسفورد در لغتنامه خود عبارتPost-truth (پس از حقیقت) را بهعنوان واژه بینالمللی سال انتخاب کرد. با توجه به اتفاقاتی که در سال گذشته میلادی رخ داد، انتخاب این واژه دور از انتظار نبود. درست است که فناوری زندگی ما را سادهتر از قبل کرده و کیفیت زندگی ما را بهبود بخشیده است، اما به همان نسبت مرز میان دروغ و حقیقت را بیش از پیش کمتر کرده است. امروزه ما در دنیایی زندگی میکنیم که فتوشاپ، CGI، برنامههای کاربردی مبتنیبر هوش مصنوعی و سلفیها ما را احاطه کردهاند. اینترنت با هدف دسترسی آزاد و رایگان مردم به اطلاعات پا به عرصه ظهور نهاد. اما در عمل مردم با افزونگی اطلاعات روبهرو شدند. اطلاعاتی که در بعضی موارد به شایعه یا دروغ محض آلوده شدهاند. رسانههای اجتماعی به ما وعده دادهاند ما را به افرادی که در اقصا نقاط جهان زندگی میکنند متصل میکنند. اما در عمل مشاهده میکنیم که نهتنها این اتفاق رخ نداد، بلکه در عمل کاربران درون اتاقهای کوچکی که در اصل بازتاب دیجیتالی هستند محصور گشتهاند. دنیایی که در بعضی موارد با توهین، دروغهای تکاندهنده و کلمات تحقیرآمیزی که بهشکل سیستماتیک کار کرده و تنها پول را بهسمت دستاندرکارانشان سرازیر میکنند، آمیخته شده است.
ماهنامه شبکه را از کجا تهیه کنیم؟
ماهنامه شبکه را میتوانید از کتابخانههای عمومی سراسر کشور و نیز از دکههای روزنامهفروشی تهیه نمائید.
ثبت اشتراک نسخه کاغذی ماهنامه شبکه
ثبت اشتراک نسخه آنلاین
کتاب الکترونیک +Network راهنمای شبکهها
- برای دانلود تنها کتاب کامل ترجمه فارسی +Network اینجا کلیک کنید.
کتاب الکترونیک دوره مقدماتی آموزش پایتون
- اگر قصد یادگیری برنامهنویسی را دارید ولی هیچ پیشزمینهای ندارید اینجا کلیک کنید.
نظر شما چیست؟