ربات‌های نرم‌افزاری و بحران اینفودمی در دوران کرونا
کرونا در اتاق پژواک
اگر بتوانید ده ثانیه نفس‌تان را حبس کنید کرونا ندارید؛ این یک نمونه از اطلاعات نادرستی است که طی یک سال اخیر در اینترنت دست‌ به ‌دست می‌شد، درست در شرایطی که دسترسی به اطلاعات معتبر در حکم مرگ و زندگی بود. بخش زیادی از آلودگی اطلاعاتی یا اینفودمی که در این دوران شیوع کرونا شاهد آن هستیم حاصل فعالیت ربات‌هایی است که در فضای اینترنت و به ‌خصوص در شبکه‌های اجتماعی حضور دارند .
  • در این یک سال، افرادی با کمک ربات‌های نرم‌افزاری به انتشار اخبار، اطلاعات و راهنمایی‌های نادرست در مورد این بیماری پرداختند، کلاهبرداری کردند، دلهره و ترس به‌راه انداختند و با گمراه کردن دیگران، به روش‌های مختلف پول در آوردند.  همانطور که پزشکان و کادر درمان برای پاکسازی ویروس تلاش می‌کنند، متخصصان علوم کامپیوتر هم در پی پاکسازی بستر اینترنت از اخبار جعلی و اطلاعات نادرست هستند. ربات‌ها از روش‌های متعددی از جمله یادگیری ماشین برای قربانی گرفتن و انتشار اطلاعات نادرست استفاده می‌کنند. جالب اینجاست که محققان هم برای شکار آن‌ها و تهیه آماری از جمعیت‌شان، از روش‌های مبتنی بر یادگیری ماشین کمک می‌گیرند. 
  • شیوع کووید۱۹ ما را در موقعیت ویژه‌ای قرار داد. موقعیتی چنان منحصربفرد که حتی جامعه علم را هم دچار سردرگمی کرد. از یک سو دانش اندکی در مورد ویروس کرونای جدید وجود داشت و از سوی دیگر این ویروس در هر لحظه جماعتی را مبتلا می‌کرد و  با جهش‌های گاه و بیگاه، جان افراد بیشتری را می‌گرفت. در چنین شرایطی جهان با مشکلی بزرگ‌تر هم مواجه شد. پدیده‌ای که سازمان بهداشت جهانی از آن با عنوان « اینفودمی » یاد کرد. آنتونیو گوترش دبیرکل سازمان ملل متحد در مارس ۲۰۲۰ چنین نوشت: «دشمن مشترک ما کووید۱۹ است، اما دشمن دیگری هم داریم و آن، اینفودمی است. به منظور غلبه بر ویروس کرونا ما باید بجای ناامیدی و تفرقه به گسترش مطالب معتبر علمی، امید و همبستگی کمک کنیم».  تدروس آدهانوم دبیرکل سازمان بهداشت جهانی  در اظهارنظری مشابه چنین گفت: «ما فقط با همه‌گیری مقابله نمی‌کنیم. بلکه در حال مقابله با یک اینفودمی هم هستیم». اصطلاح اینفودمی به سیل عظیم اطلاعاتی اشاره دارد که در دوران کرونا در جهان به راه افتاد. سیل اطلاعاتی که مخلوطی ناهمگن از اطلاعات معتبر و حجم زیادی از اطلاعات نامعتبر، اخبار جعلی و محتوای شبه‌علم را در بر داشت.  کارشناسان بر این باورند که اخبار جعلی در مورد ویروس کرونای جدید سریع‌تر و ساده‌تر از خود ویروس منتشر می‌شوند. در اینفودمی کرونا این امکان فراهم شد که اطلاعات نادرست و شایعات و شبه‌علم در هرج و مرج حاصل از یک وضعیت فوق‌العاده جهانی به راحتی منتشر شوند. با این‌که پلتفرم‌های رسانه‌های اجتماعی وعده داده‌اند که پُست‌های حاوی اطلاعات گمراه‌کننده در مورد کووید۱۹ را شناسایی کنند و برچسب بزنند، اما هنوز موفق به توقف این موج نشده‌اند. بر اساس گزارشی که از سوی شرکت Blackbird.AI منتشر شده، بسیاری از کلاهبرداران با سواستفاده از سردرگمی و هرج و مرج حاصل از شیوع کرونا، مردم را به گونه‌ای فریب داده‌اند تا اطلاعات نادرست و گمراه‌کننده را با سرعت بیشتری منتشر کنند.  به گفته مدیر عامل این شرکت: «شیوع کووید۱۹ را می‌توان المپیک انتشار اطلاعات نادرست دانست به‌طوری‌که همه شکارچیان در این ضیافت شرکت کرده‌اند».  

منابع معتبر هم ممکن است اشتباه کنند

 شاید شیوع کرونا یکی از موارد نادری باشد که نه تنها در بین مردم عادی، بلکه در بین جامعه علمی هم  سردرگمی ایجاد کرد.  بشر با مساله‌ای روبه‌رو شده بود که هیچ تجربه‌ای در  موردش نداشت. عجله و شتابی که در اجرای تحقیقات وجود داشت بارها سبب شد نشریات پزشکی پژوهش‌های منتشر شده را کمی بعد از انتشار پس بگیرند زیرا صحت علمی آن‌ها زیر سؤال رفته بود. در چنین وضعیتی مردم که برای دریافت اخبار و اطلاعات روزانه به ابزارهایی نظیر شبکه‌های اجتماعی و موتورهای جست‌وجو تکیه داشتند با یک هرج و مرج اطلاعاتی در مورد کووید۱۹ روبه‌رو شدند. اگرچه به چرخش درآمدن اطلاعاتی با منابع موثق در این پلتفرم‌ها کمک زیادی به کاهش حجم اخبار و مطالب نادرست می‌کند، اما همین منابع موثق هم ممکن است اطلاعات نادرستی را منتشر کنند و به سرعت این اطلاعات گسترش یابند. به‌عنوان نمونه یکی از مسؤولین سازمان بهداشت جهانی ادعا کرد «به ندرت اتفاق می‌افتد که ویروس کرونای جدید از افراد بی‌علامت به دیگران منتقل شود»؛ ادعایی که با نظر بسیاری از کارشناسان تناقض داشت. این ادعای نادرست که اتفاقاً از سوی یک منبع معتبر مطرح شده بود به سرعت و به‌طور گسترده‌ای بر بستر اینترنت منتشر شد. روز بعد سازمان بهداشت جهانی با رد این ادعا عنوان کرد که افراد بی‌علامت هم می‌توانند ویروس را منتشر کنند.  به‌عنوان نمونه‌ای دیگر می‌توان به توصیه‌های متناقض سازمان بهداشت جهانی از یک سو و مرکز کنترل بیماری‌های آمریکا (CDC) از سوی دیگر در زمینه استفاده از ماسک اشاره کرد. سازمان بهداشت جهانی استفاده از ماسک را فقط به مبتلایان کووید۱۹ توصیه می‌کرد، در حالی‌که مرکز کنترل بیماری‌ها استفاده از ماسک را به همه مردم توصیه کرده بود. در چنین شرایطی که حتا نمی‌توان به اظهارنظرهای کارشناسان هم اعتماد کرد، ربات‌هایی در فضای اینترنت می‌خزند که ارمغانشان برای کاربران بی‌اطلاع، سیلی از اطلاعات نادرست، شبه‌علم و اخبار جعلی است. شاید یکی از بهترین مکان‌ها برای دیدن تاخت و تاز این ربات‌ها بستر توییتر باشد. 

وقتی ربات‌ها، خردجمعی انسان‌ها را به بازی می‌گیرند!

از جمله پژوهش‌های جالبی که می‌توان در زمینه این ربات‌ها و نقش‌شان در گسترش اطلاعات نادرست به آن اشاره کرد، پژوهشی است که مرکز  رصد رسانه‌های اجتماعی دانشگاه ایندیانا (OsoMe ) انجام داده است. محققان OsoMe با انجام  شبیه‌سازی دریافتند که در شبکه‌های اجتماعی واقعی، تنها چند جرقه از سوی ربات‌ها کافی است تا اخبار جعلی و شبه‌علم به‌طور گسترده‌ای بر بستر اینترنت منتشر شوند.  پلتفرم‌هایی نظیر فیس‌بوک، توییتر، یوتیوب و اینستاگرام، علاوه بر اینکه پست‌هایی را نشان ‌می‌دهند که  عموما هم‌سو با علایق ما هستند، با قرار دادن محتواهای محبوب در بالای فهرست، به ما اطلاع می‌دهند که چه تعداد از کاربران، یک موضوع را پسندیده‌اند یا به اشتراک گذاشته‌اند. یک نکته مهمی وجود دارد که معمولاً از دید اغلب کاربران پنهان می‌ماند. این که بالا بودن رتبه یک پُست لزوماً نشان‌دهنده کیفیت محتوای آن پُست نیست. در حقیقت برنامه‌نویسانی که الگوریتم‌های رتبه‌بندی مطالب در شبکه‌های اجتماعی را توسعه داده‌اند با این فرض دست به این کار زده‌اند که خرد جمعی به سرعت مطالب با کیفیت را انتخاب خواهد کرد. معیار این خرد جمعی هم  میزان لایک‌ها و تعداد دفعاتی است که یک لینک یا پُست به اشتراک گذاشته شده است. آن‌ها در حقیقت میزان محبوبیت مطلب را به‌عنوان معیاری برای تعیین کیفیت در نظر گرفته‌اند. اما  محبوبیت یک پُست همیشه مترادف با کیفیت آن پُست نیست بلکه فقط این را نشان می‌دهد افراد زیادی آن مطلب را دیده‌اند. شاید متعجب شوید اگر بدانید بسیاری از بازدیدکنندگان و حتی نشردهندگان مطالبی که روزانه می‌بینید نه انسان‌ها بلکه ربات‌های نرم‌افزاری هستند. درصد قابل‌ توجهی از ارجاعات به سایت‌های کم‌اعتبار در توییتر از سوی ربات‌ها انجام می‌شود. برخی از ربات‌ها به‌طور مستقیم به آدرس‌های حاوی اطلاعات نادرست لینک می‌دهند و برخی دیگر نیز توییت‌هایی را بازنشر می‌کنند که حاوی چنین لینک‌ها و اطلاعاتی است.  همین ربات‌های نرم‌افزاری از جمله بازیگرانی هستند که سیل اینفودمی در دوران شیوع کرونا را به راه انداخته‌اند(شکل ۱).  

شکل۱ - در نمودار سمت چپ، هر دایره نشانگر یک حساب کاربری است و خطوط، ارتباطات بین حساب‌ها را نشان می‌دهند. حجم اطلاعات مبادله شده در این شبکه کم است و کیفیت مطالب به اشتراک گذاشته شده بالاست. 
در نمودار وسط، رنگ‌ها نشان‌دهنده تنوع مطالب است. مشاهده می‌کنیم که با افزایش تنوع مطالب، میزان کیفیت مطالب منتشر شده نیز متفاوت خواهد بود. در این نمودارها اندازه دایره،  کیفیت مطلب به اشتراک‌ گذاشته شده را نشان می‌دهد. 
در نمودار سمت راست، بار اطلاعات منتشر شده در شبکه زیاد است و کیفیت اطلاعات به اشتراک گذاشته شده کم.

اسارت در اتاق‌های پژواک

بررسی حجم زیادی از داده‌های مربوط به مطالب به اصطلاح کلیک‌خور نشان داده که همه پلتفرم‌ها اعم از شبکه‌های اجتماعی، موتورهای جستجو و سایت‌های خبری ترجیحاً اطلاعات خود را از شمار محدودی از منابع محبوب به‌دست می‌آورند. تحقیقات نشان داده اغلب کاربران فقط تعداد کمی از  پُست‌‌هایی که در صدر فهرست هستند را می‌بینند و احتمالاً روی مطالبی کلیک خواهند کرد که بیشترین رتبه را توسط آن پلتفرم دریافت کرده باشند. این موضوع در موتورهای جست‌وجو و به ویژه در شبکه‌های اجتماعی بسیار رایج است. این موضوع سبب می‌شود که افراد در جزایر بزرگ و پر جمعیت مملو از اطلاعات نادرست گرفتار شوند که با اصطلاح اتاق‌های پژواک (echo chamber)  از آن‌ها یاد می‌شود. به‌عنوان مثال پیشنهاداتی که اینستاگرام به شما می‌دهد متفاوت است از پیشنهاداتی که به کاربری دیگر می‌دهد. این موضوع باعث می‌شود پس از مدتی در یک محدوده خاص از پُست‌‌ها و صفحات گرفتار شوید و سایر اخبار و مطالب به شما نرسد. ربات‌هایی که در شبکه‌های اجتماعی حضور دارند با استفاده از آسیب‌پذیری‌های متعدد الگوریتم‌های شبکه‌های اجتماعی و از جمله همین موردی که به آن اشاره کردم، کاربران را به سوی مطالب خاصی سوق می‌دهند که بسیاری از این مطالب در دسته مطالب نادرست و جعلی و شبه‌علم طبقه‌بندی می‌شوند. نتیجه این فرایند این است که پس از مدتی، آنچه ربات‌ها می‌خواهند توسط جمعیت قابل‌توجهی از کاربران دست به دست خواهد شد. موتورهای جستجو و پلتفرم‌های رسانه‌های اجتماعی براساس حجم زیاد داده‌هایی که از کاربرانشان جمع‌آوری کرده‌اند اطلاعات را برای ما به‌گونه‌ای می‌چینند که مطابق میل‌‌مان باشند. بدین ترتیب آن‌ها ما را در حفاظی قرار می‌دهند تا اطلاعاتی که ممکن است تفکر و عقیده‌مان را تغییر دهد به ما نرسد.  خوراک خبری رسانه‌های اجتماعی ما معمولاً آ‌ن‌قدر لبریز است که فقط چندتایی که در بالای فهرست هستند و در ابتدا به چشم ما می‌خورند را از نظر می‌گذرانیم و از بین همان‌ها هم برای بازنشر انتخاب می‌کنیم. بدین ترتیب بسیاری از مطالب موجود در شبکه‌های اجتماعی فرصت بازنشر پیدا نمی‌کنند و فقط درصد کمی از آن‌ها بطور گسترده منتشر می‌شوند. این پژوهش‌ها نشان داد که حتا وقتی ما سعی داریم اطلاعات با کیفیت را ببینیم و به اشتراک گذاریم باز هم  ناگزیر به سمت انتشار مطالبی خواهیم رفت که محبوب‌تر شده‌اند و  بخشی از آن‌ها یا همه‌شان نادرست هستند. 

خیزش ربات‌ها

محققان دانشگاه کارنگی‌ملون در پژوهشی دریافته‌اند که ریشه بسیاری از ادعاها و نظرات مطرح شده در مورد  همه‌گیری کرونا ربات‌ها هستند. این محققان به منظور بررسی فعالیت‌ ربات‌ها در دوران کرونا از ژانویه 2020 بیش از 200 میلیون توییت را جمع‌آوری کرده‌اند که موضوع‌شان ویروس کرونا یا  کووید۱۹ بود. از میان ۵۰ بازنشر پست‌های برتر، ۸۲ درصدشان توسط ربات‌ها انجام شده بود. در میان ۱۰۰۰ ریتوییتر برتر هم ۶۲ درصد ربات بوده‌اند. این محققان بررسی را فقط به توییتر محدود نکردند و روی فیس‌بوک، رِدیت و یوتیوب هم چنین تحقیقی را سامان دادند. نتایج تحقیقات نشان داد که میزان فعالیت ربات‌ها  تا دو برابر بیش از آن چیزی بوده که بر اساس تجربیات گذشته و در مواردی نظیر بلایای طبیعی، بحران‌ها و موقعیت‌های سیاسی پیش‌بینی می‌شد.  به عقیده این محققان چند عامل در افزایش این آمار تعیین‌کننده بوده است. نخست این‌که بسیاری از مردم این فرصت را یافته‌اند که ربات‌هایی را برای خود بسازند، اما شمار گروه‌هایی که موفق شده‌اند با به خدمت گرفتن شرکت‌های فعال در این حوزه، حساب‌های کاربری ماشینی (bot accounts) تهیه کنند نیز افزایش یافته است. این گروه از محققان برای شناسایی اینکه کدام کاربر واقعی است و کدام ماشینی، از چندین روش استفاده کرده‌اند. توییت‌ کردن با سرعتی بیش از توان کاربر انسانی یا فعالیت در یک کشور و ظاهر شدن در کشوری دیگر تنها چند ساعت بعد، از جمله نشانه‌های ربات بودن حساب است. 

 این ربا‌ت‌ها را می‌توان به سادگی ساخت. پلتفرم‌های شبکه اجتماعی رابط‌های برنامه‌نویسی را فراهم کرده‌اند که به هر کسی این امکان را می‌دهد به سادگی هزاران ربات را پیکربندی کرده و کنترل نماید. محققان OsoMe الگوریتم‌های یادگیری ماشین برای شناسایی ربات‌های اجتماعی (social bots) توسعه داده‌اند. Botometer از جمله این ابزارها است. Botometer یک ابزار عمومی است که قادر به استخراج  ۱۲۰۰ ویژگی از یک حساب توییتری است و می‌تواند برای هر حساب، ویژگی‌هایی نظیر پروفایل، زبان، شبکه دوستان، ساختار شبکه اجتماعی و الگوهای فعالیت در طول زمان را دسته‌بندی کند. این ابزار با مقایسه هر حساب توییتری با ده‌ها هزار رباتی که از قبل شناسایی شده‌اند احتمال ربات بودن آن حساب را تخمین می‌زند. این محققان در سال ۲۰۱۷ تخمین زده‌ بودند که  ۱۵ درصد حساب‌های فعال توییتری ربات هستند.  ربات‌ها این قابلیت را دارند که خودشان را بعنوان عضوی از گروه جا بزنند. یک ربات می‌تواند با دنبال کردن افراد در یک گروه آنلاین، پسندیدن مطالبشان و باز نشر کردن آن مطالب به سرعت در آن گروه نفوذ کند. شبیه‌سازی‌های انجام شده از سوی محققان OsoMe  مشخص کرد که این ربات‌ها می‌توانند با نفوذ به بخش کوچکی از شبکه، بطور مؤثری کیفیت اطلاعات کل شبکه را کاهش دهند (شکل ۲). آن‌ها این توانایی را نیز دارند که سرعت تشکیل شدن اتاق‌های پژواک را افزایش دهند.

شکل۲ -  هر دایره نشانگر یک حساب کاربری است. دایره‌های زردرنگ نشانگر ربات‌ها یا همان حساب‌های ماشینی هستند. خطوط و میزان نزدیکی دایره‌ها نشان‌دهنده کیفیت ارتباط بین حساب‌ها است.  در نمودار سمت چپ نفوذ ربات‌ها به شبکه کم است و کیفیت مطالب به اشتراک‌ گذاشته شده در شبکه بالاست. در نمودار سمت راست، می‌بینیم که ربات‌ها به شبکه نفوذ کرده‌اند و  از میزان کیفیت مطالب اشتراکی کاسته شده است. رنگ دایره‌ها میزان کیفیت اطلاعات به اشتراک‌ گذاشته شده را نشان می‌دهد. اندازه دایره‌ها نشانگر این است که حساب، چه تعداد حساب معتبر و غیرماشینی را دنبال کرده است. 
 

شرکتBlackbird.AI. پلتفرمی مبتنی بر هوش مصنوعی توسعه داده که با بررسی حجم زیادی از محتواهای منتشر شده به دنبال اطلاعات نادرست در اینترنت  می‌گردد. تا پیش از شیوع کرونای جدید، مشتریان Blackbird.AI از میان شرکت‌هایی بودند که می‌خواستند میزان تغییرات محبوبیت خود را رصد کنند، اما با گسترش شیوع کووید۱۹  این شرکت هم روی هدف جدیدی متمرکز شد.  این شرکت برای تهیه گزارشی در این زمینه حدود ۵۰ میلیون توییت منتشر شده از سوی بیش از ۱۳ میلیون کاربر را که در مورد کووید ۱۹ بودند بین ۲۷ فوریه تا ۱۲ مارس تجزیه و تحلیل کرد. بررسی‌های این شرکت نشان داد که از میان این توییت‌ها، حدود ۱۹ میلیون ( 18,880,396) توییت به روشی دستکاری شده‌ بودند که امکان ندارد کار انسان باشد (شکل ۳).

شکل۳ - شرکت Blackbird.AI با کمک هوش مصنوعی به تجزیه و تحلیل محتوای منتشر شده در شبکه‌های اجتماعی می‌پردازد تا برآوردی  از میزان انتشار اطلاعات نادرست در فضای اینترنت بدست‌ آورد. این شرکت بر اساس معیاری موسوم به BBMI اصالت اطلاعات را می‌سنجد

من ربات نیستم!

شیوع ناخواسته و هدفمند اطلاعات نادرست و شبه‌علم در مورد بیماری کرونا این خطر را ایجاد می‌کند که این بیماری آثار مهلک‌تری بر جوامع گذارد. مواردی که به‌طور مستقیم جان مردم را به خطر می‌اندازند نظیر مصرف مواد خطرناک برای درمان یا روش‌های تأیید نشده برای پیشگیری از ابتلا و یا متقاعد کردن مردم به رعایت نکردن فاصله‌گذاری‌های اجتماعی. کارشناسان معتقدند که پلتفرم‌های شبکه‌های اجتماعی در کاهش سرعت انتشار اخبار و اطلاعات نادرست نقش مهمی دارند. آن‌ها می‌توانند با برچسب‌زدن این دست از مطالب و یا بررسی اصالت منابع، روندی در پیش گیرند تا از میزان انتشار چنین مطالبی بکاهند. هیچ راهکاری به اندازه افزایش سطح سواد رسانه‌ای کاربران در این زمینه کارساز نیست. مردم باید آگاه شوند که بسیاری از آن‌چه در شبکه‌های اجتماعی یا بر بستر اینترنت می‌بینند و می‌خوانند با هدف ترویج اطلاعات نادرست و گمراه‌کننده منتشر می‌شوند. مطالعات نشان داده که اگر این موارد به کاربران اطلاع داده شود آن‌ها نسبت به محتوایی که مصرف می‌کنند حساس‌تر می‌شوند. با اینکه تضمینی نیست، اما کاربران با دقت در برخی موارد می‌توانند به ماشینی بودن حساب پی‌ببرند. به‌طور مثال، لینک‌هایی که یک حساب به اشتراک گذاشته است تغییرات نامحسوسی در نوشتار دارد یا در زمانی بسیار کوتاه مطالب زیادی منتشر می‌کند. توییتر به تازگی از کاربران خواسته است که روش‌هایی نظیر اعلام شماره تلفن خود، فعال‌سازی تأیید هویت دو مرحله‌ای و یا استفاده از روش‌های موسوم به «من ربات نیستم» را بیش از پیش جدی بگیرند. بسیاری از کاربران  به انجام این اقدامات امنیتی اشتیاقی ندارند و آن‌ها را دست و پاگیر می‌دانند، اما این‌ها راهکارهایی برای محدود کردن فعالیت ربات‌ها هستند هرچند نمی‌توان ربات‌ها را بطور کامل متوقف کرد. اگر چه پلتفرم‌هایی نظیر فیس‌بوک یا توییتر با اقدام به برچسب‌زنی مطالب به کاربران هشدار می‌دهند اما آیا می‌توان به افراد یا الگوریتم‌هایی که این برچسب‌ها را می‌زنند اعتماد کرد؟ برخی معتقدند این راهکارها به عمد یا به‌طور غیرعمد سبب محدود شدن آزادی بیان خواهند شد  

 

ماهنامه شبکه را از کجا تهیه کنیم؟
ماهنامه شبکه را می‌توانید از کتابخانه‌های عمومی سراسر کشور و نیز از دکه‌های روزنامه‌فروشی تهیه نمائید.

ثبت اشتراک نسخه کاغذی ماهنامه شبکه     
ثبت اشتراک نسخه آنلاین

 

کتاب الکترونیک +Network راهنمای شبکه‌ها

  • برای دانلود تنها کتاب کامل ترجمه فارسی +Network  اینجا  کلیک کنید.

کتاب الکترونیک دوره مقدماتی آموزش پایتون

  • اگر قصد یادگیری برنامه‌نویسی را دارید ولی هیچ پیش‌زمینه‌ای ندارید اینجا کلیک کنید.

ایسوس

نظر شما چیست؟