- در این یک سال، افرادی با کمک رباتهای نرمافزاری به انتشار اخبار، اطلاعات و راهنماییهای نادرست در مورد این بیماری پرداختند، کلاهبرداری کردند، دلهره و ترس بهراه انداختند و با گمراه کردن دیگران، به روشهای مختلف پول در آوردند. همانطور که پزشکان و کادر درمان برای پاکسازی ویروس تلاش میکنند، متخصصان علوم کامپیوتر هم در پی پاکسازی بستر اینترنت از اخبار جعلی و اطلاعات نادرست هستند. رباتها از روشهای متعددی از جمله یادگیری ماشین برای قربانی گرفتن و انتشار اطلاعات نادرست استفاده میکنند. جالب اینجاست که محققان هم برای شکار آنها و تهیه آماری از جمعیتشان، از روشهای مبتنی بر یادگیری ماشین کمک میگیرند.
- شیوع کووید۱۹ ما را در موقعیت ویژهای قرار داد. موقعیتی چنان منحصربفرد که حتی جامعه علم را هم دچار سردرگمی کرد. از یک سو دانش اندکی در مورد ویروس کرونای جدید وجود داشت و از سوی دیگر این ویروس در هر لحظه جماعتی را مبتلا میکرد و با جهشهای گاه و بیگاه، جان افراد بیشتری را میگرفت. در چنین شرایطی جهان با مشکلی بزرگتر هم مواجه شد. پدیدهای که سازمان بهداشت جهانی از آن با عنوان « اینفودمی » یاد کرد. آنتونیو گوترش دبیرکل سازمان ملل متحد در مارس ۲۰۲۰ چنین نوشت: «دشمن مشترک ما کووید۱۹ است، اما دشمن دیگری هم داریم و آن، اینفودمی است. به منظور غلبه بر ویروس کرونا ما باید بجای ناامیدی و تفرقه به گسترش مطالب معتبر علمی، امید و همبستگی کمک کنیم». تدروس آدهانوم دبیرکل سازمان بهداشت جهانی در اظهارنظری مشابه چنین گفت: «ما فقط با همهگیری مقابله نمیکنیم. بلکه در حال مقابله با یک اینفودمی هم هستیم». اصطلاح اینفودمی به سیل عظیم اطلاعاتی اشاره دارد که در دوران کرونا در جهان به راه افتاد. سیل اطلاعاتی که مخلوطی ناهمگن از اطلاعات معتبر و حجم زیادی از اطلاعات نامعتبر، اخبار جعلی و محتوای شبهعلم را در بر داشت. کارشناسان بر این باورند که اخبار جعلی در مورد ویروس کرونای جدید سریعتر و سادهتر از خود ویروس منتشر میشوند. در اینفودمی کرونا این امکان فراهم شد که اطلاعات نادرست و شایعات و شبهعلم در هرج و مرج حاصل از یک وضعیت فوقالعاده جهانی به راحتی منتشر شوند. با اینکه پلتفرمهای رسانههای اجتماعی وعده دادهاند که پُستهای حاوی اطلاعات گمراهکننده در مورد کووید۱۹ را شناسایی کنند و برچسب بزنند، اما هنوز موفق به توقف این موج نشدهاند. بر اساس گزارشی که از سوی شرکت Blackbird.AI منتشر شده، بسیاری از کلاهبرداران با سواستفاده از سردرگمی و هرج و مرج حاصل از شیوع کرونا، مردم را به گونهای فریب دادهاند تا اطلاعات نادرست و گمراهکننده را با سرعت بیشتری منتشر کنند. به گفته مدیر عامل این شرکت: «شیوع کووید۱۹ را میتوان المپیک انتشار اطلاعات نادرست دانست بهطوریکه همه شکارچیان در این ضیافت شرکت کردهاند».
منابع معتبر هم ممکن است اشتباه کنند
شاید شیوع کرونا یکی از موارد نادری باشد که نه تنها در بین مردم عادی، بلکه در بین جامعه علمی هم سردرگمی ایجاد کرد. بشر با مسالهای روبهرو شده بود که هیچ تجربهای در موردش نداشت. عجله و شتابی که در اجرای تحقیقات وجود داشت بارها سبب شد نشریات پزشکی پژوهشهای منتشر شده را کمی بعد از انتشار پس بگیرند زیرا صحت علمی آنها زیر سؤال رفته بود. در چنین وضعیتی مردم که برای دریافت اخبار و اطلاعات روزانه به ابزارهایی نظیر شبکههای اجتماعی و موتورهای جستوجو تکیه داشتند با یک هرج و مرج اطلاعاتی در مورد کووید۱۹ روبهرو شدند. اگرچه به چرخش درآمدن اطلاعاتی با منابع موثق در این پلتفرمها کمک زیادی به کاهش حجم اخبار و مطالب نادرست میکند، اما همین منابع موثق هم ممکن است اطلاعات نادرستی را منتشر کنند و به سرعت این اطلاعات گسترش یابند. بهعنوان نمونه یکی از مسؤولین سازمان بهداشت جهانی ادعا کرد «به ندرت اتفاق میافتد که ویروس کرونای جدید از افراد بیعلامت به دیگران منتقل شود»؛ ادعایی که با نظر بسیاری از کارشناسان تناقض داشت. این ادعای نادرست که اتفاقاً از سوی یک منبع معتبر مطرح شده بود به سرعت و بهطور گستردهای بر بستر اینترنت منتشر شد. روز بعد سازمان بهداشت جهانی با رد این ادعا عنوان کرد که افراد بیعلامت هم میتوانند ویروس را منتشر کنند. بهعنوان نمونهای دیگر میتوان به توصیههای متناقض سازمان بهداشت جهانی از یک سو و مرکز کنترل بیماریهای آمریکا (CDC) از سوی دیگر در زمینه استفاده از ماسک اشاره کرد. سازمان بهداشت جهانی استفاده از ماسک را فقط به مبتلایان کووید۱۹ توصیه میکرد، در حالیکه مرکز کنترل بیماریها استفاده از ماسک را به همه مردم توصیه کرده بود. در چنین شرایطی که حتا نمیتوان به اظهارنظرهای کارشناسان هم اعتماد کرد، رباتهایی در فضای اینترنت میخزند که ارمغانشان برای کاربران بیاطلاع، سیلی از اطلاعات نادرست، شبهعلم و اخبار جعلی است. شاید یکی از بهترین مکانها برای دیدن تاخت و تاز این رباتها بستر توییتر باشد.
وقتی رباتها، خردجمعی انسانها را به بازی میگیرند!
از جمله پژوهشهای جالبی که میتوان در زمینه این رباتها و نقششان در گسترش اطلاعات نادرست به آن اشاره کرد، پژوهشی است که مرکز رصد رسانههای اجتماعی دانشگاه ایندیانا (OsoMe ) انجام داده است. محققان OsoMe با انجام شبیهسازی دریافتند که در شبکههای اجتماعی واقعی، تنها چند جرقه از سوی رباتها کافی است تا اخبار جعلی و شبهعلم بهطور گستردهای بر بستر اینترنت منتشر شوند. پلتفرمهایی نظیر فیسبوک، توییتر، یوتیوب و اینستاگرام، علاوه بر اینکه پستهایی را نشان میدهند که عموما همسو با علایق ما هستند، با قرار دادن محتواهای محبوب در بالای فهرست، به ما اطلاع میدهند که چه تعداد از کاربران، یک موضوع را پسندیدهاند یا به اشتراک گذاشتهاند. یک نکته مهمی وجود دارد که معمولاً از دید اغلب کاربران پنهان میماند. این که بالا بودن رتبه یک پُست لزوماً نشاندهنده کیفیت محتوای آن پُست نیست. در حقیقت برنامهنویسانی که الگوریتمهای رتبهبندی مطالب در شبکههای اجتماعی را توسعه دادهاند با این فرض دست به این کار زدهاند که خرد جمعی به سرعت مطالب با کیفیت را انتخاب خواهد کرد. معیار این خرد جمعی هم میزان لایکها و تعداد دفعاتی است که یک لینک یا پُست به اشتراک گذاشته شده است. آنها در حقیقت میزان محبوبیت مطلب را بهعنوان معیاری برای تعیین کیفیت در نظر گرفتهاند. اما محبوبیت یک پُست همیشه مترادف با کیفیت آن پُست نیست بلکه فقط این را نشان میدهد افراد زیادی آن مطلب را دیدهاند. شاید متعجب شوید اگر بدانید بسیاری از بازدیدکنندگان و حتی نشردهندگان مطالبی که روزانه میبینید نه انسانها بلکه رباتهای نرمافزاری هستند. درصد قابل توجهی از ارجاعات به سایتهای کماعتبار در توییتر از سوی رباتها انجام میشود. برخی از رباتها بهطور مستقیم به آدرسهای حاوی اطلاعات نادرست لینک میدهند و برخی دیگر نیز توییتهایی را بازنشر میکنند که حاوی چنین لینکها و اطلاعاتی است. همین رباتهای نرمافزاری از جمله بازیگرانی هستند که سیل اینفودمی در دوران شیوع کرونا را به راه انداختهاند(شکل ۱).
شکل۱ - در نمودار سمت چپ، هر دایره نشانگر یک حساب کاربری است و خطوط، ارتباطات بین حسابها را نشان میدهند. حجم اطلاعات مبادله شده در این شبکه کم است و کیفیت مطالب به اشتراک گذاشته شده بالاست.
در نمودار وسط، رنگها نشاندهنده تنوع مطالب است. مشاهده میکنیم که با افزایش تنوع مطالب، میزان کیفیت مطالب منتشر شده نیز متفاوت خواهد بود. در این نمودارها اندازه دایره، کیفیت مطلب به اشتراک گذاشته شده را نشان میدهد.
در نمودار سمت راست، بار اطلاعات منتشر شده در شبکه زیاد است و کیفیت اطلاعات به اشتراک گذاشته شده کم.
اسارت در اتاقهای پژواک
بررسی حجم زیادی از دادههای مربوط به مطالب به اصطلاح کلیکخور نشان داده که همه پلتفرمها اعم از شبکههای اجتماعی، موتورهای جستجو و سایتهای خبری ترجیحاً اطلاعات خود را از شمار محدودی از منابع محبوب بهدست میآورند. تحقیقات نشان داده اغلب کاربران فقط تعداد کمی از پُستهایی که در صدر فهرست هستند را میبینند و احتمالاً روی مطالبی کلیک خواهند کرد که بیشترین رتبه را توسط آن پلتفرم دریافت کرده باشند. این موضوع در موتورهای جستوجو و به ویژه در شبکههای اجتماعی بسیار رایج است. این موضوع سبب میشود که افراد در جزایر بزرگ و پر جمعیت مملو از اطلاعات نادرست گرفتار شوند که با اصطلاح اتاقهای پژواک (echo chamber) از آنها یاد میشود. بهعنوان مثال پیشنهاداتی که اینستاگرام به شما میدهد متفاوت است از پیشنهاداتی که به کاربری دیگر میدهد. این موضوع باعث میشود پس از مدتی در یک محدوده خاص از پُستها و صفحات گرفتار شوید و سایر اخبار و مطالب به شما نرسد. رباتهایی که در شبکههای اجتماعی حضور دارند با استفاده از آسیبپذیریهای متعدد الگوریتمهای شبکههای اجتماعی و از جمله همین موردی که به آن اشاره کردم، کاربران را به سوی مطالب خاصی سوق میدهند که بسیاری از این مطالب در دسته مطالب نادرست و جعلی و شبهعلم طبقهبندی میشوند. نتیجه این فرایند این است که پس از مدتی، آنچه رباتها میخواهند توسط جمعیت قابلتوجهی از کاربران دست به دست خواهد شد. موتورهای جستجو و پلتفرمهای رسانههای اجتماعی براساس حجم زیاد دادههایی که از کاربرانشان جمعآوری کردهاند اطلاعات را برای ما بهگونهای میچینند که مطابق میلمان باشند. بدین ترتیب آنها ما را در حفاظی قرار میدهند تا اطلاعاتی که ممکن است تفکر و عقیدهمان را تغییر دهد به ما نرسد. خوراک خبری رسانههای اجتماعی ما معمولاً آنقدر لبریز است که فقط چندتایی که در بالای فهرست هستند و در ابتدا به چشم ما میخورند را از نظر میگذرانیم و از بین همانها هم برای بازنشر انتخاب میکنیم. بدین ترتیب بسیاری از مطالب موجود در شبکههای اجتماعی فرصت بازنشر پیدا نمیکنند و فقط درصد کمی از آنها بطور گسترده منتشر میشوند. این پژوهشها نشان داد که حتا وقتی ما سعی داریم اطلاعات با کیفیت را ببینیم و به اشتراک گذاریم باز هم ناگزیر به سمت انتشار مطالبی خواهیم رفت که محبوبتر شدهاند و بخشی از آنها یا همهشان نادرست هستند.
خیزش رباتها
محققان دانشگاه کارنگیملون در پژوهشی دریافتهاند که ریشه بسیاری از ادعاها و نظرات مطرح شده در مورد همهگیری کرونا رباتها هستند. این محققان به منظور بررسی فعالیت رباتها در دوران کرونا از ژانویه 2020 بیش از 200 میلیون توییت را جمعآوری کردهاند که موضوعشان ویروس کرونا یا کووید۱۹ بود. از میان ۵۰ بازنشر پستهای برتر، ۸۲ درصدشان توسط رباتها انجام شده بود. در میان ۱۰۰۰ ریتوییتر برتر هم ۶۲ درصد ربات بودهاند. این محققان بررسی را فقط به توییتر محدود نکردند و روی فیسبوک، رِدیت و یوتیوب هم چنین تحقیقی را سامان دادند. نتایج تحقیقات نشان داد که میزان فعالیت رباتها تا دو برابر بیش از آن چیزی بوده که بر اساس تجربیات گذشته و در مواردی نظیر بلایای طبیعی، بحرانها و موقعیتهای سیاسی پیشبینی میشد. به عقیده این محققان چند عامل در افزایش این آمار تعیینکننده بوده است. نخست اینکه بسیاری از مردم این فرصت را یافتهاند که رباتهایی را برای خود بسازند، اما شمار گروههایی که موفق شدهاند با به خدمت گرفتن شرکتهای فعال در این حوزه، حسابهای کاربری ماشینی (bot accounts) تهیه کنند نیز افزایش یافته است. این گروه از محققان برای شناسایی اینکه کدام کاربر واقعی است و کدام ماشینی، از چندین روش استفاده کردهاند. توییت کردن با سرعتی بیش از توان کاربر انسانی یا فعالیت در یک کشور و ظاهر شدن در کشوری دیگر تنها چند ساعت بعد، از جمله نشانههای ربات بودن حساب است.
این رباتها را میتوان به سادگی ساخت. پلتفرمهای شبکه اجتماعی رابطهای برنامهنویسی را فراهم کردهاند که به هر کسی این امکان را میدهد به سادگی هزاران ربات را پیکربندی کرده و کنترل نماید. محققان OsoMe الگوریتمهای یادگیری ماشین برای شناسایی رباتهای اجتماعی (social bots) توسعه دادهاند. Botometer از جمله این ابزارها است. Botometer یک ابزار عمومی است که قادر به استخراج ۱۲۰۰ ویژگی از یک حساب توییتری است و میتواند برای هر حساب، ویژگیهایی نظیر پروفایل، زبان، شبکه دوستان، ساختار شبکه اجتماعی و الگوهای فعالیت در طول زمان را دستهبندی کند. این ابزار با مقایسه هر حساب توییتری با دهها هزار رباتی که از قبل شناسایی شدهاند احتمال ربات بودن آن حساب را تخمین میزند. این محققان در سال ۲۰۱۷ تخمین زده بودند که ۱۵ درصد حسابهای فعال توییتری ربات هستند. رباتها این قابلیت را دارند که خودشان را بعنوان عضوی از گروه جا بزنند. یک ربات میتواند با دنبال کردن افراد در یک گروه آنلاین، پسندیدن مطالبشان و باز نشر کردن آن مطالب به سرعت در آن گروه نفوذ کند. شبیهسازیهای انجام شده از سوی محققان OsoMe مشخص کرد که این رباتها میتوانند با نفوذ به بخش کوچکی از شبکه، بطور مؤثری کیفیت اطلاعات کل شبکه را کاهش دهند (شکل ۲). آنها این توانایی را نیز دارند که سرعت تشکیل شدن اتاقهای پژواک را افزایش دهند.
شکل۲ - هر دایره نشانگر یک حساب کاربری است. دایرههای زردرنگ نشانگر رباتها یا همان حسابهای ماشینی هستند. خطوط و میزان نزدیکی دایرهها نشاندهنده کیفیت ارتباط بین حسابها است. در نمودار سمت چپ نفوذ رباتها به شبکه کم است و کیفیت مطالب به اشتراک گذاشته شده در شبکه بالاست. در نمودار سمت راست، میبینیم که رباتها به شبکه نفوذ کردهاند و از میزان کیفیت مطالب اشتراکی کاسته شده است. رنگ دایرهها میزان کیفیت اطلاعات به اشتراک گذاشته شده را نشان میدهد. اندازه دایرهها نشانگر این است که حساب، چه تعداد حساب معتبر و غیرماشینی را دنبال کرده است.
شرکتBlackbird.AI. پلتفرمی مبتنی بر هوش مصنوعی توسعه داده که با بررسی حجم زیادی از محتواهای منتشر شده به دنبال اطلاعات نادرست در اینترنت میگردد. تا پیش از شیوع کرونای جدید، مشتریان Blackbird.AI از میان شرکتهایی بودند که میخواستند میزان تغییرات محبوبیت خود را رصد کنند، اما با گسترش شیوع کووید۱۹ این شرکت هم روی هدف جدیدی متمرکز شد. این شرکت برای تهیه گزارشی در این زمینه حدود ۵۰ میلیون توییت منتشر شده از سوی بیش از ۱۳ میلیون کاربر را که در مورد کووید ۱۹ بودند بین ۲۷ فوریه تا ۱۲ مارس تجزیه و تحلیل کرد. بررسیهای این شرکت نشان داد که از میان این توییتها، حدود ۱۹ میلیون ( 18,880,396) توییت به روشی دستکاری شده بودند که امکان ندارد کار انسان باشد (شکل ۳).
شکل۳ - شرکت Blackbird.AI با کمک هوش مصنوعی به تجزیه و تحلیل محتوای منتشر شده در شبکههای اجتماعی میپردازد تا برآوردی از میزان انتشار اطلاعات نادرست در فضای اینترنت بدست آورد. این شرکت بر اساس معیاری موسوم به BBMI اصالت اطلاعات را میسنجد
من ربات نیستم!
شیوع ناخواسته و هدفمند اطلاعات نادرست و شبهعلم در مورد بیماری کرونا این خطر را ایجاد میکند که این بیماری آثار مهلکتری بر جوامع گذارد. مواردی که بهطور مستقیم جان مردم را به خطر میاندازند نظیر مصرف مواد خطرناک برای درمان یا روشهای تأیید نشده برای پیشگیری از ابتلا و یا متقاعد کردن مردم به رعایت نکردن فاصلهگذاریهای اجتماعی. کارشناسان معتقدند که پلتفرمهای شبکههای اجتماعی در کاهش سرعت انتشار اخبار و اطلاعات نادرست نقش مهمی دارند. آنها میتوانند با برچسبزدن این دست از مطالب و یا بررسی اصالت منابع، روندی در پیش گیرند تا از میزان انتشار چنین مطالبی بکاهند. هیچ راهکاری به اندازه افزایش سطح سواد رسانهای کاربران در این زمینه کارساز نیست. مردم باید آگاه شوند که بسیاری از آنچه در شبکههای اجتماعی یا بر بستر اینترنت میبینند و میخوانند با هدف ترویج اطلاعات نادرست و گمراهکننده منتشر میشوند. مطالعات نشان داده که اگر این موارد به کاربران اطلاع داده شود آنها نسبت به محتوایی که مصرف میکنند حساستر میشوند. با اینکه تضمینی نیست، اما کاربران با دقت در برخی موارد میتوانند به ماشینی بودن حساب پیببرند. بهطور مثال، لینکهایی که یک حساب به اشتراک گذاشته است تغییرات نامحسوسی در نوشتار دارد یا در زمانی بسیار کوتاه مطالب زیادی منتشر میکند. توییتر به تازگی از کاربران خواسته است که روشهایی نظیر اعلام شماره تلفن خود، فعالسازی تأیید هویت دو مرحلهای و یا استفاده از روشهای موسوم به «من ربات نیستم» را بیش از پیش جدی بگیرند. بسیاری از کاربران به انجام این اقدامات امنیتی اشتیاقی ندارند و آنها را دست و پاگیر میدانند، اما اینها راهکارهایی برای محدود کردن فعالیت رباتها هستند هرچند نمیتوان رباتها را بطور کامل متوقف کرد. اگر چه پلتفرمهایی نظیر فیسبوک یا توییتر با اقدام به برچسبزنی مطالب به کاربران هشدار میدهند اما آیا میتوان به افراد یا الگوریتمهایی که این برچسبها را میزنند اعتماد کرد؟ برخی معتقدند این راهکارها به عمد یا بهطور غیرعمد سبب محدود شدن آزادی بیان خواهند شد
ماهنامه شبکه را از کجا تهیه کنیم؟
ماهنامه شبکه را میتوانید از کتابخانههای عمومی سراسر کشور و نیز از دکههای روزنامهفروشی تهیه نمائید.
ثبت اشتراک نسخه کاغذی ماهنامه شبکه
ثبت اشتراک نسخه آنلاین
کتاب الکترونیک +Network راهنمای شبکهها
- برای دانلود تنها کتاب کامل ترجمه فارسی +Network اینجا کلیک کنید.
کتاب الکترونیک دوره مقدماتی آموزش پایتون
- اگر قصد یادگیری برنامهنویسی را دارید ولی هیچ پیشزمینهای ندارید اینجا کلیک کنید.
نظر شما چیست؟