در حالی که اطلاعات نادرست یک مشکل دائمی است که رسانههای اجتماعی تنها به آن کمک میکنند، هوش مصنوعی میتواند انتشار اطلاعات نادرست را برای بازیگران بد بسیار آسانتر کند.
در سال 2018، جهان از شنیدن اینکه شرکت مشاوره سیاسی بریتانیا کمبریج آنالیتیکا اطلاعات شخصی حداقل 50 میلیون کاربر فیس بوک را بدون رضایت آنها جمع آوری کرده و از آن برای تأثیرگذاری بر انتخابات در ایالات متحده و خارج از آن استفاده کرده است، شوکه شد.
یک تحقیق پنهانی توسط Channel 4 News به تصاویری از مدیرعامل وقت شرکت، الکساندر نیکس منجر شد که نشان میدهد او مشکلی با گمراه کردن عمدی مردم برای حمایت از مشتریان سیاسی خود ندارد:
“گفتن چیز وحشتناکی به نظر می رسد، اما اینها چیزهایی هستند که لزوماً نباید درست باشند. به شرطی که آنها آن را باور کنند.”
این رسوایی زنگ خطری بود برای خطرات رسانه های اجتماعی و داده های بزرگ و اینکه دموکراسی چقدر می تواند در مواجهه با تغییرات سریع تکنولوژیکی که در سطح جهانی اتفاق می افتد شکننده باشد.
هوش مصنوعی
هوش مصنوعی (AI) چگونه در این تصویر قرار می گیرد؟ آیا میتوان از آن برای تأثیرگذاری بر انتخابات و تهدید یکپارچگی دموکراسیها در سراسر جهان استفاده کرد؟
به گفته تریش مک کلاسکی، دانشیار دانشگاه دیکین، و بسیاری دیگر، پاسخ کاملاً مثبت است.
کریگ مارتل، مدیر ارشد دیجیتال و هوش مصنوعی پنتاگون، هشدار می دهد که مدل های زبان هوش مصنوعی مولد عبارتند از: #ChatGPT می تواند تبدیل شود "ابزار کامل" برای #اطلاعات نادرست. آنها فاقد زمینه هستند و مردم سخنان آنها را واقعیت می دانند. #هوش مصنوعی #امنیت سایبری pic.twitter.com/pPCHY2zKJH
– پلتفرم هوش جهانی داده در زمان واقعی (@KIDataApp) 5 مه 2023
مک کلاسکی به کوین تلگراف گفت که مدلهای زبان اصلی مانند ChatGPT OpenAI میتوانند «محتوای غیرقابل تشخیصی از متن نوشته شده توسط انسان تولید کنند» که میتواند به کمپینهای اطلاعات نادرست یا انتشار اخبار جعلی آنلاین کمک کند.
مککلاسکی در میان نمونههای دیگری از اینکه چگونه هوش مصنوعی میتواند به طور بالقوه دموکراسیها را تهدید کند، بر توانایی هوش مصنوعی در ایجاد تقلبهای عمیق که میتواند ویدیوهایی از شخصیتهای عمومی مانند نامزدهای ریاستجمهوری تولید کند و افکار عمومی را دستکاری کند، تأکید کرد.
در حالی که تشخیص اینکه چه زمانی یک ویدیو به صورت عمیق ساخته شده است آسان است، فناوری به سرعت در حال پیشرفت است و در نهایت از واقعیت قابل تشخیص نیست.
برای مثال، یک ویدیوی جعلی عمیق از مدیر عامل سابق FTX سام بنکمن-فرید که به یک وبسایت فیشینگ پیوند میدهد، نشان میدهد که چگونه میتوان لبها را با کلمات تطبیق داد و به بینندگان این احساس را میدهد که چیزی کاملاً درست نیست.
در آخر هفته، یک حساب تایید شده با نام SBF، بنیانگذار FTX، دهها نسخه از این ویدیوی عمیقا جعلی را منتشر کرد که در دسترس کاربران FTX قرار گرفت. "جبران خسارت" در یک کلاهبرداری فیشینگ که برای تخلیه کیف پول های رمزنگاری طراحی شده است pic.twitter.com/3KoAPRJsya
– جیسون کوبلر (@jason_koebler) 21 نوامبر 2022
گری مارکو، کارآفرین هوش مصنوعی و یکی از نویسندگان کتاب راه اندازی مجدد هوش مصنوعی: ساختن هوش مصنوعی که می توانیم به آن اعتماد کنیم، او با ارزیابی مک کلاسکی موافق بود، او به کوین تلگراف گفت که مهم ترین خطری که هوش مصنوعی در کوتاه مدت ایجاد می کند، این است:
تهدید توده ای، خودکار و قابل قبول اطلاعات غلط که دموکراسی را سرکوب می کند.»
مقاله ای که در سال 2021 با عنوان «نقش هوش مصنوعی در اطلاعات نادرست» توسط محققان Noémi Bontridder و Yves Poullet بررسی شد، همچنین توانایی سیستم های هوش مصنوعی را برای کمک به اطلاعات نادرست برجسته کرد و نشان داد که این امر به دو صورت اتفاق می افتد:
“اول آنها [AI] این می تواند توسط ذینفعان مخرب برای دستکاری افراد به طور خاص و در مقیاس بزرگ استفاده شود. دوم، آنها به طور مستقیم گسترش این نوع محتوا را افزایش می دهند.
علاوه بر این، سیستمهای هوش مصنوعی امروزی فقط به اندازه دادههای وارد شده به آنها خوب هستند، که گاهی اوقات میتواند منجر به پاسخهای جانبدارانه شود که میتواند بر نظرات کاربران تأثیر بگذارد.
تعصب کلاسیک و لیبرال هوش مصنوعی. #هوش مصنوعی #SnapchatAI #GenerativeAI #هوش مصنوعی (توجه: من در انتخابات رای نمی دهم. این ایده ای بود که باید ببینم برنامه نویسان چگونه این هوش مصنوعی را برای پاسخ به سیاست طراحی کردند.) pic.twitter.com/hhP2v2pFHg
– دوریان تاپیاس (@CrypticStyle) 10 مه 2023
چگونه خطرات را کاهش دهیم
در حالی که واضح است که هوش مصنوعی پتانسیل تهدید دموکراسی و انتخابات در سراسر جهان را دارد، شایان ذکر است که هوش مصنوعی می تواند نقش مثبتی در دموکراسی و مبارزه با اطلاعات نادرست ایفا کند.
به عنوان مثال، مک کلاسکی خاطرنشان کرد که هوش مصنوعی می تواند برای “تشخیص و پرچم گذاری اطلاعات نادرست، تسهیل راستی آزمایی، نظارت بر یکپارچگی انتخابات” و همچنین آموزش و مشارکت شهروندان در فرآیندهای دموکراتیک مورد استفاده قرار گیرد.
مک کلاسکی میافزاید: «نکته کلیدی این است که اطمینان حاصل کنیم که فناوریهای هوش مصنوعی با رعایت مقررات و پادمانهای مناسب، مسئولانه توسعه یافته و استفاده میشوند.»
نمونه ای از مقرراتی که می تواند به کاهش توانایی هوش مصنوعی در تولید و انتشار اطلاعات نادرست کمک کند، قانون خدمات دیجیتال اتحادیه اروپا (DSA) است.
مرتبط با: مدیر عامل OpenAI به همراه مدافع “مکث هوش مصنوعی” و مدیر IBM در مقابل کنگره شهادت خواهد داد
هنگامی که DSA به طور کامل برقرار شد، پلتفرم های آنلاین بزرگ مانند توییتر و فیس بوک باید از فهرستی از تعهدات پیروی کنند که از جمله موارد دیگر، به حداقل رساندن اطلاعات نادرست است یا مشمول جریمه هایی تا 6 درصد از گردش مالی سالانه خود می شوند.
DSA همچنین الزامات شفافیت بیشتری را برای این پلتفرمهای آنلاین تحمیل میکند و از آنها میخواهد که چگونه محتوا را به کاربران توصیه میکنند (معمولاً از الگوریتمهای هوش مصنوعی استفاده میکنند) و چگونه محتوا را مدیریت میکنند.
Bontridder و Poullet خاطرنشان کردند که شرکتها به طور فزایندهای از هوش مصنوعی برای تعدیل محتوا استفاده میکنند، که آنها استدلال میکنند که میتواند «بخصوص مشکلساز» باشد زیرا این پتانسیل را دارد که بیش از حد اصلاح کند و بر آزادی بیان تأثیر بگذارد.
DSA فقط برای عملیات در اتحادیه اروپا اعمال می شود. مک کلاسکی بیان می کند که همکاری بین المللی برای تنظیم هوش مصنوعی به عنوان یک پدیده جهانی و مبارزه با اطلاعات نادرست ضروری است.
مجله: 3.4 میلیارد دلار بیت کوین در جعبه پاپ کورن – داستان هکر جاده ابریشم
مک کلاسکی پیشنهاد کرد که این امر می تواند از طریق “توافقنامه های بین المللی در مورد اخلاق هوش مصنوعی، استانداردهای حفظ حریم خصوصی داده ها، یا تلاش های مشترک برای نظارت و مبارزه با کمپین های اطلاعات نادرست” اتفاق بیفتد.
در نهایت مککلاسکی گفت: «مقابله با خطر کمک هوش مصنوعی به اطلاعات نادرست نیازمند رویکردی چندوجهی است که شامل مقررات دولتی، خود تنظیمی شرکتهای فناوری، همکاری بینالمللی، آموزش عمومی، راهحلهای فنآوری، سواد رسانهای و تحقیقات مداوم است.»
نویسنده: Luke Huigsloot