کمبریج آنالیتیکا را فراموش کنید – هوش مصنوعی چگونه می تواند انتخابات را تهدید کند


در حالی که اطلاعات نادرست یک مشکل دائمی است که رسانه‌های اجتماعی تنها به آن کمک می‌کنند، هوش مصنوعی می‌تواند انتشار اطلاعات نادرست را برای بازیگران بد بسیار آسان‌تر کند.

در سال 2018، جهان از شنیدن اینکه شرکت مشاوره سیاسی بریتانیا کمبریج آنالیتیکا اطلاعات شخصی حداقل 50 میلیون کاربر فیس بوک را بدون رضایت آنها جمع آوری کرده و از آن برای تأثیرگذاری بر انتخابات در ایالات متحده و خارج از آن استفاده کرده است، شوکه شد.

یک تحقیق پنهانی توسط Channel 4 News به تصاویری از مدیرعامل وقت شرکت، الکساندر نیکس منجر شد که نشان می‌دهد او مشکلی با گمراه کردن عمدی مردم برای حمایت از مشتریان سیاسی خود ندارد:

“گفتن چیز وحشتناکی به نظر می رسد، اما اینها چیزهایی هستند که لزوماً نباید درست باشند. به شرطی که آنها آن را باور کنند.”

این رسوایی زنگ خطری بود برای خطرات رسانه های اجتماعی و داده های بزرگ و اینکه دموکراسی چقدر می تواند در مواجهه با تغییرات سریع تکنولوژیکی که در سطح جهانی اتفاق می افتد شکننده باشد.

هوش مصنوعی

هوش مصنوعی (AI) چگونه در این تصویر قرار می گیرد؟ آیا می‌توان از آن برای تأثیرگذاری بر انتخابات و تهدید یکپارچگی دموکراسی‌ها در سراسر جهان استفاده کرد؟

به گفته تریش مک کلاسکی، دانشیار دانشگاه دیکین، و بسیاری دیگر، پاسخ کاملاً مثبت است.

مک کلاسکی به کوین تلگراف گفت که مدل‌های زبان اصلی مانند ChatGPT OpenAI می‌توانند «محتوای غیرقابل تشخیصی از متن نوشته شده توسط انسان تولید کنند» که می‌تواند به کمپین‌های اطلاعات نادرست یا انتشار اخبار جعلی آنلاین کمک کند.

مک‌کلاسکی در میان نمونه‌های دیگری از اینکه چگونه هوش مصنوعی می‌تواند به طور بالقوه دموکراسی‌ها را تهدید کند، بر توانایی هوش مصنوعی در ایجاد تقلب‌های عمیق که می‌تواند ویدیوهایی از شخصیت‌های عمومی مانند نامزدهای ریاست‌جمهوری تولید کند و افکار عمومی را دستکاری کند، تأکید کرد.

در حالی که تشخیص اینکه چه زمانی یک ویدیو به صورت عمیق ساخته شده است آسان است، فناوری به سرعت در حال پیشرفت است و در نهایت از واقعیت قابل تشخیص نیست.

برای مثال، یک ویدیوی جعلی عمیق از مدیر عامل سابق FTX سام بنکمن-فرید که به یک وب‌سایت فیشینگ پیوند می‌دهد، نشان می‌دهد که چگونه می‌توان لب‌ها را با کلمات تطبیق داد و به بینندگان این احساس را می‌دهد که چیزی کاملاً درست نیست.

گری مارکو، کارآفرین هوش مصنوعی و یکی از نویسندگان کتاب راه اندازی مجدد هوش مصنوعی: ساختن هوش مصنوعی که می توانیم به آن اعتماد کنیم، او با ارزیابی مک کلاسکی موافق بود، او به کوین تلگراف گفت که مهم ترین خطری که هوش مصنوعی در کوتاه مدت ایجاد می کند، این است:

تهدید توده ای، خودکار و قابل قبول اطلاعات غلط که دموکراسی را سرکوب می کند.»

مقاله ای که در سال 2021 با عنوان «نقش هوش مصنوعی در اطلاعات نادرست» توسط محققان Noémi Bontridder و Yves Poullet بررسی شد، همچنین توانایی سیستم های هوش مصنوعی را برای کمک به اطلاعات نادرست برجسته کرد و نشان داد که این امر به دو صورت اتفاق می افتد:

“اول آنها [AI] این می تواند توسط ذینفعان مخرب برای دستکاری افراد به طور خاص و در مقیاس بزرگ استفاده شود. دوم، آنها به طور مستقیم گسترش این نوع محتوا را افزایش می دهند.

علاوه بر این، سیستم‌های هوش مصنوعی امروزی فقط به اندازه داده‌های وارد شده به آن‌ها خوب هستند، که گاهی اوقات می‌تواند منجر به پاسخ‌های جانبدارانه شود که می‌تواند بر نظرات کاربران تأثیر بگذارد.

چگونه خطرات را کاهش دهیم

در حالی که واضح است که هوش مصنوعی پتانسیل تهدید دموکراسی و انتخابات در سراسر جهان را دارد، شایان ذکر است که هوش مصنوعی می تواند نقش مثبتی در دموکراسی و مبارزه با اطلاعات نادرست ایفا کند.

به عنوان مثال، مک کلاسکی خاطرنشان کرد که هوش مصنوعی می تواند برای “تشخیص و پرچم گذاری اطلاعات نادرست، تسهیل راستی آزمایی، نظارت بر یکپارچگی انتخابات” و همچنین آموزش و مشارکت شهروندان در فرآیندهای دموکراتیک مورد استفاده قرار گیرد.

مک کلاسکی می‌افزاید: «نکته کلیدی این است که اطمینان حاصل کنیم که فناوری‌های هوش مصنوعی با رعایت مقررات و پادمان‌های مناسب، مسئولانه توسعه یافته و استفاده می‌شوند.»

نمونه ای از مقرراتی که می تواند به کاهش توانایی هوش مصنوعی در تولید و انتشار اطلاعات نادرست کمک کند، قانون خدمات دیجیتال اتحادیه اروپا (DSA) است.

مرتبط با: مدیر عامل OpenAI به همراه مدافع “مکث هوش مصنوعی” و مدیر IBM در مقابل کنگره شهادت خواهد داد

هنگامی که DSA به طور کامل برقرار شد، پلتفرم های آنلاین بزرگ مانند توییتر و فیس بوک باید از فهرستی از تعهدات پیروی کنند که از جمله موارد دیگر، به حداقل رساندن اطلاعات نادرست است یا مشمول جریمه هایی تا 6 درصد از گردش مالی سالانه خود می شوند.

DSA همچنین الزامات شفافیت بیشتری را برای این پلتفرم‌های آنلاین تحمیل می‌کند و از آنها می‌خواهد که چگونه محتوا را به کاربران توصیه می‌کنند (معمولاً از الگوریتم‌های هوش مصنوعی استفاده می‌کنند) و چگونه محتوا را مدیریت می‌کنند.

Bontridder و Poullet خاطرنشان کردند که شرکت‌ها به طور فزاینده‌ای از هوش مصنوعی برای تعدیل محتوا استفاده می‌کنند، که آنها استدلال می‌کنند که می‌تواند «بخصوص مشکل‌ساز» باشد زیرا این پتانسیل را دارد که بیش از حد اصلاح کند و بر آزادی بیان تأثیر بگذارد.

DSA فقط برای عملیات در اتحادیه اروپا اعمال می شود. مک کلاسکی بیان می کند که همکاری بین المللی برای تنظیم هوش مصنوعی به عنوان یک پدیده جهانی و مبارزه با اطلاعات نادرست ضروری است.

مجله: 3.4 میلیارد دلار بیت کوین در جعبه پاپ کورن – داستان هکر جاده ابریشم

مک کلاسکی پیشنهاد کرد که این امر می تواند از طریق “توافقنامه های بین المللی در مورد اخلاق هوش مصنوعی، استانداردهای حفظ حریم خصوصی داده ها، یا تلاش های مشترک برای نظارت و مبارزه با کمپین های اطلاعات نادرست” اتفاق بیفتد.

در نهایت مک‌کلاسکی گفت: «مقابله با خطر کمک هوش مصنوعی به اطلاعات نادرست نیازمند رویکردی چندوجهی است که شامل مقررات دولتی، خود تنظیمی شرکت‌های فناوری، همکاری بین‌المللی، آموزش عمومی، راه‌حل‌های فن‌آوری، سواد رسانه‌ای و تحقیقات مداوم است.»




نویسنده: Luke Huigsloot

اشتراک گذاری و حمایت

امیر کرمی

امیر کرمی

کارشناس تولید محتوا و علاقه مند به ارز دیجیتال و دنیای فناوری 😉

دیدگاهتان را بنویسید