حمله متا به حریم خصوصی باید به عنوان یک هشدار علیه هوش مصنوعی باشد


فیس بوک بدترین اتفاقی بود که در دو دهه گذشته برای حریم خصوصی کاربران رخ داد. هوش مصنوعی ممکن است بدترین اتفاقی باشد که در روزهای آینده ممکن است رخ دهد.

در دنیایی که به طور فزاینده ای توسط هوش مصنوعی هدایت می شود، بلاک چین می تواند نقش مهمی در جلوگیری از تکثیر و عادی سازی گناهان برنامه هایی مانند فیس بوک ایفا کند.

پلتفرم‌های هوش مصنوعی مانند ChatGPT و Bard گوگل به جریان اصلی تبدیل شده‌اند و در حال حاضر متهم به تشدید شکاف سیاسی با تعصبات خود شده‌اند. همانطور که قبلا در فیلم های محبوب گفته شد نابود کننده، ماتریس و اخیرا، Mission: Impossible – Dead Reckoning قسمت اولاز قبل مشخص شده است که هوش مصنوعی حیوانی وحشی است که احتمالاً در رام کردنش با مشکل مواجه خواهیم شد.

از کمپین های اطلاعات نادرست تخریب کننده دموکراسی گرفته تا هواپیماهای بدون سرنشین قاتل تا تخریب کامل حریم خصوصی افراد، هوش مصنوعی به طور بالقوه می تواند اقتصاد جهانی و احتمالاً خود تمدن را متحول کند. در ماه مه سال 2023، رهبران فناوری جهانی نامه‌ای سرگشاده نوشتند که به تیتر خبرها تبدیل شد و هشدار دادند که خطرات فناوری هوش مصنوعی می‌تواند با سلاح‌های هسته‌ای برابری کند.

مرتبط با: دوست دختر، کودکان کشته شده، اندرویدهای قاتل – آیا هوش مصنوعی نفرین شده است؟

یکی از ترس‌های اصلی هوش مصنوعی عدم شفافیت در مورد آموزش و برنامه‌نویسی آن است، به‌ویژه در مدل‌های یادگیری عمیق که انتشار آن‌ها ممکن است دشوار باشد. از آنجایی که از داده های حساس برای آموزش مدل های هوش مصنوعی استفاده می شود، در صورت به خطر افتادن داده ها، می توان آن ها را دستکاری کرد.

در سال های آینده، بلاک چین به طور گسترده در کنار هوش مصنوعی برای افزایش شفافیت، پاسخگویی و شنیدن در تصمیم گیری مورد استفاده قرار خواهد گرفت.

به عنوان مثال، هنگام آموزش یک مدل هوش مصنوعی با استفاده از داده های ذخیره شده در یک بلاک چین، منشأ و یکپارچگی داده ها را می توان با جلوگیری از تغییرات غیرمجاز تضمین کرد. ذینفعان می توانند فرآیند تصمیم گیری را با ثبت پارامترهای آموزشی مدل، به روز رسانی ها و نتایج اعتبارسنجی در بلاک چین ردیابی و تأیید کنند.

با استفاده از این مورد، بلاک چین نقش اصلی را در جلوگیری از سوء استفاده ناخواسته از هوش مصنوعی ایفا خواهد کرد. عمدی چطور؟ این سناریوی بسیار خطرناک تری است و متأسفانه احتمالاً در سال های آینده با آن مواجه خواهیم شد.

حتی بدون هوش مصنوعی، Big Tech متمرکز از لحاظ تاریخی به رفتارهایی کمک کرده است که با دستکاری افراد و ارزش‌های دموکراتیک به بالاترین قیمت پیشنهاد می‌دهند، همانطور که با رسوایی کمبریج آنالیتیکا فیس‌بوک معروف شد. در سال 2014، برنامه Thisisyourdigitallife به کاربران برای تست های شخصیتی که برای دسترسی به پروفایل فیس بوک آنها و دوستانشان نیاز به مجوز داشتند، پول پرداخت کرد. اساساً فیسبوک به کمبریج آنالیتیکا اجازه داد تا از کاربران غیرمجاز جاسوسی کند.

نتیجه؟ دو کمپین روابط عمومی روانشناختی تاریخی با هدف مخاطبان که تأثیر نسبتاً قوی بر نتایج انتخابات ریاست جمهوری ایالات متحده و همه پرسی عضویت بریتانیا در اتحادیه اروپا در سال 2016 داشتند. آیا متا (فیسبوک سابق) از اشتباهات خود درس گرفته است؟ به نظر نمی رسد.

در ماه جولای، متا آخرین اپلیکیشن خود را با نام Threads معرفی کرد. این سایت که به عنوان رقیب توییتر ایلان ماسک راه اندازی شده است، داده های معمول جمع آوری شده توسط فیس بوک و اینستاگرام را جمع آوری می کند. اما مشابه TikTok، زمانی که کاربران Threads ثبت نام کردند، ناآگاهانه به Meta دسترسی به موقعیت مکانی GPS، دوربین، عکس‌ها، اطلاعات IP، نوع دستگاه و سیگنال‌های دستگاه را دادند. این یک روش استاندارد برای Web2 است که چنین اقداماتی را با این استدلال که “کاربران شرایط و ضوابط را می پذیرند” توجیه کند. در واقع، خواندن خط‌مشی حفظ حریم خصوصی هر اپلیکیشنی که توسط یک کاربر استاندارد اینترنت استفاده می‌شود، به طور متوسط ​​۷۶ روز کاری طول می‌کشد. نقطه؟ متا اکنون تقریباً به همه چیز در تلفن های بیش از 150 میلیون کاربر دسترسی دارد.

هوش مصنوعی در راه است. اگر پیامدهای رسوایی کمبریج آنالیتیکا ثابت کند که نگرانی ها موجه است، آیا می توانیم تأثیرات این ازدواج بین نظارت تهاجمی و هوش خداگونه هوش مصنوعی را درک کنیم؟

راه حل غیرمعمول در اینجا بلاک چین است، اما راه حل به این سادگی نیست.

مرتبط با: جنون مضحک هوش مصنوعی رو به پایان است

یکی از خطرات اصلی هوش مصنوعی در داده‌هایی است که می‌تواند جمع‌آوری کرده و به سلاح تبدیل کند. در مورد رسانه های اجتماعی، فناوری بلاک چین به طور بالقوه می تواند حریم خصوصی و کنترل داده ها را افزایش دهد، که می تواند به کاهش شیوه های جمع آوری داده های Big Tech کمک کند. اما بعید است که Big Tech را از دستیابی به داده های حساس “منع کند”.

برای محافظت واقعی در برابر خطرات عمدی هوش مصنوعی و جلوگیری از سناریوهای مشابه کمبریج آنالیتیکا در آینده، به پلتفرم های رسانه های اجتماعی غیرمتمرکز و ترجیحا مبتنی بر بلاک چین نیاز است. با طراحی، پتانسیل نظارت انبوه و کمپین های اطلاعات نادرست هوش مصنوعی را با کاهش تمرکز داده های کاربر در یک نهاد متمرکز به حداقل می رساند.

به زبان ساده، از طریق فناوری بلاک چین، ما ابزارهای لازم را برای حفظ استقلال خود از هوش مصنوعی در سطح فردی و ملی در اختیار داریم.

مدت کوتاهی پس از اینکه سام آلتمن، مدیر عامل OpenAI، نامه ای سرگشاده به دولت ها درباره خطرات هوش مصنوعی در ماه مه امضا کرد، او یک پست وبلاگی منتشر کرد که در آن چندین استراتژی برای مدیریت مسئولانه سیستم های قدرتمند هوش مصنوعی توصیه می کرد. اینها شامل همکاری میان توسعه دهندگان پیشرو هوش مصنوعی، مطالعه فنی جامع تر مدل های زبان بزرگ و ایجاد یک سازمان جهانی برای امنیت هوش مصنوعی بود.

در حالی که این اقدامات شروع خوبی هستند، اما نمی‌توانند به سیستم‌هایی که ما را در برابر هوش مصنوعی آسیب‌پذیر می‌کنند پاسخ دهند: نهادهای متمرکز Web2 مانند متا. برای محافظت واقعی در برابر هوش مصنوعی، پیشرفت‌های بیشتری در زمینه فناوری‌های مبتنی بر بلاک چین ضروری است، یعنی معرفی یک اکوسیستم واقعا رقابتی از امنیت سایبری و برنامه‌های غیرمتمرکز رسانه‌های اجتماعی.

کالوم کنارد او مدیر محتوای Storm Partners، ارائه‌دهنده راهکارهای Web3 مستقر در سوئیس است. او فارغ التحصیل دانشگاه برایتون انگلستان است.

این مقاله فقط برای اهداف اطلاعاتی عمومی است و نباید مشاوره حقوقی یا سرمایه گذاری در نظر گرفته شود. دیدگاه‌ها، نظرات و دیدگاه‌های بیان شده در اینجا صرفاً متعلق به نویسنده است و لزوماً منعکس‌کننده یا بیانگر دیدگاه‌ها و نظرات Cointelegraph نیست.




نویسنده: Callum Kennard

اشتراک گذاری و حمایت

امیر کرمی

امیر کرمی

کارشناس تولید محتوا و علاقه مند به ارز دیجیتال و دنیای فناوری 😉

دیدگاهتان را بنویسید

نشانی ایمیل شما منتشر نخواهد شد. بخش‌های موردنیاز علامت‌گذاری شده‌اند *