فیس بوک بدترین اتفاقی بود که در دو دهه گذشته برای حریم خصوصی کاربران رخ داد. هوش مصنوعی ممکن است بدترین اتفاقی باشد که در روزهای آینده ممکن است رخ دهد.
در دنیایی که به طور فزاینده ای توسط هوش مصنوعی هدایت می شود، بلاک چین می تواند نقش مهمی در جلوگیری از تکثیر و عادی سازی گناهان برنامه هایی مانند فیس بوک ایفا کند.
پلتفرمهای هوش مصنوعی مانند ChatGPT و Bard گوگل به جریان اصلی تبدیل شدهاند و در حال حاضر متهم به تشدید شکاف سیاسی با تعصبات خود شدهاند. همانطور که قبلا در فیلم های محبوب گفته شد نابود کننده، ماتریس و اخیرا، Mission: Impossible – Dead Reckoning قسمت اولاز قبل مشخص شده است که هوش مصنوعی حیوانی وحشی است که احتمالاً در رام کردنش با مشکل مواجه خواهیم شد.
از کمپین های اطلاعات نادرست تخریب کننده دموکراسی گرفته تا هواپیماهای بدون سرنشین قاتل تا تخریب کامل حریم خصوصی افراد، هوش مصنوعی به طور بالقوه می تواند اقتصاد جهانی و احتمالاً خود تمدن را متحول کند. در ماه مه سال 2023، رهبران فناوری جهانی نامهای سرگشاده نوشتند که به تیتر خبرها تبدیل شد و هشدار دادند که خطرات فناوری هوش مصنوعی میتواند با سلاحهای هستهای برابری کند.
مرتبط با: دوست دختر، کودکان کشته شده، اندرویدهای قاتل – آیا هوش مصنوعی نفرین شده است؟
یکی از ترسهای اصلی هوش مصنوعی عدم شفافیت در مورد آموزش و برنامهنویسی آن است، بهویژه در مدلهای یادگیری عمیق که انتشار آنها ممکن است دشوار باشد. از آنجایی که از داده های حساس برای آموزش مدل های هوش مصنوعی استفاده می شود، در صورت به خطر افتادن داده ها، می توان آن ها را دستکاری کرد.
در سال های آینده، بلاک چین به طور گسترده در کنار هوش مصنوعی برای افزایش شفافیت، پاسخگویی و شنیدن در تصمیم گیری مورد استفاده قرار خواهد گرفت.
Chat GPT عیسی را مسخره می کند اما محمد را نه pic.twitter.com/LzMXBcdCmw
– E (@ElijahSchaffer) 2 سپتامبر 2023
به عنوان مثال، هنگام آموزش یک مدل هوش مصنوعی با استفاده از داده های ذخیره شده در یک بلاک چین، منشأ و یکپارچگی داده ها را می توان با جلوگیری از تغییرات غیرمجاز تضمین کرد. ذینفعان می توانند فرآیند تصمیم گیری را با ثبت پارامترهای آموزشی مدل، به روز رسانی ها و نتایج اعتبارسنجی در بلاک چین ردیابی و تأیید کنند.
با استفاده از این مورد، بلاک چین نقش اصلی را در جلوگیری از سوء استفاده ناخواسته از هوش مصنوعی ایفا خواهد کرد. عمدی چطور؟ این سناریوی بسیار خطرناک تری است و متأسفانه احتمالاً در سال های آینده با آن مواجه خواهیم شد.
حتی بدون هوش مصنوعی، Big Tech متمرکز از لحاظ تاریخی به رفتارهایی کمک کرده است که با دستکاری افراد و ارزشهای دموکراتیک به بالاترین قیمت پیشنهاد میدهند، همانطور که با رسوایی کمبریج آنالیتیکا فیسبوک معروف شد. در سال 2014، برنامه Thisisyourdigitallife به کاربران برای تست های شخصیتی که برای دسترسی به پروفایل فیس بوک آنها و دوستانشان نیاز به مجوز داشتند، پول پرداخت کرد. اساساً فیسبوک به کمبریج آنالیتیکا اجازه داد تا از کاربران غیرمجاز جاسوسی کند.
نتیجه؟ دو کمپین روابط عمومی روانشناختی تاریخی با هدف مخاطبان که تأثیر نسبتاً قوی بر نتایج انتخابات ریاست جمهوری ایالات متحده و همه پرسی عضویت بریتانیا در اتحادیه اروپا در سال 2016 داشتند. آیا متا (فیسبوک سابق) از اشتباهات خود درس گرفته است؟ به نظر نمی رسد.
در ماه جولای، متا آخرین اپلیکیشن خود را با نام Threads معرفی کرد. این سایت که به عنوان رقیب توییتر ایلان ماسک راه اندازی شده است، داده های معمول جمع آوری شده توسط فیس بوک و اینستاگرام را جمع آوری می کند. اما مشابه TikTok، زمانی که کاربران Threads ثبت نام کردند، ناآگاهانه به Meta دسترسی به موقعیت مکانی GPS، دوربین، عکسها، اطلاعات IP، نوع دستگاه و سیگنالهای دستگاه را دادند. این یک روش استاندارد برای Web2 است که چنین اقداماتی را با این استدلال که “کاربران شرایط و ضوابط را می پذیرند” توجیه کند. در واقع، خواندن خطمشی حفظ حریم خصوصی هر اپلیکیشنی که توسط یک کاربر استاندارد اینترنت استفاده میشود، به طور متوسط ۷۶ روز کاری طول میکشد. نقطه؟ متا اکنون تقریباً به همه چیز در تلفن های بیش از 150 میلیون کاربر دسترسی دارد.
هوش مصنوعی در راه است. اگر پیامدهای رسوایی کمبریج آنالیتیکا ثابت کند که نگرانی ها موجه است، آیا می توانیم تأثیرات این ازدواج بین نظارت تهاجمی و هوش خداگونه هوش مصنوعی را درک کنیم؟
راه حل غیرمعمول در اینجا بلاک چین است، اما راه حل به این سادگی نیست.
مرتبط با: جنون مضحک هوش مصنوعی رو به پایان است
یکی از خطرات اصلی هوش مصنوعی در دادههایی است که میتواند جمعآوری کرده و به سلاح تبدیل کند. در مورد رسانه های اجتماعی، فناوری بلاک چین به طور بالقوه می تواند حریم خصوصی و کنترل داده ها را افزایش دهد، که می تواند به کاهش شیوه های جمع آوری داده های Big Tech کمک کند. اما بعید است که Big Tech را از دستیابی به داده های حساس “منع کند”.
برای محافظت واقعی در برابر خطرات عمدی هوش مصنوعی و جلوگیری از سناریوهای مشابه کمبریج آنالیتیکا در آینده، به پلتفرم های رسانه های اجتماعی غیرمتمرکز و ترجیحا مبتنی بر بلاک چین نیاز است. با طراحی، پتانسیل نظارت انبوه و کمپین های اطلاعات نادرست هوش مصنوعی را با کاهش تمرکز داده های کاربر در یک نهاد متمرکز به حداقل می رساند.
به زبان ساده، از طریق فناوری بلاک چین، ما ابزارهای لازم را برای حفظ استقلال خود از هوش مصنوعی در سطح فردی و ملی در اختیار داریم.
مدت کوتاهی پس از اینکه سام آلتمن، مدیر عامل OpenAI، نامه ای سرگشاده به دولت ها درباره خطرات هوش مصنوعی در ماه مه امضا کرد، او یک پست وبلاگی منتشر کرد که در آن چندین استراتژی برای مدیریت مسئولانه سیستم های قدرتمند هوش مصنوعی توصیه می کرد. اینها شامل همکاری میان توسعه دهندگان پیشرو هوش مصنوعی، مطالعه فنی جامع تر مدل های زبان بزرگ و ایجاد یک سازمان جهانی برای امنیت هوش مصنوعی بود.
در حالی که این اقدامات شروع خوبی هستند، اما نمیتوانند به سیستمهایی که ما را در برابر هوش مصنوعی آسیبپذیر میکنند پاسخ دهند: نهادهای متمرکز Web2 مانند متا. برای محافظت واقعی در برابر هوش مصنوعی، پیشرفتهای بیشتری در زمینه فناوریهای مبتنی بر بلاک چین ضروری است، یعنی معرفی یک اکوسیستم واقعا رقابتی از امنیت سایبری و برنامههای غیرمتمرکز رسانههای اجتماعی.
این مقاله فقط برای اهداف اطلاعاتی عمومی است و نباید مشاوره حقوقی یا سرمایه گذاری در نظر گرفته شود. دیدگاهها، نظرات و دیدگاههای بیان شده در اینجا صرفاً متعلق به نویسنده است و لزوماً منعکسکننده یا بیانگر دیدگاهها و نظرات Cointelegraph نیست.
نویسنده: Callum Kennard