متا با بررسی های قانونی مواجه است زیرا پیشرفت های هوش مصنوعی نگرانی هایی را در مورد ایمنی کودکان ایجاد می کند


این پیشرفت در زمان پیشرفت های سریع هوش مصنوعی (AI) که شامل هوش مصنوعی متنی و مولد می شود، رخ می دهد.

گروهی متشکل از 34 ایالت آمریکا علیه غول رسانه های اجتماعی متا شکایت کرده و فیس بوک و اینستاگرام را به دستکاری نادرست خردسالانی که از این پلتفرم ها استفاده می کنند متهم می کنند. این پیشرفت در زمان پیشرفت های سریع هوش مصنوعی (AI) که شامل هوش مصنوعی متنی و مولد می شود، رخ می دهد.

نمایندگان قانونی از چندین ایالت، از جمله کالیفرنیا، نیویورک، اوهایو، داکوتای جنوبی، ویرجینیا و لوئیزیانا، ادعا می‌کنند که متا از الگوریتم‌های خود برای تشویق رفتار اعتیادآور و تأثیر منفی بر سلامت روان کودکان از طریق ویژگی‌هایی مانند دکمه «پسندیدن» استفاده می‌کند.

بر اساس گزارش اخیر، دانشمند ارشد هوش مصنوعی متا صحبت کرده و گفته است که نگرانی ها در مورد خطرات وجودی این فناوری هنوز “قبل از موعد” است. متا در حال حاضر از هوش مصنوعی برای حل مسائل مربوط به اعتماد و امنیت در پلتفرم های خود استفاده می کند. با این حال شاکیان دولت پیگیر پیگرد قانونی هستند.

اسکرین شات از پرونده. منبع: CourtListener

وکلای ایالت ها به دنبال مقادیر متفاوتی از خسارت، خسارت و غرامت برای هر ایالت ذکر شده در سند هستند که از 5000 تا 25000 دلار برای هر حادثه ادعایی متغیر است. کوین تلگراف برای اطلاعات بیشتر با متا تماس گرفته است اما هنوز در زمان انتشار بازخوردی دریافت نکرده است.

در همین حال، بنیاد نظارت بر اینترنت مستقر در بریتانیا (IWF) نسبت به گسترش نگران کننده مواد سوء استفاده جنسی از کودکان (CSAM) تولید شده توسط هوش مصنوعی ابراز نگرانی کرده است. در گزارش اخیر، IWF فاش کرد که بیش از 20254 تصویر CSAM تولید شده توسط هوش مصنوعی در یک انجمن وب تاریک تنها در یک ماه کشف شد و هشدار داد که این افزایش در محتوای مزاحم پتانسیل غلبه بر اینترنت را دارد.

این سازمان بریتانیایی خواستار همکاری جهانی شد و یک استراتژی چند وجهی را برای مقابله با مشکل CSAM پیشنهاد کرد. این امر مستلزم تعدیل قوانین موجود، بهبود در آموزش اجرای قانون، و اجرای نظارت نظارتی برای مدل‌های هوش مصنوعی است.

مرتبط با: محققان در چین موتور تصحیح توهم را برای مدل های هوش مصنوعی توسعه دادند

در زمینه توسعه‌دهندگان هوش مصنوعی، IWF توصیه می‌کند که توسعه‌دهندگان هوش مصنوعی از ایجاد محتوای کودک آزاری منع شوند، مدل‌های مرتبط را حذف کنند، و بر حذف چنین مطالبی از مدل‌هایشان تمرکز کنند.

توسعه مولدهای تصویر هوش مصنوعی به طور قابل توجهی ایجاد کپی های واقعی انسانی را بهبود بخشیده است. پلتفرم هایی مانند Midjourney، Runway، Stable Diffusion و OpenAI’s Dall-E نمونه هایی از ابزارهایی هستند که می توانند تصاویر واقعی تولید کنند.

مجله: “هوش مصنوعی صنعت را کشت”: رئیس EasyTranslate در تطبیق با تغییرات


نویسنده: Amaka Nwaokocha

اشتراک گذاری و حمایت

تصویر امیر کرمی

امیر کرمی

کارشناس تولید محتوا و علاقه مند به ارز دیجیتال و دنیای فناوری 😉

دیدگاهتان را بنویسید