این ابزار در حال حاضر در مرحله تحقیقاتی است، اما تیم قصد دارد آن را با ابزارهای موجود حفظ هنرمندان ادغام کند.
محققان دانشگاه شیکاگو ابزاری ابداع کردهاند که به هنرمندان این توانایی را میدهد تا هنر دیجیتال خود را «مسموم» کنند تا از آموزش سیستمهای هوش مصنوعی (AI) توسط توسعهدهندگان جلوگیری شود.
این ابزار که به خاطر خانوادهای از گیاهان که به خاطر توتهای سمیشان معروف هستند، «Nightshade» نامیده میشود، تصاویر را طوری تغییر میدهد که گنجاندن آنها مجموعه دادههای مورد استفاده برای آموزش هوش مصنوعی را با اطلاعات نادرست آلوده میکند.
بر اساس گزارش MIT Technology Review، Nightshade پیکسل های یک تصویر دیجیتال را دستکاری می کند تا سیستم هوش مصنوعی را فریب دهد تا آن را اشتباه تفسیر کند. به عنوان مثال، Tech Review در مورد متقاعد کردن هوش مصنوعی صحبت می کند که تصویر یک گربه یک سگ است و بالعکس.
با انجام این کار، توانایی هوش مصنوعی برای تولید خروجی های دقیق و پاسخگو از نظر تئوری آسیب خواهد دید. با استفاده از مثال بالا، اگر کاربری از هوش مصنوعی معیوب تصویر یک «گربه» را بخواهد، در عوض ممکن است سگی را به عنوان گربه یا ترکیبی از همه «گربهها» در مجموعه آموزشی هوش مصنوعی دریافت کند. در واقع تصاویر سگ اصلاح شده توسط ابزار Nightshade.
مرتبط با: گروه موسیقی یونیورسال برای محافظت از حقوق هنرمندان در برابر نقض هوش مصنوعی وارد همکاری می شود
ویتالی شماتیکوف، استاد دانشگاه کرنل، یکی از کارشناسانی که این مطالعه را مشاهده کرد، گفت که محققان “هنوز دفاع قوی در برابر این حملات نمی دانند.” این بدان معناست که حتی مدلهای قوی مانند ChatGPT OpenAI میتوانند در معرض خطر باشند.
تیم تحقیقاتی Nightshade توسط پروفسور بن ژائو از دانشگاه شیکاگو رهبری می شود. ابزار جدید اساساً توسعه نرم افزار حفاظت از هنرمندان موجود به نام Glaze است. آنها در کارهای قبلی خود روشی را ابداع کردند که به وسیله آن یک هنرمند می توانست سبک یک اثر هنری را مبدل یا «جلی بخش» کند.
به عنوان مثال، هنرمندی که یک پرتره زغالی ایجاد می کند، می تواند صیقل داده شود تا به عنوان هنر مدرن در سیستم هوش مصنوعی ظاهر شود.

طبق گزارش Technology Review، Nightshade در Glaze پیاده سازی خواهد شد که در حال حاضر برای استفاده رایگان در وب یا دانلود از وب سایت دانشگاه شیکاگو در دسترس است.
نویسنده: Tristan Greene