مطالب
- مقررات هوش مصنوعی مورد نیاز است
- نگرانی های ویتالیک بوترین
ظهور هوش مصنوعی (AI) فوق العاده بوده است. از OpenAI ChatGPT به نظر میرسد که ما در عصر طلایی هوش مصنوعی زندگی میکنیم و شرکتهای بزرگی مانند اپل در حال جهش هستند. با این حال، نباید فراموش کرد که “با قدرت بزرگ مسئولیت بزرگی به همراه دارد” که پیام انتقادی فیلم های مختلف مرد عنکبوتی است.
انتظار می رود ظهور هوش مصنوعی خطرات بالقوه قابل توجهی را برای مردم سراسر جهان به همراه داشته باشد. در نتیجه، رهبران صنعت مانند ایلان ماسک و ویتالیک بوترین در مورد مقررات هوش مصنوعی برای مقابله با این خطرات جهانی بسیار پر سر و صدا بوده اند. علاوه بر این، شرکت X.AIاو به پتانسیل این فناوری اعتقاد دارد و از مقررات صنعت حمایت می کند.
مقررات هوش مصنوعی مورد نیاز است
کالیفرنیا یک لایحه ایمنی هوش مصنوعی به نام SB 1047 را برای مقابله با خطرات و خطرات هوش مصنوعی معرفی کرده است. در صورت تصویب این لایحه، توسعه دهندگانی که بیش از 100 میلیون دلار برای توسعه یک مدل هوش مصنوعی سرمایه گذاری کرده اند، طبق گزارش ها بیشتر پاسخگو خواهند بود. این توسعه دهندگان باید به طور مسئولانه اقدامات خاصی مانند تست امنیتی مدل های خود را دنبال کنند.
این یک تماس سخت است و برخی از مردم را ناراحت خواهد کرد، اما با در نظر گرفتن همه چیز، فکر می کنم کالیفرنیا احتمالاً باید لایحه ایمنی SB 1047 AI را تصویب کند.
برای بیش از 20 سال، من مدافع مقررات هوش مصنوعی بودم، همانطور که هر محصول/فناوری که خطرات بالقوه ای را به همراه دارد را تنظیم می کنیم…
— ایلان ماسک (@elonmusk) 26 آگوست 2024
ایلان ماسک، مدیرعامل تسلا در واکنش به این پیشرفت گفت: او توییت کرد او گفت که لایحه SB 1047 باید توسط کالیفرنیا تصویب شود. ماسک بیش از 20 سال است که از قوانین هوش مصنوعی دفاع می کند، اگرچه او می گوید افکار او ممکن است برخی افراد را آزار دهد. این میلیاردر فکر می کند که صنعت هوش مصنوعی باید مانند سایر صنایع مرتبط با فناوری تنظیم شود تا از خطرات احتمالی جلوگیری شود.
نگرانی های ویتالیک بوترین
ویتالیک بوترین، بنیانگذار اتریوم (ETH) در توضیح توییت ماسک گفت: صحبت کرد در مورد نیاز به این مقررات در زمینه هوش مصنوعی. با این حال وی در مورد کارآمدی این لوایح یا پیش نویس ها نیز ابراز نگرانی کرد. بوترین این سوال را مطرح کرد که آیا از لایحه SB 1047 برای دنبال کردن مدلهای وزن صریح، مدلهای از پیش آموزشدیده برای توسعه بیشتر استفاده میشود.
بهترین شواهد مبنی بر اینکه این صورتحساب برای هدف قرار دادن وزن های باز استفاده خواهد شد چیست؟
من میدانم که نسخههای قبلی لایحه یک شرط بسته شدن کامل داشتند که با وزنهای باز ناسازگار بود، اما حذف شده است. و من می دانم که برخی از افراد امنیتی هوش مصنوعی حمایت خود را از…
— vitalik.eth (@VitalikButerin) 27 آگوست 2024
را اتریوم بنیانگذار از دسته «آسیب بحرانی» لایحه حمایت کرد. او گفت که قرائت خیریه این لایحه، SB 1047، بیان می کند که هدف اجرای یک روش تست امنیتی است. در نتیجه، اگر توسعهدهندگان یا شرکتها «قابلیتها/رفتارهای تهدیدکننده جهان» را در مدلهای خود کشف کنند، اجازه راهاندازی آنها را نخواهند داشت.
نویسنده: Mushumir Butt