نویسندگان این نامه توضیح دادند که هوش مصنوعی پیشرفته می تواند تغییری عمیق در تاریخ حیات روی زمین، چه خوب و چه بد، ایجاد کند.
بیش از 2600 رهبر فناوری و محقق با امضای نامه ای سرگشاده خواستار توقف موقت توسعه بیشتر هوش مصنوعی (AI) به دلیل ترس از خطرات عمیق برای جامعه و بشریت شدند.
امضا کنندگان این نامه که در 22 مارس توسط اندیشکده ایالات متحده Future of Life Institute (FOLI) نوشته شد، شامل ایلان ماسک، مدیر عامل تسلا، استیو وزنیاک از بنیانگذاران اپل، و تعدادی از مدیران عامل، مدیران ارشد فناوری و محققان هوش مصنوعی بودند.
این مؤسسه از همه شرکتهای هوش مصنوعی خواست که آموزش سیستمهای هوش مصنوعی قدرتمندتر از GPT-4 را برای حداقل شش ماه «فوراً متوقف کنند» و نگرانیهایی را در مورد اینکه «هوش رقابتی انسانی میتواند خطرات عمیقی برای جامعه و بشریت ایجاد کند» را به اشتراک گذاشت. :
ما از آزمایشگاه های هوش مصنوعی می خواهیم آموزش مدل های قدرتمند را به طور موقت متوقف کنند!
به تماس FLI با یوشوا بنجیو بپیوندید، @stevewoz، @harari_yuval، @الون ماسک، @GaryMarcus و بیش از 1000 امضاکننده: https://t.co/3rJBjDXapc
توضیح مختصری درباره اینکه چرا ما این را می خواهیم – (1/8)
– موسسه آینده زندگی (@FLIxrisk) 29 مارس 2023
این موسسه در نامه خود نوشت: “هوش مصنوعی پیشرفته می تواند نشان دهنده تغییری عمیق در تاریخ حیات روی زمین باشد و باید با دقت و منابع متناسب برنامه ریزی و مدیریت شود. متاسفانه این سطح از برنامه ریزی و مدیریت در حال انجام نیست.”
GPT-4 آخرین نسخه از ربات چت مبتنی بر هوش مصنوعی OpenAI است که در 14 مارس منتشر شد. تا به امروز، او برخی از سخت ترین امتحانات دبیرستان و حقوق را در ایالات متحده در صدک 90 گذرانده است. به نظر می رسد 10 برابر پیشرفته تر از نسخه اصلی ChatGPT باشد.
FOLI استدلال میکند که بین شرکتهای هوش مصنوعی یک «مسابقه خارج از کنترل» برای توسعه هوش مصنوعی قویتر وجود دارد و «هیچکس – حتی سازندگان آن – نمیتواند درک کند، پیشبینی کند یا بهطور قابل اعتماد کنترل کند».
آخرین لحظه: طوماری در حال پخش است تا تمام پیشرفتهای اصلی هوش مصنوعی متوقف شود.
به عنوان مثال، دیگر خبری از ارتقاء ChatGPT و موارد دیگر نیست.
امضا توسط ایلان ماسک، مدیر عامل هوش مصنوعی پایداری، استیو وزنیاک، و هزاران نفر از رهبران فناوری دیگر.
اینم بازیگران: pic.twitter.com/jR4Z3sNdDw
— لورنزو گرین 〰️ (@mrgreen) 29 مارس 2023
نگرانیهای اصلی شامل این بود که آیا ماشینها میتوانند کانالهای اطلاعاتی را با اطلاعات «تبلیغاتی و غیرواقعی» پر کنند و اینکه آیا ماشینها همه فرصتهای شغلی را «اتوماتیک» میکنند.
FOLI این نگرانیها را یک قدم فراتر برد و نشان داد که تلاشهای کارآفرینانه این شرکتهای هوش مصنوعی میتواند یک تهدید وجودی باشد:
“آیا ما باید ذهن های غیر انسانی را توسعه دهیم که در نهایت می توانند از تعداد، پیشی گرفته، قدیمی و جایگزین ما شوند؟ آیا باید در خطر از دست دادن کنترل تمدن خود باشیم؟”
این نامه می افزاید: «این گونه تصمیمات نباید به رهبران فناوری منتخب واگذار شود.
امروزه داشتن کمی اضطراب وجودی هوش مصنوعی
— ایلان ماسک (@elonmusk) 26 فوریه 2023
این موسسه همچنین با بیانیه اخیر سام آلتمن، بنیانگذار OpenAI موافق است که نشان می دهد ممکن است قبل از آموزش سیستم های هوش مصنوعی آینده، یک بررسی مستقل لازم باشد.
آلتمن در پست وبلاگ خود در ۲۴ فوریه بر نیاز به آماده شدن برای ربات های هوش عمومی مصنوعی (AGI) و هوش مصنوعی فوق العاده (ASI) تاکید کرد.
اگرچه همه کارشناسان هوش مصنوعی برای امضای این طومار عجله نداشتند. بن گورتزل، مدیر عامل SingularityNET، در پاسخ توییتری در 29 مارس به گری مارکوس، نویسنده Rebooting.AI گفت که مدلهای یادگیری زبان (LLM) با توسعه کمی تا به امروز به AGI تبدیل نمیشوند.
به طور کلی، جامعه انسانی با GPT-5 بهتر از GPT-4 خواهد بود – بهتر است مدل های کمی هوشمندتر در اطراف وجود داشته باشد. هوش مصنوعی مشاغل انسانی را در نهایت چیز خوبی خواهد بود. توهمات و حد وسط فروکش خواهد کرد و مردم یاد خواهند گرفت که آنها را دور بزنند.
– بن گورتزل (@bengoertzel) 29 مارس 2023
در عوض، او گفت، تحقیق و توسعه برای چیزهایی مانند سلاح های بیولوژیکی و سلاح های هسته ای باید کند شود:
علاوه بر مدلهای یادگیری زبان مانند ChatGPT، فناوری جعلی عمیق مبتنی بر هوش مصنوعی برای ایجاد تصاویر باورپذیر، فریبهای صوتی و تصویری استفاده شد. این فناوری همچنین برای ایجاد آثار هنری تولید شده توسط هوش مصنوعی، با نگرانی هایی در مورد اینکه آیا ممکن است قوانین حق چاپ را در شرایط خاص نقض کند، استفاده شده است.
مرتبط با: ChatGPT اکنون می تواند با افزونه های OpenAI جدید به اینترنت دسترسی داشته باشد
مایک نووگراتز، مدیرعامل گلکسی دیجیتال اخیراً به سرمایه گذاران گفته است که از توجه نظارتی که به ارزهای دیجیتال شده در حالی که توجه کمی به هوش مصنوعی شده است، شوکه شده است.
وقتی به هوش مصنوعی فکر میکنم، شگفتزده میشوم که ما اینقدر در مورد مقررات رمزنگاری صحبت میکنیم و هرگز درباره مقررات هوش مصنوعی صحبت نمیکنیم. منظورم این است که فکر میکنم دولت شرایط را کاملاً تغییر داده است.
FOLI استدلال کرد که اگر توقف توسعه هوش مصنوعی به سرعت اجرا نشود، دولت ها باید درگیر تعلیق شوند.
«این مکث باید عمومی و قابل تأیید باشد و همه بازیگران کلیدی را درگیر کند. اگر چنین مکثی نمی تواند به سرعت اجرا شود، دولت ها باید وارد عمل شوند و یک تعلیق را آغاز کنند.»
مجله: چگونه با استفاده از بلاک چین از «نابودی بشریت» توسط هوش مصنوعی جلوگیری کنیم؟
نویسنده: Brayden Lindrea