ایلان ماسک و مدیران فناوری خواستار «مکث» در توسعه هوش مصنوعی هستند


نویسندگان این نامه توضیح دادند که هوش مصنوعی پیشرفته می تواند تغییری عمیق در تاریخ حیات روی زمین، چه خوب و چه بد، ایجاد کند.

بیش از 2600 رهبر فناوری و محقق با امضای نامه ای سرگشاده خواستار توقف موقت توسعه بیشتر هوش مصنوعی (AI) به دلیل ترس از خطرات عمیق برای جامعه و بشریت شدند.

امضا کنندگان این نامه که در 22 مارس توسط اندیشکده ایالات متحده Future of Life Institute (FOLI) نوشته شد، شامل ایلان ماسک، مدیر عامل تسلا، استیو وزنیاک از بنیانگذاران اپل، و تعدادی از مدیران عامل، مدیران ارشد فناوری و محققان هوش مصنوعی بودند.

این مؤسسه از همه شرکت‌های هوش مصنوعی خواست که آموزش سیستم‌های هوش مصنوعی قدرتمندتر از GPT-4 را برای حداقل شش ماه «فوراً متوقف کنند» و نگرانی‌هایی را در مورد اینکه «هوش رقابتی انسانی می‌تواند خطرات عمیقی برای جامعه و بشریت ایجاد کند» را به اشتراک گذاشت. :

این موسسه در نامه خود نوشت: “هوش مصنوعی پیشرفته می تواند نشان دهنده تغییری عمیق در تاریخ حیات روی زمین باشد و باید با دقت و منابع متناسب برنامه ریزی و مدیریت شود. متاسفانه این سطح از برنامه ریزی و مدیریت در حال انجام نیست.”

GPT-4 آخرین نسخه از ربات چت مبتنی بر هوش مصنوعی OpenAI است که در 14 مارس منتشر شد. تا به امروز، او برخی از سخت ترین امتحانات دبیرستان و حقوق را در ایالات متحده در صدک 90 گذرانده است. به نظر می رسد 10 برابر پیشرفته تر از نسخه اصلی ChatGPT باشد.

FOLI استدلال می‌کند که بین شرکت‌های هوش مصنوعی یک «مسابقه خارج از کنترل» برای توسعه هوش مصنوعی قوی‌تر وجود دارد و «هیچ‌کس – حتی سازندگان آن – نمی‌تواند درک کند، پیش‌بینی کند یا به‌طور قابل اعتماد کنترل کند».

نگرانی‌های اصلی شامل این بود که آیا ماشین‌ها می‌توانند کانال‌های اطلاعاتی را با اطلاعات «تبلیغاتی و غیرواقعی» پر کنند و اینکه آیا ماشین‌ها همه فرصت‌های شغلی را «اتوماتیک» می‌کنند.

FOLI این نگرانی‌ها را یک قدم فراتر برد و نشان داد که تلاش‌های کارآفرینانه این شرکت‌های هوش مصنوعی می‌تواند یک تهدید وجودی باشد:

“آیا ما باید ذهن های غیر انسانی را توسعه دهیم که در نهایت می توانند از تعداد، پیشی گرفته، قدیمی و جایگزین ما شوند؟ آیا باید در خطر از دست دادن کنترل تمدن خود باشیم؟”

این نامه می افزاید: «این گونه تصمیمات نباید به رهبران فناوری منتخب واگذار شود.

این موسسه همچنین با بیانیه اخیر سام آلتمن، بنیانگذار OpenAI موافق است که نشان می دهد ممکن است قبل از آموزش سیستم های هوش مصنوعی آینده، یک بررسی مستقل لازم باشد.

آلتمن در پست وبلاگ خود در ۲۴ فوریه بر نیاز به آماده شدن برای ربات های هوش عمومی مصنوعی (AGI) و هوش مصنوعی فوق العاده (ASI) تاکید کرد.

اگرچه همه کارشناسان هوش مصنوعی برای امضای این طومار عجله نداشتند. بن گورتزل، مدیر عامل SingularityNET، در پاسخ توییتری در 29 مارس به گری مارکوس، نویسنده Rebooting.AI گفت که مدل‌های یادگیری زبان (LLM) با توسعه کمی تا به امروز به AGI تبدیل نمی‌شوند.

در عوض، او گفت، تحقیق و توسعه برای چیزهایی مانند سلاح های بیولوژیکی و سلاح های هسته ای باید کند شود:

علاوه بر مدل‌های یادگیری زبان مانند ChatGPT، فناوری جعلی عمیق مبتنی بر هوش مصنوعی برای ایجاد تصاویر باورپذیر، فریب‌های صوتی و تصویری استفاده شد. این فناوری همچنین برای ایجاد آثار هنری تولید شده توسط هوش مصنوعی، با نگرانی هایی در مورد اینکه آیا ممکن است قوانین حق چاپ را در شرایط خاص نقض کند، استفاده شده است.

مرتبط با: ChatGPT اکنون می تواند با افزونه های OpenAI جدید به اینترنت دسترسی داشته باشد

مایک نووگراتز، مدیرعامل گلکسی دیجیتال اخیراً به سرمایه گذاران گفته است که از توجه نظارتی که به ارزهای دیجیتال شده در حالی که توجه کمی به هوش مصنوعی شده است، شوکه شده است.

وقتی به هوش مصنوعی فکر می‌کنم، شگفت‌زده می‌شوم که ما اینقدر در مورد مقررات رمزنگاری صحبت می‌کنیم و هرگز درباره مقررات هوش مصنوعی صحبت نمی‌کنیم. منظورم این است که فکر می‌کنم دولت شرایط را کاملاً تغییر داده است.

FOLI استدلال کرد که اگر توقف توسعه هوش مصنوعی به سرعت اجرا نشود، دولت ها باید درگیر تعلیق شوند.

«این مکث باید عمومی و قابل تأیید باشد و همه بازیگران کلیدی را درگیر کند. اگر چنین مکثی نمی تواند به سرعت اجرا شود، دولت ها باید وارد عمل شوند و یک تعلیق را آغاز کنند.»

مجله: چگونه با استفاده از بلاک چین از «نابودی بشریت» توسط هوش مصنوعی جلوگیری کنیم؟




نویسنده: Brayden Lindrea

اشتراک گذاری و حمایت

امیر کرمی

امیر کرمی

کارشناس تولید محتوا و علاقه مند به ارز دیجیتال و دنیای فناوری 😉

دیدگاهتان را بنویسید