«پدرخوانده هوش مصنوعی» و مدیران اجرایی OpenAI، Google DeepMind و Anthropic از جمله صدها امضاکننده هستند.
دهها کارشناس هوش مصنوعی (AI)، از جمله مدیران عامل OpenAI، Google DeepMind و Anthropic، بیانیهای را امضا کردند که اخیرا توسط مرکز ایمنی هوش مصنوعی (CAIS) منتشر شده است.
ما فقط یک بیانیه دادیم:
کاهش خطر انقراض هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماری های همه گیر و جنگ هسته ای یک اولویت جهانی باشد.
امضاکنندگان عبارتند از: Hinton، Bengio، Altman، Hassabis، Song و غیره. واقع شده است.https://t.co/N9f6hs4bpa
(1/6)
— دن هندریکس (@DanHendrycks) 30 مه 2023
توضیحات شامل یک جمله است:
کاهش خطر انقراض هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماری های همه گیر و جنگ هسته ای یک اولویت جهانی باشد.
امضاکنندگان عبارتند از «چه کسی» واقعی از روشنفکران هوش مصنوعی، از جمله «پدر» هوش مصنوعی، جفری هینتون. استوارت راسل از دانشگاه کالیفرنیا، برکلی؛ و لکس فریدمن از موسسه فناوری ماساچوست. نوازنده گریمز نیز یکی از امضاکنندگان است و در رده “دیگر چهره های قابل توجه” فهرست شده است.
مرتبط با: نوازنده گریمز مایل است 50 درصد از حق چاپ را برای موسیقی تولید شده توسط هوش مصنوعی به اشتراک بگذارد
در حالی که ممکن است این عبارت در ظاهر بی ضرر به نظر برسد، پیام اصلی در جامعه هوش مصنوعی تا حدودی بحث برانگیز است.
به نظر میرسد تعداد فزایندهای از کارشناسان معتقدند که فناوریهای موجود میتوانند یا ناگزیر به ظهور یا توسعه یک سیستم هوش مصنوعی منجر شوند که میتواند تهدیدی وجودی برای گونههای انسان باشد.
اما نظرات او توسط گروهی از کارشناسان با دیدگاه های کاملاً متضاد به چالش کشیده می شود. به عنوان مثال، یان لیکان، دانشمند ارشد هوش مصنوعی متا، بارها اعلام کرده است که باور ندارد هوش مصنوعی غیرقابل کنترل شود.
هوش مصنوعی مافوق بشر در صدر فهرست خطرات وجودی قرار ندارد.
تا حد زیادی به این دلیل که هنوز وجود ندارد.تا زمانی که یک طراحی اولیه برای هوش مصنوعی حتی در سطح سگ (چه رسد به سطح انسان) نداشته باشیم، هنوز زود است که در مورد چگونگی ایمن سازی آن صحبت کنیم. https://t.co/ClkZxfofV9
— Yann LeCun (@ylecun) 30 مه 2023
برای او و دیگرانی که با لفاظی «انقراض» مخالفند، مانند اندرو نگ، یکی از بنیانگذاران Google Brain و دانشمند ارشد سابق بایدو، هوش مصنوعی مشکل نیست، بلکه پاسخ است.
در طرف دیگر بحث، کارشناسانی مانند هینتون و کانر لیهی، مدیر عامل Conjecture، معتقدند که هوش مصنوعی در سطح انسان اجتناب ناپذیر است و بنابراین اکنون زمان اقدام است.
روسای تمام آزمایشگاههای اصلی هوش مصنوعی این نامه را امضا کردند و آشکارا خطر انقراض ناشی از AGI را تأیید کردند.
گامی باورنکردنی به جلو، به دن برای کار باورنکردنی که این را گردآوری کرد، تبریک میگویم، و از همه امضاکنندگانی که سهم خود را برای آیندهای بهتر انجام میدهند، سپاسگزاریم! https://t.co/KDkqWvdJcH
– کانر لیهی (@NPCollapse) 30 مه 2023
با این حال، مشخص نیست که امضاکنندگان چه اقداماتی را خواسته اند. این واقعیت که مدیران عامل و/یا روسای هوش مصنوعی تقریباً هر شرکت بزرگ هوش مصنوعی و همچنین دانشمندان مشهور در سراسر دانشگاه از جمله امضاکنندگان هستند، روشن میسازد که هدف متوقف کردن توسعه این سیستمهای بالقوه خطرناک نیست.
در اوایل این ماه، سام آلتمن، مدیر عامل OpenAI، یکی از امضاکنندگان بیانیه فوقالذکر، اولین حضور خود در کنگره را در جریان جلسه استماع سنا برای بحث در مورد مقررات هوش مصنوعی انجام داد. او پس از صرف بخش اعظم شهادتش و ترغیب قانونگذاران به تنظیم صنعت خود، تیتر خبرها شد.
Altman’s Worldcoin، پروژهای که ارز دیجیتال و اثبات شخصیت را با هم ترکیب میکند، اخیراً پس از جمعآوری ۱۱۵ میلیون دلار سرمایه در سری C، به رسانهها راه یافت و مجموع بودجه خود را پس از سه دور به ۲۴۰ میلیون دلار رساند.
نویسنده: Tristan Greene