OpenAI، خالق ChatGPT، تمام خطرات امنیتی مرتبط با هوش مصنوعی را جدی می گیرد و طبق برنامه، تیم “آمادگی” را راه اندازی می کند.
OpenAI، شرکت تحقیقاتی و استقرار هوش مصنوعی (AI) که پشت ChatGPT قرار دارد، ابتکار جدیدی را برای ارزیابی طیف گستردهای از خطرات مرتبط با هوش مصنوعی راهاندازی میکند.
OpenAI در 25 اکتبر اعلام کرد که تیم جدیدی را تشکیل داده است که به نظارت، ارزیابی، پیشبینی و محافظت در برابر خطرات فاجعهبار احتمالی ناشی از هوش مصنوعی اختصاص دارد.
فصل جدید OpenAI به نام “آماده سازی” بر روی تهدیدات بالقوه هوش مصنوعی، به ویژه تهدیدات مربوط به تهدیدات شیمیایی، بیولوژیکی، رادیولوژیکی و هسته ای، متقاعدسازی فردی، امنیت سایبری، و تکثیر و سازگاری مستقل تمرکز خواهد کرد.
تیم Prep به رهبری الکساندر مادری به دنبال پاسخگویی به سوالاتی از جمله اینکه سیستمهای هوش مصنوعی در هنگام سوء استفاده چقدر خطرناک هستند و اینکه آیا عوامل مخرب میتوانند از وزنهای مدل هوش مصنوعی به سرقت رفته استفاده کنند یا خیر، پاسخ خواهند داد.
OpenAI با اذعان به اینکه مدلهای هوش مصنوعی همچنین خطرات جدی فزایندهای ایجاد میکنند، نوشت: «ما معتقدیم که مدلهای پیشرفته هوش مصنوعی که از قابلیتهای موجود در مدلهای پیشرفته کنونی فراتر میروند، این پتانسیل را دارند که برای همه بشریت مفید باشند.» این شرکت افزود:
ما تمام خطرات امنیتی مرتبط با هوش مصنوعی را جدی میگیریم، از سیستمهایی که امروز داریم تا دورترین نقاط ابراطلاعات. […] ما در حال توسعه رویکرد آمادگی خطر بلایا برای حمایت از امنیت سیستمهای هوش مصنوعی با ظرفیت بالا هستیم.»
طبق پست وبلاگ، OpenAI اکنون به دنبال استعدادهایی با سوابق فنی متنوع برای تیم آمادگی جدید خود است. علاوه بر این، این شرکت در حال راه اندازی یک چالش آمادگی هوش مصنوعی برای جلوگیری از سوء استفاده های مخرب است و به 10 متقاضی اول 25000 دلار اعتبار API ارائه می دهد.
OpenAI قبلاً گفته بود که قصد دارد در جولای 2023 تیم جدیدی را راه اندازی کند که به مقابله با تهدیدات بالقوه هوش مصنوعی اختصاص دارد.
مرتبط با: CoinMarketCap افزونه ChatGPT را راه اندازی کرد
در کنار خطرات بالقوه مرتبط با هوش مصنوعی، ترس از اینکه هوش مصنوعی پتانسیل باهوشتر بودن از هر انسانی را دارد، اغلب برجسته میشود. علیرغم اذعان به این خطرات، شرکت هایی مانند OpenAI در سال های اخیر به طور فعال در حال توسعه فناوری های جدید هوش مصنوعی بوده اند که منجر به نگرانی های بیشتر شده است.
در ماه مه 2023، مرکز غیرانتفاعی ایمنی هوش مصنوعی نامه ای سرگشاده در مورد خطر هوش مصنوعی منتشر کرد و از جامعه خواست تا خطرات انقراض ناشی از هوش مصنوعی را به عنوان یک اولویت جهانی در کنار سایر خطرات در مقیاس اجتماعی مانند بیماری های همه گیر و جنگ هسته ای کاهش دهد.
مجله: چگونه از ارز دیجیتال خود در یک بازار پر نوسان محافظت کنیم؟ کارشناسان و کارشناسان بیت کوین در مورد این موضوع بحث می کنند
نویسنده: Helen Partz