OpenAI خالق ChatGPT تیم جدیدی را برای کنترل خطرات هوش مصنوعی تشکیل می دهد


OpenAI، خالق ChatGPT، تمام خطرات امنیتی مرتبط با هوش مصنوعی را جدی می گیرد و طبق برنامه، تیم “آمادگی” را راه اندازی می کند.

OpenAI، شرکت تحقیقاتی و استقرار هوش مصنوعی (AI) که پشت ChatGPT قرار دارد، ابتکار جدیدی را برای ارزیابی طیف گسترده‌ای از خطرات مرتبط با هوش مصنوعی راه‌اندازی می‌کند.

OpenAI در 25 اکتبر اعلام کرد که تیم جدیدی را تشکیل داده است که به نظارت، ارزیابی، پیش‌بینی و محافظت در برابر خطرات فاجعه‌بار احتمالی ناشی از هوش مصنوعی اختصاص دارد.

فصل جدید OpenAI به نام “آماده سازی” بر روی تهدیدات بالقوه هوش مصنوعی، به ویژه تهدیدات مربوط به تهدیدات شیمیایی، بیولوژیکی، رادیولوژیکی و هسته ای، متقاعدسازی فردی، امنیت سایبری، و تکثیر و سازگاری مستقل تمرکز خواهد کرد.

تیم Prep به رهبری الکساندر مادری به دنبال پاسخگویی به سوالاتی از جمله اینکه سیستم‌های هوش مصنوعی در هنگام سوء استفاده چقدر خطرناک هستند و اینکه آیا عوامل مخرب می‌توانند از وزن‌های مدل هوش مصنوعی به سرقت رفته استفاده کنند یا خیر، پاسخ خواهند داد.

OpenAI با اذعان به اینکه مدل‌های هوش مصنوعی همچنین خطرات جدی فزاینده‌ای ایجاد می‌کنند، نوشت: «ما معتقدیم که مدل‌های پیشرفته هوش مصنوعی که از قابلیت‌های موجود در مدل‌های پیشرفته کنونی فراتر می‌روند، این پتانسیل را دارند که برای همه بشریت مفید باشند.» این شرکت افزود:

ما تمام خطرات امنیتی مرتبط با هوش مصنوعی را جدی می‌گیریم، از سیستم‌هایی که امروز داریم تا دورترین نقاط ابراطلاعات. […] ما در حال توسعه رویکرد آمادگی خطر بلایا برای حمایت از امنیت سیستم‌های هوش مصنوعی با ظرفیت بالا هستیم.»

طبق پست وبلاگ، OpenAI اکنون به دنبال استعدادهایی با سوابق فنی متنوع برای تیم آمادگی جدید خود است. علاوه بر این، این شرکت در حال راه اندازی یک چالش آمادگی هوش مصنوعی برای جلوگیری از سوء استفاده های مخرب است و به 10 متقاضی اول 25000 دلار اعتبار API ارائه می دهد.

OpenAI قبلاً گفته بود که قصد دارد در جولای 2023 تیم جدیدی را راه اندازی کند که به مقابله با تهدیدات بالقوه هوش مصنوعی اختصاص دارد.

مرتبط با: CoinMarketCap افزونه ChatGPT را راه اندازی کرد

در کنار خطرات بالقوه مرتبط با هوش مصنوعی، ترس از اینکه هوش مصنوعی پتانسیل باهوش‌تر بودن از هر انسانی را دارد، اغلب برجسته می‌شود. علیرغم اذعان به این خطرات، شرکت هایی مانند OpenAI در سال های اخیر به طور فعال در حال توسعه فناوری های جدید هوش مصنوعی بوده اند که منجر به نگرانی های بیشتر شده است.

در ماه مه 2023، مرکز غیرانتفاعی ایمنی هوش مصنوعی نامه ای سرگشاده در مورد خطر هوش مصنوعی منتشر کرد و از جامعه خواست تا خطرات انقراض ناشی از هوش مصنوعی را به عنوان یک اولویت جهانی در کنار سایر خطرات در مقیاس اجتماعی مانند بیماری های همه گیر و جنگ هسته ای کاهش دهد.

مجله: چگونه از ارز دیجیتال خود در یک بازار پر نوسان محافظت کنیم؟ کارشناسان و کارشناسان بیت کوین در مورد این موضوع بحث می کنند


نویسنده: Helen Partz

اشتراک گذاری و حمایت

تصویر امیر کرمی

امیر کرمی

کارشناس تولید محتوا و علاقه مند به ارز دیجیتال و دنیای فناوری 😉

دیدگاهتان را بنویسید