OpenAI برای مبارزه با آسیب‌پذیری‌های سیستم، برنامه باگ بونتی راه‌اندازی می‌کند


OpenAI یک برنامه پاداش باگ برای رسیدگی به مسائل مربوط به حریم خصوصی و امنیت سایبری و پاداش دادن به محققان امنیتی برای شناسایی و رسیدگی به آسیب‌پذیری‌ها در سیستم‌هایشان ایجاد می‌کند.

در میان مسائل مربوط به حریم خصوصی و امنیت سایبری و ممنوعیت های اخیر در کشورهای مختلف، شرکت هوش مصنوعی (AI) OpenAI برنامه ای را برای مبارزه با نگرانی های آسیب پذیری منتشر کرده است.

OpenAI، شرکت سازنده ChatGPT، روز سه‌شنبه اعلام کرد که برنامه OpenAI Bug Bounty را برای کمک به شناسایی و رفع آسیب‌پذیری‌ها در سیستم‌های خود راه‌اندازی کرده است. بر اساس این اعلامیه، این برنامه به محققان امنیتی به دلیل مشارکت آنها در ایمن نگه داشتن فناوری OpenAI و شرکت پاداش می دهد.

OpenAI با دعوت از جامعه جهانی محققان امنیتی، هکرهای اخلاقی و متخصصان فناوری، مشوق هایی را برای واجد شرایط بودن اطلاعات آسیب پذیری ارائه کرد. این شرکت هوش مصنوعی معتقد است که تخصص و هوشیاری تأثیر مستقیمی بر محافظت از سیستم‌های آن و ایمن نگه داشتن کاربران خواهد داشت.

راه‌اندازی این برنامه پس از بیانیه هیروکازو ماتسونو، دبیر ارشد کابینه در روز دوشنبه، مبنی بر اینکه ژاپن به‌دلیل رسیدگی به مسائل مربوط به حریم خصوصی و امنیت سایبری، الحاق فناوری هوش مصنوعی را در سیستم‌های دولتی در نظر خواهد گرفت.

OpenAI در 20 مارس دچار نقض داده شد که در آن داده های کاربر به دلیل وجود اشکال در یک کتابخانه منبع باز در معرض کاربر دیگری قرار گرفت.

در این اطلاعیه، OpenAI گفت که با Bugcrowd، یک پلتفرم پاداش باگ، برای مدیریت فرآیند ارسال و پاداش طراحی شده برای ارائه یک تجربه ساده برای همه شرکت‌کنندگان، شریک شده است. پاداش های نقدی بر اساس شدت و تأثیر مسائل گزارش شده تعلق می گیرد. جوایز از 200 دلار برای یافته های کم اهمیت تا 20000 دلار برای اکتشافات برجسته متغیر است.

مرتبط با: پیاده سازی GPT-4 BabyAGI و AutoGPT می تواند اثرات مخربی برای رمزارزها داشته باشد

حفاظت از بندر امن برای تحقیقات آسیب‌پذیری که طبق دستورالعمل‌های خاص فهرست‌شده توسط OpenAI انجام می‌شود، ارائه می‌شود. از محققان انتظار می رود که تمام قوانین قابل اجرا را رعایت کنند.

اگر شخص ثالثی علیه یک محقق امنیتی شرکت کننده در برنامه پاداش باگ OpenAI اقدام قانونی کند و محقق از قوانین برنامه پیروی کند، OpenAI به دیگران اطلاع می دهد که محقق مطابق دستورالعمل های برنامه عمل کرده است. این به این دلیل است که سیستم‌های OpenAI به سایر سیستم‌ها و خدمات شخص ثالث مرتبط هستند.

مجله: همه چیز برای قاضی ربات خوب است: هوش مصنوعی و بلاک چین می توانند سالن دادگاه را متحول کنند


نویسنده: Amaka Nwaokocha

اشتراک گذاری و حمایت

امیر کرمی

امیر کرمی

کارشناس تولید محتوا و علاقه مند به ارز دیجیتال و دنیای فناوری 😉

دیدگاهتان را بنویسید