چگونه OpenAI قصد دارد ChatGPT را از اطلاعات نادرست پاک کند؟


هدف OpenAI کاهش توهمات هوش مصنوعی در ChatGPT با بهبود مهارت‌های ریاضی است زیرا کنترل فرآیند نویدبخش بهبود دقت است.

OpenAI در 31 می تلاش های خود را برای بهبود قابلیت های حل مسئله ریاضی ChatGPT با هدف کاهش توهمات هوش مصنوعی (AI) اعلام کرد. OpenAI کاهش توهمات را به عنوان گامی مهم در جهت توسعه AGI سازگار برجسته کرد.

در ماه مارس، انتشار GPT-4، آخرین نسخه ChatGPT، هوش مصنوعی را به جریان اصلی تبدیل کرد. با این حال، چت ربات‌های سازنده هوش مصنوعی مدت‌هاست که با دقت واقعی دست و پنجه نرم می‌کنند و گهگاه اطلاعات نادرستی تولید می‌کنند که اغلب به عنوان «توهم» شناخته می‌شود. تلاش برای کاهش این توهمات هوش مصنوعی در پستی در وب سایت آنها اعلام شد.

توهمات هوش مصنوعی به موقعیت‌هایی اشاره دارد که در آن سیستم‌های هوش مصنوعی خروجی‌هایی تولید می‌کنند که واقعاً نادرست، گمراه‌کننده یا توسط داده‌های دنیای واقعی پشتیبانی نمی‌شوند. این توهمات می تواند به طرق مختلف مانند تولید اطلاعات نادرست، ساختن رویدادها یا افرادی که وجود ندارند یا دادن اطلاعات نادرست در مورد مسائل خاص رخ دهد.

OpenAI تحقیقاتی را برای بررسی اثربخشی دو نوع بازخورد، “کنترل نتیجه” و “کنترل فرآیند” انجام داد. کنترل نتایج شامل بازخورد بر اساس نتیجه نهایی است، در حالی که کنترل فرآیند ورودی را برای هر مرحله در یک زنجیره فکری فراهم می کند. OpenAI این مدل‌ها را با استفاده از مسائل ریاضی ارزیابی کرد، راه‌حل‌های متعددی تولید کرد و بر اساس هر مدل بازخورد، راه‌حل بالاترین رتبه را انتخاب کرد.

پس از تجزیه و تحلیل گسترده، تیم تحقیقاتی دریافتند که کنترل فرآیند عملکرد برتری را ارائه می دهد، زیرا مدل را تشویق می کند تا با فرآیند تایید شده توسط انسان مطابقت داشته باشد. در مقابل، ممیزی نتایج برای بررسی مداوم چالش برانگیزتر بود.

OpenAI اذعان کرد که اثرات کنترل فرآیند فراتر از ریاضیات است و برای درک مفاهیم آن در زمینه های مختلف به تحقیقات بیشتری نیاز است. او این احتمال را بیان کرد که اگر نتایج مشاهده شده در زمینه های گسترده تر دقیق باشد، حسابرسی فرآیند می تواند ترکیبی مثبت از عملکرد و انطباق را در مقایسه با نتایج حسابرسی ارائه دهد. برای تسهیل تحقیقات، این شرکت مجموعه داده کامل کنترل فرآیند را عمومی کرده است و از کاوش و مطالعه در این زمینه دعوت می کند.

مرتبط با: تقاضای هوش مصنوعی انویدیا را برای مدت کوتاهی وارد کلوپ 1 تریلیون دلاری کرد

در حالی که OpenAI نمونه‌های واضحی را که منجر به بررسی توهم‌ها شود، ارائه نکرد، دو رویداد اخیر این مشکل را در سناریوهای زندگی واقعی نشان دادند.

در حادثه اخیر، استیون آ. شوارتز، وکیل پرونده Mata v Avianca Airlines، اعتراف کرد که به ربات چت به عنوان یک منبع تحقیقاتی اعتماد کرده است. با این حال، اطلاعات ارائه شده توسط ChatGPT یک ساختگی کامل است و مشکل موجود را برجسته می کند.

ChatGPT OpenAI تنها نمونه ای از مواجهه سیستم های هوش مصنوعی با توهم نیست. هوش مصنوعی مایکروسافت گزارش‌های درآمدی را در جریان معرفی فناوری چت بات در ماه مارس بررسی کرد و ارقام نادرستی برای شرکت‌هایی مانند Gap و Lululemon ارائه کرد.

مجله: 25000 معامله‌گر روی پیش‌بینی‌های سهام ChatGPT شرط‌بندی می‌کنند، هوش مصنوعی تاس انداختن را بد می‌کند، و موارد دیگر.


نویسنده: Amaka Nwaokocha

اشتراک گذاری و حمایت

امیر کرمی

امیر کرمی

کارشناس تولید محتوا و علاقه مند به ارز دیجیتال و دنیای فناوری 😉

دیدگاهتان را بنویسید