هدف OpenAI کاهش توهمات هوش مصنوعی در ChatGPT با بهبود مهارتهای ریاضی است زیرا کنترل فرآیند نویدبخش بهبود دقت است.
OpenAI در 31 می تلاش های خود را برای بهبود قابلیت های حل مسئله ریاضی ChatGPT با هدف کاهش توهمات هوش مصنوعی (AI) اعلام کرد. OpenAI کاهش توهمات را به عنوان گامی مهم در جهت توسعه AGI سازگار برجسته کرد.
در ماه مارس، انتشار GPT-4، آخرین نسخه ChatGPT، هوش مصنوعی را به جریان اصلی تبدیل کرد. با این حال، چت رباتهای سازنده هوش مصنوعی مدتهاست که با دقت واقعی دست و پنجه نرم میکنند و گهگاه اطلاعات نادرستی تولید میکنند که اغلب به عنوان «توهم» شناخته میشود. تلاش برای کاهش این توهمات هوش مصنوعی در پستی در وب سایت آنها اعلام شد.
توهمات هوش مصنوعی به موقعیتهایی اشاره دارد که در آن سیستمهای هوش مصنوعی خروجیهایی تولید میکنند که واقعاً نادرست، گمراهکننده یا توسط دادههای دنیای واقعی پشتیبانی نمیشوند. این توهمات می تواند به طرق مختلف مانند تولید اطلاعات نادرست، ساختن رویدادها یا افرادی که وجود ندارند یا دادن اطلاعات نادرست در مورد مسائل خاص رخ دهد.
OpenAI تحقیقاتی را برای بررسی اثربخشی دو نوع بازخورد، “کنترل نتیجه” و “کنترل فرآیند” انجام داد. کنترل نتایج شامل بازخورد بر اساس نتیجه نهایی است، در حالی که کنترل فرآیند ورودی را برای هر مرحله در یک زنجیره فکری فراهم می کند. OpenAI این مدلها را با استفاده از مسائل ریاضی ارزیابی کرد، راهحلهای متعددی تولید کرد و بر اساس هر مدل بازخورد، راهحل بالاترین رتبه را انتخاب کرد.
پس از تجزیه و تحلیل گسترده، تیم تحقیقاتی دریافتند که کنترل فرآیند عملکرد برتری را ارائه می دهد، زیرا مدل را تشویق می کند تا با فرآیند تایید شده توسط انسان مطابقت داشته باشد. در مقابل، ممیزی نتایج برای بررسی مداوم چالش برانگیزتر بود.
OpenAI اذعان کرد که اثرات کنترل فرآیند فراتر از ریاضیات است و برای درک مفاهیم آن در زمینه های مختلف به تحقیقات بیشتری نیاز است. او این احتمال را بیان کرد که اگر نتایج مشاهده شده در زمینه های گسترده تر دقیق باشد، حسابرسی فرآیند می تواند ترکیبی مثبت از عملکرد و انطباق را در مقایسه با نتایج حسابرسی ارائه دهد. برای تسهیل تحقیقات، این شرکت مجموعه داده کامل کنترل فرآیند را عمومی کرده است و از کاوش و مطالعه در این زمینه دعوت می کند.
مرتبط با: تقاضای هوش مصنوعی انویدیا را برای مدت کوتاهی وارد کلوپ 1 تریلیون دلاری کرد
در حالی که OpenAI نمونههای واضحی را که منجر به بررسی توهمها شود، ارائه نکرد، دو رویداد اخیر این مشکل را در سناریوهای زندگی واقعی نشان دادند.
در حادثه اخیر، استیون آ. شوارتز، وکیل پرونده Mata v Avianca Airlines، اعتراف کرد که به ربات چت به عنوان یک منبع تحقیقاتی اعتماد کرده است. با این حال، اطلاعات ارائه شده توسط ChatGPT یک ساختگی کامل است و مشکل موجود را برجسته می کند.
ChatGPT OpenAI تنها نمونه ای از مواجهه سیستم های هوش مصنوعی با توهم نیست. هوش مصنوعی مایکروسافت گزارشهای درآمدی را در جریان معرفی فناوری چت بات در ماه مارس بررسی کرد و ارقام نادرستی برای شرکتهایی مانند Gap و Lululemon ارائه کرد.
مجله: 25000 معاملهگر روی پیشبینیهای سهام ChatGPT شرطبندی میکنند، هوش مصنوعی تاس انداختن را بد میکند، و موارد دیگر.
نویسنده: Amaka Nwaokocha