OpenAI در 31 مه اعلام کرد که تلاشهای خود را برای تقویت قابلیتهای حل مسئله ریاضی ChatGPT با هدف کاهش موارد توهمات هوش مصنوعی (AI) اعلام کرد. OpenAI بر کاهش توهمات به عنوان گامی مهم در جهت توسعه AGI همسو تاکید کرد.
در ماه مارس، معرفی آخرین نسخه ChatGPT، GPT-4، هوش مصنوعی را بیشتر به جریان اصلی تبدیل کرد. با این حال، چت رباتهای مولد هوش مصنوعی مدتهاست که با دقت واقعی دست و پنجه نرم میکنند و گهگاه اطلاعات نادرستی تولید میکنند که معمولاً به آن «توهم» میگویند. تلاش برای کاهش این توهمات هوش مصنوعی از طریق پستی در وب سایت آنها اعلام شد.
توهمات هوش مصنوعی به مواردی اشاره دارد که سیستمهای هوش مصنوعی خروجیهایی تولید میکنند که واقعاً نادرست، گمراهکننده یا توسط دادههای دنیای واقعی پشتیبانی نمیشوند. این توهمات می تواند به اشکال مختلف مانند تولید اطلاعات نادرست، ساختن رویدادها یا افراد غیرموجود یا ارائه جزئیات نادرست در مورد موضوعات خاص ظاهر شود.
OpenAI تحقیقاتی را برای بررسی اثربخشی دو نوع بازخورد - "نظارت بر نتیجه" و "نظارت بر فرآیند" انجام داد. نظارت بر نتیجه شامل بازخورد مبتنی بر نتیجه نهایی است، در حالی که نظارت فرآیند ورودی برای هر مرحله در یک زنجیره فکری فراهم می کند. OpenAI این مدلها را با استفاده از مسائل ریاضی، ایجاد راهحلهای متعدد و انتخاب راهحل با بالاترین رتبه با توجه به هر مدل بازخورد ارزیابی کرد.
پس از تجزیه و تحلیل کامل، تیم تحقیقاتی دریافتند که نظارت بر فرآیند عملکرد برتری را به همراه دارد زیرا مدل را تشویق میکند تا به فرآیند تایید شده توسط انسان پایبند باشد. در مقابل، نظارت بر نتیجه برای بررسی مداوم چالش برانگیزتر بود.
OpenAI تشخیص داد که پیامدهای نظارت فرآیند فراتر از ریاضیات است و تحقیقات بیشتر برای درک تأثیرات آن در حوزه های مختلف ضروری است. این احتمال را بیان می کند که اگر نتایج مشاهده شده در زمینه های گسترده تر صادق باشند، نظارت فرآیند می تواند ترکیب مطلوبی از عملکرد و همسویی را در مقایسه با نظارت بر نتیجه ارائه دهد. برای تسهیل تحقیق، این شرکت مجموعه داده کامل نظارت فرآیند را به صورت عمومی منتشر کرد و از اکتشاف و مطالعه در این زمینه دعوت کرد.
مرتبط: تقاضای هوش مصنوعی برای مدت کوتاهی انویدیا را به کلوپ 1 تریلیون دلاری تبدیل می کند
اگرچه OpenAI موارد واضحی را ارائه نکرد که باعث تحقیقات آنها در مورد توهم شود، دو اتفاق اخیر نمونه ای از این مشکل در سناریوهای زندگی واقعی است.
در حادثه اخیر، وکیل استیون آ. شوارتز در پرونده Mata v. Avianca Airlines اذعان کرد که به چت بات به عنوان یک منبع تحقیقاتی تکیه می کند. با این حال، معلوم شد که اطلاعات ارائه شده توسط ChatGPT کاملاً ساختگی بوده و موضوع مورد بحث را برجسته می کند.
ChatGPT OpenAI تنها نمونه ای نیست که سیستم های هوش مصنوعی با توهم مواجه می شوند. هوش مصنوعی مایکروسافت، طی نمایشی از فناوری چت بات خود در ماه مارس، گزارشهای درآمدی را بررسی کرد و ارقام نادرستی برای شرکتهایی مانند Gap و Lululemon ایجاد کرد.
مجله: ۲۵ هزار معاملهگر روی سهام ChatGPT شرط میبندند، هوش مصنوعی در پرتاب تاسها و موارد دیگر شرط میبندد.
منبع: https://cointelegraph.com/news/here-s-how-openai-plans-to-cleanse-chatgpt-from-false-information