در اینجا نحوه برنامه ریزی OpenAI برای پاکسازی ChatGPT از اطلاعات نادرست آمده است

OpenAI در 31 مه اعلام کرد که تلاش‌های خود را برای تقویت قابلیت‌های حل مسئله ریاضی ChatGPT با هدف کاهش موارد توهمات هوش مصنوعی (AI) اعلام کرد. OpenAI بر کاهش توهمات به عنوان گامی مهم در جهت توسعه AGI همسو تاکید کرد.

در ماه مارس، معرفی آخرین نسخه ChatGPT، GPT-4، هوش مصنوعی را بیشتر به جریان اصلی تبدیل کرد. با این حال، چت ربات‌های مولد هوش مصنوعی مدت‌هاست که با دقت واقعی دست و پنجه نرم می‌کنند و گهگاه اطلاعات نادرستی تولید می‌کنند که معمولاً به آن «توهم» می‌گویند. تلاش برای کاهش این توهمات هوش مصنوعی از طریق پستی در وب سایت آنها اعلام شد.

توهمات هوش مصنوعی به مواردی اشاره دارد که سیستم‌های هوش مصنوعی خروجی‌هایی تولید می‌کنند که واقعاً نادرست، گمراه‌کننده یا توسط داده‌های دنیای واقعی پشتیبانی نمی‌شوند. این توهمات می تواند به اشکال مختلف مانند تولید اطلاعات نادرست، ساختن رویدادها یا افراد غیرموجود یا ارائه جزئیات نادرست در مورد موضوعات خاص ظاهر شود.

OpenAI تحقیقاتی را برای بررسی اثربخشی دو نوع بازخورد - "نظارت بر نتیجه" و "نظارت بر فرآیند" انجام داد. نظارت بر نتیجه شامل بازخورد مبتنی بر نتیجه نهایی است، در حالی که نظارت فرآیند ورودی برای هر مرحله در یک زنجیره فکری فراهم می کند. OpenAI این مدل‌ها را با استفاده از مسائل ریاضی، ایجاد راه‌حل‌های متعدد و انتخاب راه‌حل با بالاترین رتبه با توجه به هر مدل بازخورد ارزیابی کرد.

پس از تجزیه و تحلیل کامل، تیم تحقیقاتی دریافتند که نظارت بر فرآیند عملکرد برتری را به همراه دارد زیرا مدل را تشویق می‌کند تا به فرآیند تایید شده توسط انسان پایبند باشد. در مقابل، نظارت بر نتیجه برای بررسی مداوم چالش برانگیزتر بود.

OpenAI تشخیص داد که پیامدهای نظارت فرآیند فراتر از ریاضیات است و تحقیقات بیشتر برای درک تأثیرات آن در حوزه های مختلف ضروری است. این احتمال را بیان می کند که اگر نتایج مشاهده شده در زمینه های گسترده تر صادق باشند، نظارت فرآیند می تواند ترکیب مطلوبی از عملکرد و همسویی را در مقایسه با نظارت بر نتیجه ارائه دهد. برای تسهیل تحقیق، این شرکت مجموعه داده کامل نظارت فرآیند را به صورت عمومی منتشر کرد و از اکتشاف و مطالعه در این زمینه دعوت کرد.

مرتبط: تقاضای هوش مصنوعی برای مدت کوتاهی انویدیا را به کلوپ 1 تریلیون دلاری تبدیل می کند

اگرچه OpenAI موارد واضحی را ارائه نکرد که باعث تحقیقات آنها در مورد توهم شود، دو اتفاق اخیر نمونه ای از این مشکل در سناریوهای زندگی واقعی است.

در حادثه اخیر، وکیل استیون آ. شوارتز در پرونده Mata v. Avianca Airlines اذعان کرد که به چت بات به عنوان یک منبع تحقیقاتی تکیه می کند. با این حال، معلوم شد که اطلاعات ارائه شده توسط ChatGPT کاملاً ساختگی بوده و موضوع مورد بحث را برجسته می کند.

ChatGPT OpenAI تنها نمونه ای نیست که سیستم های هوش مصنوعی با توهم مواجه می شوند. هوش مصنوعی مایکروسافت، طی نمایشی از فناوری چت بات خود در ماه مارس، گزارش‌های درآمدی را بررسی کرد و ارقام نادرستی برای شرکت‌هایی مانند Gap و Lululemon ایجاد کرد.

مجله: ۲۵ هزار معامله‌گر روی سهام ChatGPT شرط می‌بندند، هوش مصنوعی در پرتاب تاس‌ها و موارد دیگر شرط می‌بندد.

منبع: https://cointelegraph.com/news/here-s-how-openai-plans-to-cleanse-chatgpt-from-false-information