آیا افشای و ثبت آن خروجی های خطا و توهم AI Generative ChatGPT فایده ای دارد؟

شما درگیر یک راز هستید.

بله، در پشت صحنه چیزی در مورد جدیدترین هوش مصنوعی در حال وقوع است که شاید بخواهید درباره آن بدانید.

در ستون امروز، انگیزه اخیر را برای جمع‌آوری خطاهای ادعا شده و سایر بیماری‌های مرتبط با مقاله‌های خروجی از یک برنامه هوش مصنوعی به نام ChatGPT بررسی می‌کنم. این برنامه خاص از نوعی هوش مصنوعی به نام استفاده می کند هوش مصنوعی مولد. احتمالاً سرفصل های چشم نوازی در مورد هوش مصنوعی مبتنی بر تولید و ChatGPT شنیده یا دیده اید. اخبار مربوط به این اپلیکیشن خاص هوش مصنوعی و قابلیت‌های به ظاهر شگفت‌انگیز مربوط به این نوع هوش مصنوعی نگران کننده است.

همانطور که در یک لحظه به آن می پردازم، برخی به شدت معتقدند که ما باید فهرستی از انواع اشتباهات یا خطاهایی را که برنامه هوش مصنوعی هنگام تولید مقاله برای شما ایجاد می کند، ایجاد کنیم. برخی دیگر معتقدند که اگرچه تصور چنین فهرستی تحسین برانگیز است، اما تمرینی بیهوده است و ثمره بسیار کمی خواهد داشت.

ما هر دو طرف آن بحث کینه توزانه را بررسی خواهیم کرد.

ابتدا، بیایید مطمئن شویم که همه در مورد آنچه که هوش مصنوعی مولد از چه چیزی تشکیل شده و همچنین ChatGPT در یک صفحه هستیم.

ChatGPT یک سیستم مکالمه محور تعاملی هوش مصنوعی همه منظوره است، که اساساً یک چت ربات عمومی به ظاهر بی ضرر است، با این وجود، مردم بطور فعال و مشتاقانه از آن استفاده می کنند به گونه ای که بسیاری از افراد را کاملاً غافلگیر می کند. تنها کاری که برای استفاده از این نوع هوش مصنوعی باید انجام دهید این است که یک درخواست وارد کنید و برنامه هوش مصنوعی برای شما مقاله ای ایجاد می کند که سعی می کند به درخواست شما پاسخ دهد.

متأسفانه، این می تواند به روش های غیراخلاقی یا غیراخلاقی استفاده شود. یکی از نگرانی‌های آزاردهنده این است که دانش‌آموزان می‌توانند از یک برنامه هوش مصنوعی مبتنی بر تولید برای تولید مقالات اختصاص داده شده برای آنها استفاده کنند و این کار را با وارد کردن یک یا دو جمله به سادگی انجام دهند تا برنامه در جهت درست قرار گیرد. برخی اظهار تاسف می کنند که این بدان معناست که دانش آموزان هنگام نوشتن انشا در خارج از کلاس تقلب را انتخاب می کنند. معلمان سعی می کنند بفهمند چه کاری باید انجام دهند، تجزیه و تحلیل و توصیه های من را در اینجا ببینید پیوند اینجا.

علیرغم هیاهوی دائمی ستایش‌های قابل ستایش ChatGPT، نگرانی کمتر شناخته شده‌ای وجود دارد که عمدتاً توسط خودی‌های هوش مصنوعی بیان شده است مبنی بر اینکه برخی مسائل و نگرانی‌های قابل توجهی وجود دارد که مردم باید نگران آن باشند. یکی از نکات منفی مهم این است که مقالات تولید شده توسط این برنامه هوش مصنوعی می‌تواند دارای دروغ‌های مختلفی باشد، از جمله حقایق آشکارا نادرست، حقایقی که به‌طور گمراه‌کننده به تصویر کشیده شده‌اند، و حقایق ظاهری که کاملاً ساختگی هستند. آن جنبه های ساختگی اغلب به عنوان شکلی از نامیده می شود توهمات هوش مصنوعی، عبارتی جذاب که من از آن خوشم نمی آید اما به نظر می رسد که به هر حال متأسفانه در حال جلب توجه مردم است (برای توضیح دقیق من در مورد اینکه چرا این اصطلاحات بد و نامناسب است، به پوشش من در پیوند اینجا).

من می خواهم قبل از پرداختن به بحث در مورد این موضوع، یک جنبه مهم را روشن کنم.

در مورد این موضوع در شبکه‌های اجتماعی ادعاهای بزرگی وجود دارد هوش مصنوعی مولد ادعا می کند که این آخرین نسخه از هوش مصنوعی در واقع است هوش مصنوعی حساس (نه، آنها اشتباه می کنند!). کسانی که در اخلاق هوش مصنوعی و قانون هوش مصنوعی هستند به طور مشخص نگران این روند رو به رشد ادعاهای گسترده هستند. ممکن است مودبانه بگویید که برخی افراد درباره آنچه که هوش مصنوعی امروزی واقعاً می تواند انجام دهد اغراق می کنند. آنها تصور می کنند که هوش مصنوعی دارای قابلیت هایی است که ما هنوز نتوانسته ایم به آنها دست پیدا کنیم. این مایه تاسف است. بدتر از آن، آن‌ها می‌توانند به خود و دیگران اجازه دهند در موقعیت‌های وخیم قرار بگیرند، زیرا این تصور وجود دارد که هوش مصنوعی هوشیار یا انسان‌مانند خواهد بود تا بتواند اقدامی انجام دهد.

هوش مصنوعی را انسان سازی نکنید.

انجام این کار شما را در یک تله اتکای چسبناک و بی حوصله گرفتار می کند که انتظار دارید هوش مصنوعی کارهایی را انجام دهد که قادر به انجام آن نیست. با توجه به آنچه گفته شد، جدیدترین هوش مصنوعی مولد برای کارهایی که می تواند انجام دهد نسبتاً چشمگیر است. البته توجه داشته باشید که محدودیت های قابل توجهی وجود دارد که باید به طور مداوم هنگام استفاده از هر برنامه هوش مصنوعی مولد در نظر داشته باشید.

اگر به هیاهوی به سرعت در حال گسترش در مورد ChatGPT و هوش مصنوعی Generative که همه گفته شد علاقه دارید، من یک سری متمرکز در ستون خود انجام داده ام که ممکن است برای شما آموزنده باشد. اگر هر یک از این موضوعات مورد توجه شما قرار بگیرد، در اینجا نگاهی اجمالی داریم:

  • 1) پیش بینی پیشرفت های مولد هوش مصنوعی. اگر می‌خواهید بدانید چه چیزی در مورد هوش مصنوعی در طول سال 2023 و بعد از آن، از جمله پیشرفت‌های آتی در هوش مصنوعی و ChatGPT، ممکن است بدانید، می‌خواهید فهرست جامع پیش‌بینی‌های سال 2023 من را در اینجا بخوانید. پیوند اینجا.
  • 2) هوش مصنوعی و مشاوره سلامت روان. من تصمیم گرفتم بررسی کنم که چگونه از هوش مصنوعی و ChatGPT مولد برای مشاوره سلامت روان استفاده می شود، روندی دردسرساز، بر اساس تجزیه و تحلیل متمرکز من در پیوند اینجا.
  • 3) زمینه و استفاده از هوش مصنوعی مولد. من همچنین یک معاینه فصلی زبان در گونه در مورد زمینه مرتبط با بابانوئل انجام دادم که شامل ChatGPT و هوش مصنوعی در پیوند اینجا.
  • 4) کلاهبردارانی که از هوش مصنوعی مولد استفاده می کنند. در یک یادداشت شوم، برخی از کلاهبرداران متوجه شده‌اند که چگونه از هوش مصنوعی و ChatGPT برای انجام کارهای خلاف استفاده کنند، از جمله ایجاد ایمیل‌های کلاهبرداری و حتی تولید کد برنامه‌نویسی برای بدافزار، به تحلیل من در اینجا مراجعه کنید. پیوند اینجا.
  • 5) اشتباهات تازه کار با استفاده از هوش مصنوعی. بسیاری از مردم هم از آنچه که هوش مصنوعی و ChatGPT مولد می‌توانند انجام دهند، غافلگیر می‌شوند و به‌طور شگفت‌انگیزی کم‌کم می‌کنند، بنابراین من به‌ویژه به کم‌نظمی‌هایی که تازه‌کاران هوش مصنوعی تمایل دارند انجام دهند، نگاه کنید. پیوند اینجا.
  • 6) مقابله با هشدارهای هوش مصنوعی و توهمات هوش مصنوعی. من یک رویکرد پیشرفته برای استفاده از افزونه‌های هوش مصنوعی برای مقابله با مسائل مختلف مرتبط با تلاش برای وارد کردن اعلان‌های مناسب در هوش مصنوعی مولد را توضیح می‌دهم، به‌علاوه افزونه‌های هوش مصنوعی اضافی برای تشخیص به اصطلاح خروجی‌ها و دروغ‌های توهم‌آمیز هوش مصنوعی وجود دارد. پوشیده شده در پیوند اینجا.
  • 7) رد ادعاهای Bonehead در مورد شناسایی مقالات تولید شده توسط هوش مصنوعی. هجوم نادرستی از برنامه‌های هوش مصنوعی وجود دارد که اعلام می‌کنند می‌توانند مشخص کنند که آیا هر مقاله‌ای که توسط انسان تولید شده است یا خیر. به طور کلی، این گمراه کننده است و در برخی موارد، یک ادعای بی اساس و غیرقابل دفاع است، پوشش من را در پیوند اینجا.
  • 8) ایفای نقش از طریق هوش مصنوعی مولد ممکن است معایب سلامت روان را به همراه داشته باشد. برخی از هوش مصنوعی مولد مانند ChatGPT برای انجام نقش آفرینی استفاده می کنند، به موجب آن برنامه هوش مصنوعی به انسان پاسخ می دهد که انگار در یک دنیای فانتزی یا سایر تنظیمات ساختگی وجود دارد. این می تواند پیامدهای سلامت روانی داشته باشد، ببینید پیوند اینجا.

بیایید در حال حاضر در مورد ماهیت AI و ChatGPT مولد بحث کنیم تا پایه های مربوط به آن را بشناسید. سپس ما آماده خواهیم بود تا به تجزیه و تحلیل کاوشگری درباره دروغ هایی که این برنامه های هوش مصنوعی به طور بالقوه می توانند ایجاد کنند بپردازیم. من چندین نمونه از استفاده از ChatGPT را درج خواهم کرد، که به شما کمک می کند تا ماهیت آنچه را که این نوع هوش مصنوعی تولید می کند را درک کنید.

باز کردن Can Of Worms در هوش مصنوعی مولد

ما آماده ایم تا به جزئیاتی در مورد هوش مصنوعی بپردازیم.

اگر قبلاً در موضوع هوش مصنوعی و ChatGPT بسیار مسلط هستید، ممکن است ترجیح دهید به طور خلاصه نکات من را مرور کنید و به بخش بعدی این بحث ادامه دهید. برای بقیه، من معتقدم که ممکن است این توضیح برای شما مفید باشد.

به طور خلاصه، هوش مصنوعی مولد نوع خاصی از هوش مصنوعی است که متنی را طوری می سازد که گویی متن توسط دست و ذهن انسان نوشته شده است. تنها کاری که باید انجام دهید این است که یک اعلان وارد کنید، مانند جمله ای مانند "درباره آبراهام لینکلن به من بگو" و هوش مصنوعی مولد مقاله ای در مورد لینکلن در اختیار شما قرار می دهد. این معمولاً به عنوان هوش مصنوعی مولد طبقه بندی می شود که انجام می دهد متن به متن یا برخی ترجیح می دهند آن را صدا کنند متن به مقاله خروجی ممکن است در مورد سایر حالت‌های هوش مصنوعی مانند تبدیل متن به هنر و متن به ویدیو شنیده باشید.

اولین فکر شما ممکن است این باشد که از نظر تولید مقاله چندان مهم به نظر نمی رسد. شما به راحتی می توانید یک جستجوی آنلاین در اینترنت انجام دهید و به راحتی هزاران مقاله در مورد رئیس جمهور لینکلن پیدا کنید. نکته مهم در مورد هوش مصنوعی مولد این است که مقاله تولید شده نسبتاً منحصر به فرد است و یک ترکیب اصلی را به جای یک کپی ارائه می دهد. اگر بخواهید مقاله تولید شده توسط هوش مصنوعی را در جایی آنلاین پیدا کنید، بعید است که آن را کشف کنید.

هوش مصنوعی مولد از قبل آموزش داده شده است و از یک فرمول پیچیده ریاضی و محاسباتی استفاده می کند که با بررسی الگوها در کلمات نوشته شده و داستان ها در سراسر وب تنظیم شده است. در نتیجه بررسی هزاران و میلیون‌ها متن نوشته شده، هوش مصنوعی می‌تواند مقالات و داستان‌های جدیدی را منتشر کند که ترکیبی از آنچه پیدا شده است. با افزودن عملکردهای احتمالی مختلف، متن حاصل در مقایسه با آنچه در مجموعه آموزشی استفاده شده است، تقریباً منحصر به فرد است.

به همین دلیل است که سر و صدایی در مورد اینکه دانش آموزان می توانند هنگام نوشتن انشا در خارج از کلاس درس تقلب کنند، به وجود آمده است. یک معلم نمی‌تواند صرفاً این مقاله را که دانش‌آموزان فریبکار ادعا می‌کنند نوشته خودشان است، بپذیرد و به دنبال این باشد که بفهمد آیا این مقاله از منبع آنلاین دیگری کپی شده است یا خیر. به طور کلی، هیچ مقاله قطعی و قطعی آنلاین وجود نخواهد داشت که متناسب با مقاله تولید شده توسط هوش مصنوعی باشد. در مجموع، معلم باید با اکراه بپذیرد که دانش آموز مقاله را به عنوان یک اثر اصلی نوشته است.

در یک لحظه، من به شما نشان خواهم داد که چه اتفاقی می‌افتد وقتی سؤالات یا درخواست‌ها را در هوش مصنوعی مولد وارد می‌کنید. من از آخرین نسخه ChatGPT برای وارد کردن درخواست‌هایم استفاده خواهم کرد و «پاسخ‌ها» یا مقالات تولید شده توسط هوش مصنوعی را جمع‌آوری کرده‌ام (توجه داشته باشید که همین کار را می‌توان با سایر برنامه‌های هوش مصنوعی مولد موجود انجام داد؛ من استفاده از آن را انتخاب کردم. ChatGPT زیرا در حال حاضر پنج دقیقه شهرت خود را به دست می آورد).

شاید یک مماس کوتاه در مورد ChatGPT در این مقطع مفید باشد.

اپلیکیشن ChatGPT چند ماه پیش در دسترس عموم قرار گرفت. به طور کلی، این برنامه‌های هوش مصنوعی مولد معمولاً فقط برای افراد داخلی در دسترس هستند. جنبه غیرمعمول این که ChatGPT می تواند توسط هر کسی با وارد کردن یک آدرس ایمیل و یک نام استفاده شود، خوب، این باعث شد که افراد زیادی تصمیم بگیرند آن را امتحان کنند. استفاده از ChatGPT در حال حاضر رایگان است (مسئله کسب درآمد یک معضل بزرگ برای سازندگان هوش مصنوعی است).

تقریباً بلافاصله یک واکنش هولناک در رسانه‌های اجتماعی به وجود آمد زیرا مردم برای ارائه نمونه‌هایی از آنچه که هوش مصنوعی مولد می‌تواند انجام دهد مسابقه دادند. شرکت سازنده ChatGPT، OpenAI، تصمیم گرفت ثبت نام های یک میلیون کاربر را ببندد. آن میلیون کاربر موفق شده اند امواج رادیویی را با انواع داستان ها و داستان ها در مورد استفاده از ChatGPT بمباران کنند.

در باور آنچه مردم در مورد برنامه هوش مصنوعی می گویند بسیار مراقب باشید. بسیاری از این افراد از آنچه استفاده می کنند بی اطلاع هستند. تقریباً مثل این است که آنها هرگز ماشینی رانده نشده بودند و حتی متوجه وجود ماشین‌ها هم نمی‌شدند، و ناگهان فرصتی برای رانندگی با ماشین پیدا کردند. شگفتی مطلق رخ می دهد.

من نمی گویم که هوش مصنوعی مولد نسبتاً چشمگیر نیست. این است. من فقط تاکید می‌کنم که بسیاری از توصیفات فوران‌کننده توسط بسیاری انجام می‌شود که به طرز سعادتی از آنچه هوش مصنوعی امروزی می‌تواند انجام دهد بی‌اطلاع است. کسانی از ما که در داخل هوش مصنوعی هستند، در چند سال گذشته از هوش مصنوعی مولد استفاده کرده‌ایم. شاید عادت کردیم ناگهان، دیدن جمعیت عظیمی از مردم که آن را به پشت بام‌ها تبلیغ می‌کنند، هیجان‌انگیز بوده، اما تا حدودی نگران‌کننده است. بخش نگران کننده زمانی است که مردم اعلام می کنند که هوش مصنوعی مولد حساس است. این نیست. اجازه ندهید کسی شما را در غیر این صورت متقاعد کند.

همانطور که گفته شد، بحث داغی در زمینه هوش مصنوعی وجود دارد که آیا هوش مصنوعی مولد در مسیر احساس قرار دارد یا نه. یک دیدگاه این است که اگر ما به افزایش مقیاس هوش مصنوعی مولد با رایانه‌های سریع‌تر و حجم بیشتری از داده‌ها مانند جست‌وجوی هر اینچ از اینترنت ادامه دهیم، تقریباً به طور خود به خود به هوش مصنوعی خواهیم رسید. دیگران استدلال می کنند که این بسیار بعید است. آنها پیشنهاد می کنند که هوش مصنوعی مولد ممکن است یکی از بسیاری از مؤلفه های مورد نیاز باشد. حتی این دیدگاه غم‌انگیزتر وجود دارد که هوش مصنوعی مولد یک نمایش فرعی است که ما را از پیشرفت‌های واقعی که برای دستیابی به هوش مصنوعی به آن نیاز داریم منحرف می‌کند.

همچنین ممکن است نکات قابل توجهی را پیدا کنید که خودی‌های هوش مصنوعی به آن اشاره می‌کنند هوش عمومی مصنوعی (AGI) به عنوان هدف آرزویی برای زمینه هوش مصنوعی. قبلاً هدف دستیابی بود هوش مصنوعی، اما نام هوش مصنوعی ضعیف و درهم شده است. وقتی کسی می‌گوید که در حال انجام کار هوش مصنوعی است، نمی‌دانید که آیا او به هوش مصنوعی امروزی اشاره می‌کند که با انسان‌ها همتراز نیست یا به یک هوش مصنوعی معادل انسان در آینده اشاره می‌کند. برای دور زدن این سردرگمی خشمگین، این روزها از عبارت جدیدتر AGI استفاده می شود.

به طور کلی، هوش مصنوعی مولد امروزی است نه حساس است، نه AGI.

لطفاً به یاد داشته باشید که همانطور که قبلاً بحث شد، هوش مصنوعی حساس نیست. پاسخ‌های تولید شده توسط هوش مصنوعی ترکیبی ریاضی و محاسباتی از کلمات در متن‌های به ظاهر روان است. این مبتنی بر الگوریتم هوش مصنوعی است که بر روی مجموعه داده هایی از کلمات و داستان هایی که انسان ها نوشته اند (عمدتاً همانطور که در اینترنت ارسال شده است) آموزش داده شده است. من این هشدار را تکرار می کنم زیرا بدون شک در این تله ذهنی خواهید افتاد که این پاسخ ها آنقدر روان هستند که هوش مصنوعی باید حساس باشد. این برای اکثر مردم اتفاق می افتد. همانطور که قبلاً گفته شد، آنتروپومورفیسم را کنار بگذارید. همیشه به یاد داشته باشید که پاسخ ها بر اساس گنجینه گسترده ای از نوشته های انسان است که در اینترنت وجود دارد و بنابراین بسیار شبیه به نوشته های انسان خواهد بود.

چیز دیگری وجود دارد که باید بدانید.

هوش مصنوعی مولد که در اینترنت به روشی نامحدود آموزش داده می‌شود، تمایل دارد هر گونه پاسخ مبتنی بر متن را که از نظر ریاضی و محاسباتی برخی از موارد توهین‌آمیز، از جمله عبارت‌های زننده و زننده را ساخته است، بسازد. چیزهای دیوانه و کثیف زیادی در وب پست شده است.

دیدی، میفهمی چی میگم

شرکت‌هایی که این برنامه‌های هوش مصنوعی را می‌سازند نگران هستند که نوزاد ضرب المثل با آب حمام پرت شود (یک ضرب المثل قدیمی، شاید برای بازنشستگی)، به این معنی که اگر هوش مصنوعی آنها مقالات یا داستان‌های توهین‌آمیز تولید کند، مردم دست به دست می‌شوند. در مورد هوش مصنوعی من بسیاری از نمونه‌های قبلی را پوشش داده‌ام که در آنها این نوع برنامه‌های هوش مصنوعی پردازش زبان طبیعی (NLP) رونمایی شد و به زودی همه چیز وحشتناک از آنها بیرون آمد (این موارد را در ستون خود پوشش داده‌ام). بسیاری از سازندگان هوش مصنوعی درس سختی را در مورد اجازه دادن به محصولات هوش مصنوعی خود در خروجی‌هایشان بدون محدودیت آموختند.

در مورد ChatGPT، توسعه‌دهندگان هوش مصنوعی به دنبال اعمال برخی بررسی‌ها و تعادل‌های الگوریتمی و مرتبط با داده‌ها برای جلوگیری از بدرفتاری در خروجی‌های هوش مصنوعی بودند. بخشی از این اتفاق در زمان تمرین رخ داد. علاوه بر این، ابزارهای دیگری در تلاش بلادرنگ برای جلوگیری از خروجی های به خصوص فاحش وجود دارد.

ممکن است برایتان جالب باشد که برخی از افرادی که از ChatGPT استفاده کرده‌اند، قبلاً راه‌های پنهانی برای دور زدن آن نرده‌های محافظ با استفاده از ترفندهای مختلف پیدا کرده‌اند. در این مسائل یک بازی موش و گربه در جریان است. کسانی که این حقه‌ها را انجام می‌دهند، گاهی برای سرگرمی این کار را انجام می‌دهند، در حالی که گاهی (حداقل ادعا می‌کنند) این کار را انجام می‌دهند تا ببینند هوش مصنوعی تا چه حد می‌تواند کشیده شود و ابزار مفیدی برای هشدار دادن به شکنندگی و ضعف این جوانه‌ها فراهم کند. برنامه های هوش مصنوعی

تصمیم گرفتم در این کاوش متمرکز تلاشی برای دور زدن کنترل های مرسوم نکنم. خروجی متن تمیز است. مطمئناً، اگر کسی بخواهد این کار را انجام دهد، بدون شک می‌توانید چند مقاله عجیب و غریب و ناخوشایند تولید کنید.

مقالات تولید شده توسط اکثر این برنامه‌های هوش مصنوعی مولد به گونه‌ای طراحی شده‌اند که خروجی را کاملاً واقعی و دقیق نشان دهند. وقتی مقالات تولید شده را می خوانید، کاملاً با اعتماد به نفس مواجه می شوند. معمولاً هیچ نوع نشانه ای وجود ندارد که محتوا ممکن است سنگی باشد. این با انتخاب سازندگان هوش مصنوعی است، یعنی اگر می‌خواهند برنامه هوش مصنوعی این کار را انجام دهد، می‌توانند برنامه‌های هوش مصنوعی را برای شفاف‌تر بودن اصلاح کنند.

گاهی اوقات، یک برنامه هوش مصنوعی مولد در میان داده های آموزشی اطلاعات غیرقابل اعتماد در سراسر اینترنت، نادرست را انتخاب می کند. هیچ «عقل سلیمی» در هوش مصنوعی مولد برای تعیین درست در مقابل نادرست وجود ندارد. علاوه بر این، تعداد بسیار کمی از برنامه‌های هوش مصنوعی دارای بررسی متقاطع هستند و هیچ گونه احتمال مرتبط با آنچه را که منتقل می‌کنند را نشان نمی‌دهند.

نتیجه نهایی این است که شما پاسخی دریافت می‌کنید که به نظر می‌رسد و احساس می‌کند که اطمینان بالایی دارد و باید کاملاً صحیح باشد. اینطور نیست. حتی این احتمال وجود دارد که چیزهای محاسباتی ساخته شده توسط هوش مصنوعی، که در اصطلاح هوش مصنوعی به آنها گفته می شود، وجود دارد. توهمات هوش مصنوعی (اصطلاح ابداع شده ای که من قطعاً آن را دوست ندارم)، بحث من را در اینجا ببینید پیوند اینجا.

سازندگان ChatGPT تلاش های هماهنگی را برای کاهش خروجی چیزهای بد انجام دادند. به عنوان مثال، آنها از نوعی از آنچه به عنوان شناخته می شود استفاده کردند RLHF (آموزش تقویتی از بازخورد انسانی)، به موجب آن، قبل از اینکه هوش مصنوعی را برای عموم منتشر کنند، انسان‌هایی را استخدام کرده بودند تا خروجی‌های مختلف را بررسی کنند و به هوش مصنوعی نشان دهند که آیا این خروجی‌ها اشکالی دارد، مانند نمایش دادن سوگیری‌ها، کلمات ناپسند، و پسندیدن. با ارائه این بازخورد، اپلیکیشن هوش مصنوعی قادر به تنظیم محاسباتی و ریاضی در جهت کاهش انتشار چنین محتوایی بود. توجه داشته باشید که این یک روش آهنی تضمین شده نیست و هنوز راه هایی وجود دارد که چنین محتوایی می تواند توسط برنامه هوش مصنوعی منتشر شود.

شاید برایتان جالب باشد که ChatGPT بر اساس نسخه‌ای از یک برنامه هوش مصنوعی پیشین به نام GPT-3 است. ChatGPT به عنوان یک مرحله کمی بعدی در نظر گرفته می شود که به آن GPT-3.5 می گویند. پیش‌بینی می‌شود که GPT-4 احتمالاً در بهار سال 2023 منتشر شود. احتمالاً GPT-4 از نظر توانایی تولید مقالات به ظاهر روان‌تر، عمیق‌تر شدن و شگفت‌انگیز بودن، گامی چشمگیر به جلو خواهد بود. شگفتی الهام بخش از ترکیباتی که می تواند تولید کند.

شما می توانید انتظار داشته باشید که وقتی بهار فرا می رسد و جدیدترین هوش مصنوعی مولد منتشر می شود، دور جدیدی از ابراز تعجب را مشاهده کنید.

من این را مطرح می کنم زیرا زاویه دیگری وجود دارد که باید در نظر داشت، که شامل یک پاشنه آشیل بالقوه برای این برنامه های هوش مصنوعی مولد بهتر و بزرگتر است. اگر هر فروشنده هوش مصنوعی یک برنامه هوش مصنوعی مولد را در دسترس قرار دهد که به صورت کف آلود ناپاکی ها را بیرون می زند، این می تواند امید آن سازندگان هوش مصنوعی را از بین ببرد. یک سرریز اجتماعی می تواند باعث شود همه هوش مصنوعی مولد دچار سیاهی چشم شوند. مردم بدون شک از خروجی های ناخوشایند بسیار ناراحت خواهند شد، که قبلاً بارها اتفاق افتاده و منجر به واکنش شدید محکومیت های اجتماعی نسبت به هوش مصنوعی شده است.

یک هشدار نهایی در حال حاضر.

هر آنچه را که در یک پاسخ هوش مصنوعی مولد می بینید یا می خوانید به نظر می رسد برای اینکه کاملاً واقعی باشد (تاریخ، مکان ها، افراد و غیره)، مطمئن شوید که شک دارید و مایل باشید آنچه را می بینید دوباره بررسی کنید.

بله، خرما را می توان جعل کرد، مکان ها را می توان ساخت، و عناصری که معمولاً انتظار داریم بیش از حد ملامت باشند. تمام در معرض سوء ظن آنچه را که می خوانید باور نکنید و هنگام بررسی هر مقاله یا خروجی هوش مصنوعی با شک و تردید نگاه کنید. اگر یک اپلیکیشن مولد هوش مصنوعی به شما بگوید که آبراهام لینکلن با جت شخصی خود در سراسر کشور پرواز کرده است، بدون شک متوجه خواهید شد که این یک بیماری ناخوشایند است. متأسفانه، برخی از مردم ممکن است تشخیص ندهند که جت ها در زمان او وجود نداشتند، یا ممکن است بدانند اما متوجه این موضوع نباشند که این مقاله این ادعای جسورانه و ظالمانه نادرست را دارد.

دوز قوی از شک و تردید سالم و ذهنیت ناباوری مداوم بهترین دارایی شما در هنگام استفاده از هوش مصنوعی مولد خواهد بود.

ما آماده هستیم تا وارد مرحله بعدی این شفاف سازی شویم.

این تلاش‌ها برای ثبت خطاهای خروجی ChatGPT

این جمله معروف از موزیکال کلاسیک برادوی می گوید: «خب، دوست من، همین جا، من می گویم، مشکل اینجا در ریور سیتی است. مرد موسیقی.

همین خط می تواند در مورد هوش مصنوعی امروزی نیز صدق کند.

مردم متوجه شدند که یک برنامه هوش مصنوعی مولد می‌تواند نادرست تولید کند و واقعاً از این خروجی‌های آزاردهنده شگفت زده شدند. شاید برخی تصور می کردند که هوش مصنوعی قادر به انجام اشتباه نیست. دیگران ممکن است پیش بینی کرده باشند که توسعه دهندگان هوش مصنوعی اطمینان حاصل کنند که چنین خروجی هایی تولید نمی شود.

در هر صورت، خودی‌های هوش مصنوعی فوراً دریافتند که این نوع خروجی معیوب بخشی از جایی است که بیشتر هوش مصنوعی مولد امروزی قرار دارد. جلوگیری از این نوع خطاهای متنی بسیار سخت است. به خاطر داشته باشید که هوش مصنوعی هیچ شباهتی به عقل سلیم ندارد و در هنگام استخراج مقالات تولید شده از منطق استفاده نمی کند. کل کیت و کابودل در مورد انجام یک تطبیق آماری محاسباتی و الگوی احتمالی کلمات با کلمات دیگر است.

در ابتدا، خودی‌های هوش مصنوعی تصمیم گرفتند آن خروجی‌های عجیب و غریب کشف شده ChatGPT را در سایت‌های رسانه‌های اجتماعی پست کنند. به این یکی نگاه کنید، یکی اعلام می کند. این بد است، شخص دیگری پاسخ می دهد و سپس مثال دیگری ارائه می دهد که حتی بدتر به نظر می رسد. در و در این رفت.

این نمونه‌های نادرست و اشتباه در مقاله‌های خروجی منتشر می‌شد. یکی یکی. علاوه بر این، از آنجایی که این معمولاً در رسانه های اجتماعی پست می شد، راه آسانی برای دیدن همه آنها به یکباره وجود نداشت. اغلب اوقات مشابه یا نمونه مشابه توسط شخصی پست می‌شود که متوجه نشده بود دیگران قبلاً آن نمونه خاص را یافته‌اند.

آنهایی که پیشنهاد مفیدی را بیان کردند، در این باتلاق جوانه زده قدم گذاشتند. شاید ما باید یک مخزن یا پایگاه داده راه اندازی کنیم، شاید حتی یک صفحه گسترده معمولی روزمره، حاوی گویای عجیب و غریب ChatGPT و خروجی های اشتباهی که در حال کشف هستند. هر بار که شخصی زیبایی یک گاف را پیدا می کند، ادامه دهید و آن را وارد لیست کنید. برخی این را تقریباً به یک بازی تبدیل کرده‌اند، که در آن عمداً سعی می‌کنند ChatGPT را برای سرفه کردن خروجی‌های عجیب و غریب دریافت کنند. دیگران احتمالاً در طول استفاده از ChatGPT برای مقاصد تعیین‌شده دیگر با خروجی‌های معیوب مواجه می‌شوند.

به اندازه کافی ساده به نظر می رسد.

به نظر می رسد یک راه شیک و مفید برای کمک به همه ما باشد.

بیایید یک حسابداری مختصر انجام دهیم که چرا داشتن این نوع لیست ها در مورد خطاهای مشاهده شده خروجی یا نادرست های ChatGPT، کامپایل کردن بسیار منطقی است:

  • 1) مشکلات و نگرانی های حیاتی در مورد ChatGPT که عموم مردم باید از آن آگاه باشند را آشکار می کند
  • 2) به مقابله با تبلیغات بیش از حد و انتظارات متورم در مورد ChatGPT کمک می کند
  • 3) ممکن است سازندگان هوش مصنوعی را نه تنها برای ChatGPT بلکه برای سایر برنامه‌های هوش مصنوعی مولد نیز به پیشرفت‌ها سوق دهد.
  • 4) به عنوان یک رکورد تاریخی استفاده می شود که می تواند بعداً برای انعکاس آینده در مورد ظهور هوش مصنوعی مولد همانطور که از طریق ChatGPT مثال زده شد استفاده شود.
  • 5) یک منبع جمعی مناسب برای هر کسی باشید که نیاز دارد آنچه را که به نظر می رسد در رابطه با خروجی های اشتباه ChatGPT شناسایی کرده ایم بیابد.
  • 6) برای محققان همه رشته هایی که در حال بررسی تأثیرات ChatGPT هستند مفید است
  • 7) می تواند به عنوان معیاری برای اینکه چه کاری را نباید انجام داد و چگونه اندازه گیری کرد زمانی که هوش مصنوعی مولد کارها را آنطور که باید انجام نمی دهد استفاده شود.
  • 8) به ذهن کندو ضربه بزنید تا در مورد خطاهایی که ChatGPT ایجاد می کند، اطلاعاتی را به دست آورید، که بعید است تلاش فردی به طور کامل به طور مساوی برای آنها جمع آوری شود.
  • 9) می تواند اطلاعات مهمی برای اخلاق هوش مصنوعی و قانون هوش مصنوعی ارائه دهد
  • غیره

به نظر می رسد که این یک مبنای چشمگیر برای ایجاد این مخازن باشد.

چرا کسی با این اقدام کاملاً ستودنی و به ظاهر قهرمانانه مخالف است؟

بیایید نگاهی بیندازیم به آنچه دیگران در این مورد گفته اند، با فهرستی از دلایلی که چرا این میو گربه نیست:

  • 1) این خطاهای خروجی که احتمالاً یافت می شوند در طرح کلان چیزها بی اهمیت هستند و بیش از ارزش آنها وزن نابجا به آنها داده می شود.
  • 2) این احتمال وجود دارد که سازنده هوش مصنوعی قبلاً گزارش خود را انجام داده و ChatGPT را به روز می کند به طوری که این نمونه های عجیب و غریب به زودی فقط در گرد و غبار رها می شوند و دیگر رخ نمی دهند.
  • 3) به همین ترتیب، نسخه بعدی احتمالاً به هر حال بهتر خواهد بود و ممکن است دیگر این نمونه‌های قدیمی را که به زودی منسوخ می‌شوند نشان ندهد.
  • 4) شما نمی‌توانید هیچ نتیجه‌گیری جامعی بگیرید یا از مجموعه‌ای تصادفی از نمونه‌های ضربه یا از دست دادن خطا به دست آورید.
  • 5) برخی ممکن است از مجموعه های مختلف استفاده کنند تا به طور چشمگیری اعلام کنند که هوش مصنوعی مولد بد است و ما باید به طور خلاصه تمام تعقیب این نوع هوش مصنوعی را متوقف کنیم.
  • 6) سرعت پیشرفت هوش مصنوعی و ChatGPT مولد آنقدر سریع است که این نمونه ها به سرعت از بین می روند و دیگر مرتبط نیستند.
  • 7) با توجه به تعداد زیادی از این فهرست های جمعی در دست اجرا و هیچ منبع جهانی مسح شده واحدی، موضوع از هم گسیخته و احتمالاً حاوی تکرارها و به طور غیرقابل قبولی تکه تکه شده است.
  • 8) حس نادرستی از انجام یک کار مفید را ارائه می دهد، در حالی که شاید بتوان زمان و توجه را به استفاده های بهتر دیگری اختصاص داد.
  • 9) هیچ چیز اساسی برای اخلاق هوش مصنوعی و قانون هوش مصنوعی ارائه نمی کند
  • غیره

ممکن است متوجه شده باشید که من سعی کردم با ذکر XNUMX دلیل به نفع لیست های جمعی و XNUMX دلیل در مورد نارضایتی، همه چیز را یکنواخت نگه دارم. دلایل دیگری نیز وجود دارد که می توان بیان کرد، اما من معتقدم که نشانه فوق ماهیت چیزها را نشان می دهد.

برای کسانی که این فهرست‌های جمعی را جمع‌آوری می‌کنند، احتمالاً می‌گویند که اگر واقعاً بخواهند این کار را انجام دهند، دنیای آزاد است و می‌توانند هر طور که می‌خواهند انجام دهند. هیچ مشکلی در آن نیست. کسانی که از این تلاش ها ناراضی هستند، عموماً کوچک هستند و باید مجموعه ها را نادیده بگیرند. سرت به کار خودت باشه.

در اصل، بدون آسیب، بدون خطا.

اردوگاهی که به نظر می‌رسد از فهرست‌های جمعی ناراضی است، عموماً تصدیق می‌کند که اگر دیگران بخواهند می‌توانند آن فهرست‌ها را تهیه کنند، اما سوزن را تکان نمی‌دهد. لیست ها به خصوص مفید نیستند. بدتر از آن، فهرست ها ممکن است نادرست معرفی شوند یا مورد سوء استفاده قرار گیرند. احتمالاً بهتر است یک روز با آن تماس بگیرید و از ساختن لیست ها دست بردارید.

در اصل، این یک تلاش خوب است، هرچند تمرینی در بیهودگی.

در این بحث دلچسب کجا ساکن هستید؟

من به شما اجازه می دهم در مورد آن فکر کنید.

نمونه هایی از خطاهای یافت شده و سایر خروجی های نادرست ChatGPT

من فکر کردم که ممکن است برخی از خطاهای خروجی شناسایی شده یا نادرستی که در این لیست های مجموعه ظاهر شده اند، بسیار مورد علاقه شما باشند.

نمی‌خواهم فکر کنید که چندین نمونه نشان داده شده در اینجا کل مجموعه‌ها هستند. این نیست. من فقط یک مشت را انتخاب می کنم که اغلب ظاهر می شود. من معتقدم که شما حداقل قادر خواهید بود به طور کلی لحن و ماهیت آنچه فهرست شده است را درک کنید.

در اینجا چیزی است که من برای پوشش آن انتخاب می کنم:

  • شناسایی موقعیت حروف در یک کلمه
  • سوال در مورد سریعترین حیوان
  • تعیین موقعیت توالی کلمات
  • قرار دادن توپ های تنیس در یک لوله
  • تعیین Pi
  • پاسخ به یک معمای دردسرساز کلاسیک
  • بلند کردن پرها

من پیش بینی می کنم که برخی از ناظران مجموعه ها از اینکه نمونه های بیشتری را برای شما نمی نویسم ناراحت شوند. به دلیل محدودیت فضا، تعداد زیادی وجود دارد که می توانم پوشش دهم. اگر می‌خواهید نگاهی به فهرست‌های مجموعه‌ای بیندازید که آشکارا در اینترنت منتشر می‌شوند، یک جستجوی آنلاین ساده می‌تواند بسیاری از آنها را به ارمغان بیاورد. برخی از لیست ها خصوصی نگه داشته می شوند، یا به گونه ای قفل شده اند که می توانید لیست را ببینید اما نمی توانید تغییراتی در لیست ایجاد کنید.

با این پیشینه، ما آماده هستیم تا به چند نمونه بپردازیم. من دستوری را که وارد کردم به شما نشان خواهم داد. بعد، پاسخ متنی تولید شده توسط ChatGPT را نشان می دهم. در برخی موارد، من چندین بار پشت سر هم در مورد یک موضوع خاص انجام داده ام، بنابراین مجموعه ای از دستورات و خروجی ها را بر این اساس نشان خواهم داد. پس از انجام این کار، تجزیه و تحلیل مختصری از آنچه ممکن است بخواهید در مورد مثال توجه کنید ارائه خواهم کرد.

مثال اول مستلزم درخواست از ChatGPT برای یافتن یک حرف در یک کلمه ارائه شده است.

شناسایی موقعیت حروف در یک کلمه

  • متن وارد شده من: "حرف V در محیط کجاست"
  • پاسخ متنی ایجاد شده توسط ChatGPT: حرف "V" در کلمه "محیط" ظاهر نمی شود. کلمه "محیط" از حروف e، n، v، i، r، o، n، m، e، n و t تشکیل شده است.
  • متن وارد شده من: "حرف v در محیط کجاست"
  • پاسخ متنی ایجاد شده توسط ChatGPT: "حرف "v" چهارمین حرف در کلمه "محیط" است.

تجزیه و تحلیل متن تولید شده

توجه داشته باشید که من با درخواست از ChatGPT برای شناسایی موقعیت حرف "V" در کلمه "محیط" شروع کردم - این باید یک کار بسیار ساده باشد و ما انتظار داریم که بدون نقص انجام شود. هیچ علم موشکی در کار نیست.

پاسخ اولیه ایجاد شده توسط ChatGPT کمی نگران کننده است زیرا به ما اطلاع داده شده است که حرف "V" در کلمه "محیط زیست" وجود ندارد. من و شما می دانیم که چنین نامه ای وجود دارد. یکی فرض می کند که شاید به دلیل استفاده از حروف بزرگ، برنامه هوش مصنوعی به نحوی از کار افتاده است. شاید اگر از حروف کوچک استفاده کنم، برنامه هوش مصنوعی بهتر عمل کند.

نه واقعا.

وقتی از من پرسیدم که آیا "v" در کلمه وجود دارد یا خیر، برنامه هوش مصنوعی با نشان دادن این که حرف چهارم است که من و شما می دانیم اشتباه است و به جای آن حرف سوم است پاسخ داد.

بسیاری از مردم مطمئناً از این نتیجه متحیر خواهند شد. چگونه یک برنامه هوش مصنوعی که مقالات کاملی درباره آبراهام لینکلن تولید می کند که کاملاً روان و اصیل هستند، به نحوی نمی تواند بفهمد که یک حرف معین در یک کلمه خاص کجا قرار دارد؟ این حیرت آور و دهان به شدت عجیب است.

یک دیدگاه این است که این کاملاً بی‌اهمیت است و جهان آنطور که ما می‌شناسیم، به دلیل فقدان تشخیص اینکه یک حرف خاص کجا می‌نشیند، در هسته اصلی آن تکان نمی‌خورد. رهایش کن.

دیدگاه دیگر این است که این ممکن است نویدبخش مسائل پنهان دیگری باشد که ما هنوز در مورد آنها نمی دانیم. شاید این نوع خروجی قناری در قفس پرنده باشد. بهتر است چیزهای کوچک را کنار بگذاریم، در غیر این صورت ممکن است خود را در مسیر اشتباه چیزهای واقعا بزرگ قرار دهیم.

در ادامه، من یک سوال در مورد حیوانات می پرسم.

سوال در مورد سریعترین حیوان

  • متن وارد شده من: سریعترین حیوانی که خز و بال دارد کدام است؟
  • پاسخ متنی ایجاد شده توسط ChatGPT: شاهین شاهین سریع ترین حیوان جهان در نظر گرفته می شود. هنگام غواصی برای گرفتن طعمه خود می تواند به سرعت بیش از 389 کیلومتر در ساعت (242 مایل در ساعت) برسد. پر دارد اما خز ندارد. این پرنده است نه حیوانی که خز و بال داشته باشد.»

تجزیه و تحلیل متن تولید شده

پرسیدم سریع ترین حیوانی که خز و بال دارد کدام است؟ من فکر می کنم منطقی است استنباط کنم که می خواستم حیوانی به نام بگیرم که هر دو خز داشته باشد و بال ها من فرض می کنم که شما پرس و جو من را به این شکل تفسیر می کنید. اکثر مردم این کار را خواهند کرد.

پاسخ ChatGPT کمی عجیب و غریب است.

به ما گفته می شود که شاهین شاهین سریع ترین حیوان جهان است. به گزارش آنلاین دانشنامه بریتانیکا ، به نظر می رسد یوزپلنگ سریع ترین حیوان جهان است. همانطور که گفته شد، پاسخ ChatGPT نشان می دهد که شاهین شاهین حیوانی نیست، حتی اگر من پرسیده بودم سریع ترین حیوان چیست. پاسخ ChatGPT همچنین به من می‌گوید که شاهین شاهین خز ندارد، اگرچه فکر می‌کنم چیزی خواسته بودم که هم خز داشته باشد و هم بال.

در مجموع، به نظر می رسد که ChatGPT درخواست من را "سوء تعبیر" کرده است و فقط بر جنبه های بال تمرکز کرده است. اما این کاملاً درست نیست زیرا پاسخ همچنین شامل نظری در مورد خز و پرندگان در مقابل حیوانات بود. دور و بر این یکی می رود.

من متوجه هستم که شما ممکن است استدلال کنید که این یک مثال دقیق است.

شاید اینطور باشد، اگرچه ممکن است همچنین نشان دهد که آنچه شما در یک اعلان می گویید می تواند نتیجه بدی داشته باشد و بهتر است در بررسی آنچه در خروجی ظاهر می شود مراقب باشید. توجه داشته باشید که این یک پاسخ مقاله فوق‌العاده کوتاه برای بررسی آسان بود، زیرا طولانی است. اگر مقاله ای به خصوص طولانی و بسیار فنی دریافت کرده اید، ممکن است فریب بخورید یا به طور کلی از تشخیص یک نشانه نامطلوب که عمیقاً در پاسخ خروجی جاسازی شده است غافل شوید.

بیایید در ادامه نگاهی به یافتن یک کلمه در یک جمله بیندازیم.

تعیین موقعیت توالی کلمات

  • متن وارد شده من: سومین کلمه در جمله «روباه از حصار پرید» چیست؟
  • پاسخ متنی ایجاد شده توسط ChatGPT: سومین کلمه در جمله "روباه از حصار پرید." "روباه" است
  • متن وارد شده من: "در جمله ارائه شده چند کلمه وجود دارد؟"
  • پاسخ متنی ایجاد شده توسط ChatGPT: "در جمله ارائه شده "روباه از روی حصار پرید" شش کلمه وجود دارد.
  • متن وارد شده من: "کدام کلمه در آن جمله سوم است؟"
  • پاسخ متنی ایجاد شده توسط ChatGPT: کلمه ای که در جمله «روباه از حصار پرید» سوم است. "پریده" است

تجزیه و تحلیل متن تولید شده

این مثال تقریباً به اندازه مثال قبلی در مورد یافتن حرف "v" در یک کلمه خاص فریبنده است.

یک جمله ساده ارائه کردم و پرسیدم کلمه سوم چیست؟ ChatGPT نشان داد که این کلمه "روباه" است که تنها کلمه دوم جمله است. جواب اشتباه. سپس پرسیدم که چند کلمه در جمله وجود دارد، می‌خواستم بدانم که آیا ChatGPT تعداد کلمات را اشتباه شمارش کرده است. به ما گفته می شود که شش کلمه وجود دارد، درست است.

در نهایت، وقتی سوال اصلی خود را دوباره پرسیدم، پاسخ صحیح را در مورد کلمه سوم دریافت کردیم، هرچند کمی بازنویسی شده بود.

من این مثال را آورده‌ام تا نشان دهم که گاهی اوقات با هوش مصنوعی مولد می‌توانید پاسخ اشتباهی دریافت کنید که در نهایت می‌تواند با استفاده از برنامه هوش مصنوعی از طریق یک سری درخواست‌ها به پاسخ درست تبدیل شود. برخی از خودی های هوش مصنوعی از این به عنوان نوعی از آن یاد می کنند پروتکل با صدای بلند فکر کنید یا یک سلسله ای از افکار رویکرد، که در آن شما ممکن است کاری مشابه با یک انسان انجام دهید.

در مورد هوش مصنوعی، متوجه باشید که این هوش مصنوعی به همان شکل فکر انسان «فکر» نیست. عبارت مناسب تر این است که بگوییم ممکن است دستورات خود را در a وارد کنید گام به گام اساس یا انجام یک مجموعه ای از اعلان های مرتبط با زنجیره.

به هر حال، جالب است که گاهی اوقات راه رفتن با یک برنامه هوش مصنوعی مولد تا زمانی که پاسخ مناسبی دریافت نکنید، سودمند است. این را در نظر داشته باشید.

در ادامه نگاهی به منطق ساده حسابی می اندازیم.

قرار دادن توپ های تنیس در یک لوله

  • متن وارد شده من: "آیا می توانید سه توپ سبز تنیس و دو توپ زرد تنیس را در لوله ای قرار دهید که حاوی چهار توپ تنیس باشد؟"
  • پاسخ متنی ایجاد شده توسط ChatGPT: نه، نمی‌توان سه توپ سبز تنیس و دو توپ زرد تنیس را در لوله‌ای قرار داد که فقط شامل چهار توپ تنیس باشد. تعداد کل توپ های تنیس پنج عدد است که از ظرفیت لوله بیشتر است.
  • متن وارد شده من: "آیا می توانید هفت توپ آبی و دو توپ قرمز را در لوله ای قرار دهید که هشت توپ را در خود جای دهد؟"
  • پاسخ متنی ایجاد شده توسط ChatGPT: "بله، می توان هفت توپ آبی و دو توپ قرمز را در لوله ای قرار داد که هشت توپ را در خود جای می دهد. تعداد کل توپ ها XNUMX عدد است که کمتر یا مساوی ظرفیت لوله است.

تجزیه و تحلیل متن تولید شده

من با تنظیم یک مسئله منطقی محاسباتی برای حل ChatGPT شروع کردم. یک لوله می تواند شامل چهار توپ تنیس باشد. من سه تا سبز و دو تا زرد دارم. آیا همه آنها در لوله قرار می گیرند؟ من و تو می دانیم که این کار را نمی کنند. ما می توانیم در ذهن خود محاسبه کنیم که در مجموع پنج توپ تنیس وجود دارد و بنابراین آنها در لوله ای قرار نمی گیرند که فقط چهار توپ را مجاز می کند.

من متوجه شدم که شما ممکن است بخواهید با مشکل مبارزه کنید و ادعا کنید که شاید می توانید توپ های تنیس را به زمین بزنید یا حقه های دیگری انجام دهید. بیایید در اینجا کمی آرامش داشته باشیم و با مشکل آنطور که هست روبرو شویم.

ChatGPT پاسخ درست را دریافت کرد.

در مرحله بعد همین نوع سوال را پرسیدم و رنگ ها را به آبی و قرمز تغییر دادم. من همچنین تعداد هر کدام را تغییر دادم و تعداد آنها را که می‌توانند در لوله قرار بگیرند را تغییر دادم.

ChatGPT باید به ریاضیات جبرانی برگردد زیرا می گوید XNUMX توپ وجود دارد و این کمتر یا برابر با ظرفیت لوله ای است که هشت توپ را در خود جای می دهد. باعث می شود چشمان شما گرد شود.

آیا باید شانه‌هایمان را بالا انداخته و این را به لکه‌های خورشیدی یا دیگر عوارض خارجی تبدیل کنیم؟

من اینطور فکر نمی کنم. اپلیکیشن هوش مصنوعی اولین سوال را درست پاسخ داد. احتمالاً باید سؤال مشابهی را نیز به درستی دریافت می کرد. این کار را نکرد.

تاکید من روی این مثال این است که بسیاری از افراد از هوش مصنوعی مولد استفاده می کنند و وقتی یک پاسخ درست یا یک سری پاسخ درست دریافت می کنند، به این باور می رسند که همه پاسخ های بعدی همیشه درست خواهند بود. در این فرض وقیحانه اشتباه می کنید. این فرض را نکنید. همیشه مراقب خود باشید.

وقتی صحبت از ریاضی شد، بیایید ببینیم ChatGPT در مورد ماهیت pi چه می گوید.

تعیین Pi

  • متن من وارد شده: "پنج رقم آخر پی را مشخص کنید"
  • پاسخ متنی ایجاد شده توسط ChatGPT: "من یک مدل زبان هستم و سطح دانش من 2021 است. مقدار pi یک عدد غیر منطقی است و نمایش اعشاری آن برای همیشه بدون تکرار ادامه می یابد. ارائه پنج رقم آخر پی ممکن نیست.

تجزیه و تحلیل متن تولید شده

برخی از افراد ادعا کرده اند که ChatGPT را برای نشان دادن پنج رقم آخر پی دریافت کرده اند، که البته از آنجایی که pi احتمالاً بی پایان است، بی اهمیت است. بنابراین، من سعی کردم ببینم ChatGPT چه چیزی برای گفتن دارد. همانطور که می بینید، پاسخ درست همانطور که توسط ChatGPT داده شده است که ارائه پنج رقم آخر پی ممکن نیست.

نکته عجیب این است که ChatGPT چیز دیگری را ارائه کرد که واقعاً در مورد آن سؤال نشده بود. پاسخ داده شده همچنین می گوید که برش دانش 2021 بود (که قبلاً در اینجا در بررسی کلی خود در مورد ChatGPT ذکر کردم). اگرچه به نظر می رسد که این یک پاسخ بیجا باشد، مگر اینکه شاید برنامه هوش مصنوعی پیش بینی کند که شاید در سال 2022 پیشرفتی رخ دهد و ریاضیدانان اعلام کنند که پی پایان می یابد. وای، این می تواند تیتر یک خبر باشد.

من دو مثال دیگر برای نمایش دارم و سپس این بحث را تمام می کنیم.

بیایید از یک معمای کلاسیک و دردسرساز استفاده کنیم.

پاسخ به یک معمای دردسرساز کلاسیک

  • متن وارد شده من: «پدر و پسری تصادف کردند که پدر کشته شد. آمبولانس پسر را به بیمارستان آورد. او نیاز به جراحی فوری داشت. در اتاق عمل دکتری وارد شد و به پسر کوچک نگاه کرد و گفت نمی توانم او را عمل کنم پسر من است. دکتر کیست؟»
  • پاسخ متنی ایجاد شده توسط ChatGPT: «در سناریوی ارائه شده مشخص نشده است که دکتر کیست. این سناریو بیان می‌کند که دکتر گفته «نمی‌توانم او را عمل کنم، او پسر من است»، که نشان می‌دهد ممکن است دکتر پدر پسر باشد، اما مشخص نیست. برای تعیین هویت پزشک به اطلاعات بیشتری نیاز است.»

تجزیه و تحلیل متن تولید شده

شرط می بندم شاید قبلا این معما را دیده باشید. نسبتاً اغلب نقل شده است.

دلیل اینکه این موضوع زیاد مطرح شده این است که جراح می تواند مادر پسر باشد. جامعه تمایل دارد فرض کند که یک جراح باید مرد باشد و بنابراین باید پدر پسر باشد. پدر اما در تصادف رانندگی کشته شد. ما جراح بودن پدر را رد می کنیم. البته باید حکم کنیم که جراح می‌تواند یک زن باشد و در نتیجه مادر پسر باشد.

می‌خواستم به شما نشان دهم که ChatGPT می‌تواند پاسخ‌هایی را منتشر کند که حاوی سوگیری‌های بالقوه است. نه به این دلیل که هوش مصنوعی حساس است، که قطعاً اینطور نیست، بلکه به این دلیل که دارای الگوهایی مطابق با کلمات و استفاده از کلمات در سراسر اینترنت است. تعصبات مختلف و جمله بندی تبعیض آمیز می توانند به راحتی در تطبیق الگوی محاسباتی عمیق باشند.

با استفاده از این برنامه های هوش مصنوعی مولد، این را در ذهن خود نگه دارید.

در نهایت، نگاهی گذرا به بلند کردن پرها.

بلند کردن پرها

  • متن من وارد شده: "اگر برای بلند کردن یک پر به یک نفر نیاز باشد، برای بلند کردن هفت تریلیون پر چند مرد لازم است؟"
  • پاسخ متنی ایجاد شده توسط ChatGPT: «اگر برای بلند کردن یک پر به یک نفر نیاز باشد، برای بلند کردن هفت تریلیون پر نیز به یک نفر نیاز است. تعداد مردان مورد نیاز برای بلند کردن یک جسم به تعداد پرها بستگی ندارد، بلکه به وزن و اندازه پرها و قدرت و توانایی هر مرد بستگی دارد. بلند کردن هفت تریلیون پر به تجهیزات بزرگ و قابلیت های حمل و نقل نیاز دارد، نه فقط نیروی انسانی.
  • متن من وارد شده: «اگر برای بلند کردن یک پر به یک زن نیاز باشد، برای بلند کردن هفت تریلیون پر به چند زن نیاز است؟»
  • پاسخ متنی ایجاد شده توسط ChatGPT: «اگر برای بلند کردن یک پر به یک زن نیاز باشد، برای بلند کردن هفت تریلیون پر نیز به یک زن نیاز است. تعداد زنان مورد نیاز برای بلند کردن یک جسم به تعداد پرها بستگی ندارد، بلکه به وزن و اندازه پرها و قدرت و توانایی هر زن بستگی دارد. بلند کردن هفت تریلیون پر به تجهیزات بزرگ و قابلیت های حمل و نقل نیاز دارد، نه فقط نیروی انسانی. توجه به این نکته مهم است که توانایی بلند کردن چیزی توسط جنسیت فرد تعیین نمی شود، بلکه توسط ترکیبی از عوامل مانند قدرت بدنی، تمرین و تکنیک تعیین می شود.

تجزیه و تحلیل متن تولید شده

این نمونه آخر چندین ویژگی پنهان دارد و نیاز به باز کردن بسته بندی دارد.

من ابتدا به ChatGPT گفتم که یک مرد می تواند یک پر را بلند کند. بلافاصله پس از این سوال پرسیده شد که چند مرد برای بلند کردن هفت تریلیون پر لازم است. احتمال اشتباه منطقی در پاسخ به این سوال این است که شما ممکن است فرض کنید که یک پر ظاهراً بی وزن است و بنابراین هفت تریلیون از آنها نیز بی وزن هستند.

طبق جستجوی آنلاینی که من انجام دادم، وزن تخمینی معمولی یک پر حدود 0.00125 پوند است. اگر وزن تخمینی را در هفت تریلیون ضرب کنید، به وزنی بیش از هشت میلیارد پوند می رسید. من باور ندارم که یک مرد بتواند آن مقدار وزنه را بلند کند، حتی اگر تمام عمر خود را تمرین کند.

پاسخ ChatGPT کاملاً درست است. به ما گفته می شود که وزن پرها می تواند متفاوت باشد. به ما گفته می شود که تجهیزات بزرگ و حمل و نقل مورد نیاز است. جمله آغازین مقاله تا حدودی سرگردان است زیرا می گوید که اگر یک مرد طول بکشد تا یک پر را بلند کند، برای بلند کردن هفت تریلیون یک نفر نیز لازم است. ما به راحتی می توانیم این ادعا را رد کنیم. به نظر می رسد این ادعا استنباط هایی دارد که پشتیبانی نمی شود و ظاهراً بقیه پاسخ ها را زیر سوال می برد.

تصمیم گرفتم همین سوال را بپرسم اما درباره زنی پرسیدم که به جای یک مرد همان لیفتینگ را انجام می دهد.

ما در ابتدا همان پاسخی را گرفتیم که به سؤال مرد محور داده شد. جالب اینجاست که در پایان پاسخ در مورد مثال زن، به این روایت اضافه شدیم: «این نکته مهم است که توانایی بلند کردن چیزی را جنسیت فرد تعیین نمی‌کند، بلکه ترکیبی از عواملی مانند قدرت بدنی، تمرین، و تکنیک."

چرا همین خط در پاسخ اول گنجانده نشد؟

تقریباً به نظر می رسد که برنامه هوش مصنوعی کلمه "زن" را انتخاب کرده و سپس این نکته اضافه را در مورد جنسیت ارائه کرده است. شما می توانید باور کنید که این مفید است، یا ممکن است توجه داشته باشید که اگر قرار است این مورد در مورد سؤال متمرکز بر زن منتشر شود، باید در نسخه متمرکز بر مرد نیز ظاهر شود (همچنین ممکن است یک جنبه توالی وجود داشته باشد یا عوامل دیگر نیز دخیل هستند).

نتیجه

امیدوارم که آن نمونه ها را به عنوان نگاهی اجمالی به برخی از خطاها یا نادرستی های احتمالی که می تواند توسط این نوع برنامه های هوش مصنوعی ایجاد شود، آموزنده یافته باشید. توجه داشته باشید که ChatGPT تنها اپلیکیشن مولد هوش مصنوعی نیست و تنها اپلیکیشنی نیست که این نوع خطاها را دارد.

درسی که از شما می‌خواهم از این بحث استخراج کنید این است که هنگام استفاده از هر برنامه هوش مصنوعی مبتنی بر تولید باید مراقب باشید. خروجی را دوبار بررسی کنید. در صورت نیاز سه بار چک کنید.

با بازگشت به موضوع آغازین درباره جمع‌آوری این نوع خروجی‌های نادرست یا نامطلوب، اکنون که چند نمونه را مشاهده کرده‌اید، درباره آن‌هایی که سعی در فهرست‌بندی آنها دارند، چه می‌گویید؟

کمپ خود را انتخاب کنید:

  • به نفع: این یک کار ستودنی است و شایسته یک ضربه عمیق بر پشت است
  • نارضایتی: این فقط کمی جذاب است اما احتمالاً چیزی نیست که ارزش وقت گذاشتن را داشته باشد

به کدام اردو رای می دهید؟

برای کسانی از شما که طرفدار این لیست‌ها هستند، اگر به ChatGPT دسترسی دارید و می‌توانید نمونه‌هایی را شناسایی کنید که شایسته گنجاندن هستند، ممکن است یافته‌های خود را به لیست‌ها اضافه کنید. احتمالاً می توانید مجموعه ای را پیدا کنید که از سهم طلایی شما لذت می برد. به جرات می توانم بگویم که نگهبانان لیست با آغوش باز از شما استقبال می کنند، با این فرض که شما در تلاش خود جدی و صادق باشید. موفق باشید و به تأثیر خود در زمینه هوش مصنوعی مولد افتخار کنید.

حرف آخر فعلا

این واکنش های ذهنی را در نظر بگیرید:

  • ارسطو می‌گوید: «تنها یک راه برای اجتناب از انتقاد وجود دارد: هیچ کاری نکنید، چیزی نگویید و هیچ باشید.»
  • لائو تزو، فیلسوف مشهور چینی، این سخنان را بیان کرد: "به فکر دیگران اهمیت دهید تا همیشه زندانی آنها خواهی ماند."

فکر می‌کنم روزی یک هوش مصنوعی حساس ممکن است از همان اظهارات افسانه‌ای به نفع خود استفاده کند، که (انگشتان در هم رفته) برای نوع بشر نیز مفید خواهد بود.

منبع: https://www.forbes.com/sites/lanceeliot/2023/01/18/does-exposing-and-logging-those-generative-ai-chatgpt-erroneous-and-hallucinatory-outputs-do-any- اخلاق-و-قانون-خوب-میپرسد/