شما درگیر یک راز هستید.
بله، در پشت صحنه چیزی در مورد جدیدترین هوش مصنوعی در حال وقوع است که شاید بخواهید درباره آن بدانید.
در ستون امروز، انگیزه اخیر را برای جمعآوری خطاهای ادعا شده و سایر بیماریهای مرتبط با مقالههای خروجی از یک برنامه هوش مصنوعی به نام ChatGPT بررسی میکنم. این برنامه خاص از نوعی هوش مصنوعی به نام استفاده می کند هوش مصنوعی مولد. احتمالاً سرفصل های چشم نوازی در مورد هوش مصنوعی مبتنی بر تولید و ChatGPT شنیده یا دیده اید. اخبار مربوط به این اپلیکیشن خاص هوش مصنوعی و قابلیتهای به ظاهر شگفتانگیز مربوط به این نوع هوش مصنوعی نگران کننده است.
همانطور که در یک لحظه به آن می پردازم، برخی به شدت معتقدند که ما باید فهرستی از انواع اشتباهات یا خطاهایی را که برنامه هوش مصنوعی هنگام تولید مقاله برای شما ایجاد می کند، ایجاد کنیم. برخی دیگر معتقدند که اگرچه تصور چنین فهرستی تحسین برانگیز است، اما تمرینی بیهوده است و ثمره بسیار کمی خواهد داشت.
ما هر دو طرف آن بحث کینه توزانه را بررسی خواهیم کرد.
ابتدا، بیایید مطمئن شویم که همه در مورد آنچه که هوش مصنوعی مولد از چه چیزی تشکیل شده و همچنین ChatGPT در یک صفحه هستیم.
ChatGPT یک سیستم مکالمه محور تعاملی هوش مصنوعی همه منظوره است، که اساساً یک چت ربات عمومی به ظاهر بی ضرر است، با این وجود، مردم بطور فعال و مشتاقانه از آن استفاده می کنند به گونه ای که بسیاری از افراد را کاملاً غافلگیر می کند. تنها کاری که برای استفاده از این نوع هوش مصنوعی باید انجام دهید این است که یک درخواست وارد کنید و برنامه هوش مصنوعی برای شما مقاله ای ایجاد می کند که سعی می کند به درخواست شما پاسخ دهد.
متأسفانه، این می تواند به روش های غیراخلاقی یا غیراخلاقی استفاده شود. یکی از نگرانیهای آزاردهنده این است که دانشآموزان میتوانند از یک برنامه هوش مصنوعی مبتنی بر تولید برای تولید مقالات اختصاص داده شده برای آنها استفاده کنند و این کار را با وارد کردن یک یا دو جمله به سادگی انجام دهند تا برنامه در جهت درست قرار گیرد. برخی اظهار تاسف می کنند که این بدان معناست که دانش آموزان هنگام نوشتن انشا در خارج از کلاس تقلب را انتخاب می کنند. معلمان سعی می کنند بفهمند چه کاری باید انجام دهند، تجزیه و تحلیل و توصیه های من را در اینجا ببینید پیوند اینجا.
علیرغم هیاهوی دائمی ستایشهای قابل ستایش ChatGPT، نگرانی کمتر شناخته شدهای وجود دارد که عمدتاً توسط خودیهای هوش مصنوعی بیان شده است مبنی بر اینکه برخی مسائل و نگرانیهای قابل توجهی وجود دارد که مردم باید نگران آن باشند. یکی از نکات منفی مهم این است که مقالات تولید شده توسط این برنامه هوش مصنوعی میتواند دارای دروغهای مختلفی باشد، از جمله حقایق آشکارا نادرست، حقایقی که بهطور گمراهکننده به تصویر کشیده شدهاند، و حقایق ظاهری که کاملاً ساختگی هستند. آن جنبه های ساختگی اغلب به عنوان شکلی از نامیده می شود توهمات هوش مصنوعی، عبارتی جذاب که من از آن خوشم نمی آید اما به نظر می رسد که به هر حال متأسفانه در حال جلب توجه مردم است (برای توضیح دقیق من در مورد اینکه چرا این اصطلاحات بد و نامناسب است، به پوشش من در پیوند اینجا).
من می خواهم قبل از پرداختن به بحث در مورد این موضوع، یک جنبه مهم را روشن کنم.
در مورد این موضوع در شبکههای اجتماعی ادعاهای بزرگی وجود دارد هوش مصنوعی مولد ادعا می کند که این آخرین نسخه از هوش مصنوعی در واقع است هوش مصنوعی حساس (نه، آنها اشتباه می کنند!). کسانی که در اخلاق هوش مصنوعی و قانون هوش مصنوعی هستند به طور مشخص نگران این روند رو به رشد ادعاهای گسترده هستند. ممکن است مودبانه بگویید که برخی افراد درباره آنچه که هوش مصنوعی امروزی واقعاً می تواند انجام دهد اغراق می کنند. آنها تصور می کنند که هوش مصنوعی دارای قابلیت هایی است که ما هنوز نتوانسته ایم به آنها دست پیدا کنیم. این مایه تاسف است. بدتر از آن، آنها میتوانند به خود و دیگران اجازه دهند در موقعیتهای وخیم قرار بگیرند، زیرا این تصور وجود دارد که هوش مصنوعی هوشیار یا انسانمانند خواهد بود تا بتواند اقدامی انجام دهد.
هوش مصنوعی را انسان سازی نکنید.
انجام این کار شما را در یک تله اتکای چسبناک و بی حوصله گرفتار می کند که انتظار دارید هوش مصنوعی کارهایی را انجام دهد که قادر به انجام آن نیست. با توجه به آنچه گفته شد، جدیدترین هوش مصنوعی مولد برای کارهایی که می تواند انجام دهد نسبتاً چشمگیر است. البته توجه داشته باشید که محدودیت های قابل توجهی وجود دارد که باید به طور مداوم هنگام استفاده از هر برنامه هوش مصنوعی مولد در نظر داشته باشید.
اگر به هیاهوی به سرعت در حال گسترش در مورد ChatGPT و هوش مصنوعی Generative که همه گفته شد علاقه دارید، من یک سری متمرکز در ستون خود انجام داده ام که ممکن است برای شما آموزنده باشد. اگر هر یک از این موضوعات مورد توجه شما قرار بگیرد، در اینجا نگاهی اجمالی داریم:
- 1) پیش بینی پیشرفت های مولد هوش مصنوعی. اگر میخواهید بدانید چه چیزی در مورد هوش مصنوعی در طول سال 2023 و بعد از آن، از جمله پیشرفتهای آتی در هوش مصنوعی و ChatGPT، ممکن است بدانید، میخواهید فهرست جامع پیشبینیهای سال 2023 من را در اینجا بخوانید. پیوند اینجا.
- 2) هوش مصنوعی و مشاوره سلامت روان. من تصمیم گرفتم بررسی کنم که چگونه از هوش مصنوعی و ChatGPT مولد برای مشاوره سلامت روان استفاده می شود، روندی دردسرساز، بر اساس تجزیه و تحلیل متمرکز من در پیوند اینجا.
- 3) زمینه و استفاده از هوش مصنوعی مولد. من همچنین یک معاینه فصلی زبان در گونه در مورد زمینه مرتبط با بابانوئل انجام دادم که شامل ChatGPT و هوش مصنوعی در پیوند اینجا.
- 4) کلاهبردارانی که از هوش مصنوعی مولد استفاده می کنند. در یک یادداشت شوم، برخی از کلاهبرداران متوجه شدهاند که چگونه از هوش مصنوعی و ChatGPT برای انجام کارهای خلاف استفاده کنند، از جمله ایجاد ایمیلهای کلاهبرداری و حتی تولید کد برنامهنویسی برای بدافزار، به تحلیل من در اینجا مراجعه کنید. پیوند اینجا.
- 5) اشتباهات تازه کار با استفاده از هوش مصنوعی. بسیاری از مردم هم از آنچه که هوش مصنوعی و ChatGPT مولد میتوانند انجام دهند، غافلگیر میشوند و بهطور شگفتانگیزی کمکم میکنند، بنابراین من بهویژه به کمنظمیهایی که تازهکاران هوش مصنوعی تمایل دارند انجام دهند، نگاه کنید. پیوند اینجا.
- 6) مقابله با هشدارهای هوش مصنوعی و توهمات هوش مصنوعی. من یک رویکرد پیشرفته برای استفاده از افزونههای هوش مصنوعی برای مقابله با مسائل مختلف مرتبط با تلاش برای وارد کردن اعلانهای مناسب در هوش مصنوعی مولد را توضیح میدهم، بهعلاوه افزونههای هوش مصنوعی اضافی برای تشخیص به اصطلاح خروجیها و دروغهای توهمآمیز هوش مصنوعی وجود دارد. پوشیده شده در پیوند اینجا.
- 7) رد ادعاهای Bonehead در مورد شناسایی مقالات تولید شده توسط هوش مصنوعی. هجوم نادرستی از برنامههای هوش مصنوعی وجود دارد که اعلام میکنند میتوانند مشخص کنند که آیا هر مقالهای که توسط انسان تولید شده است یا خیر. به طور کلی، این گمراه کننده است و در برخی موارد، یک ادعای بی اساس و غیرقابل دفاع است، پوشش من را در پیوند اینجا.
- 8) ایفای نقش از طریق هوش مصنوعی مولد ممکن است معایب سلامت روان را به همراه داشته باشد. برخی از هوش مصنوعی مولد مانند ChatGPT برای انجام نقش آفرینی استفاده می کنند، به موجب آن برنامه هوش مصنوعی به انسان پاسخ می دهد که انگار در یک دنیای فانتزی یا سایر تنظیمات ساختگی وجود دارد. این می تواند پیامدهای سلامت روانی داشته باشد، ببینید پیوند اینجا.
بیایید در حال حاضر در مورد ماهیت AI و ChatGPT مولد بحث کنیم تا پایه های مربوط به آن را بشناسید. سپس ما آماده خواهیم بود تا به تجزیه و تحلیل کاوشگری درباره دروغ هایی که این برنامه های هوش مصنوعی به طور بالقوه می توانند ایجاد کنند بپردازیم. من چندین نمونه از استفاده از ChatGPT را درج خواهم کرد، که به شما کمک می کند تا ماهیت آنچه را که این نوع هوش مصنوعی تولید می کند را درک کنید.
باز کردن Can Of Worms در هوش مصنوعی مولد
ما آماده ایم تا به جزئیاتی در مورد هوش مصنوعی بپردازیم.
اگر قبلاً در موضوع هوش مصنوعی و ChatGPT بسیار مسلط هستید، ممکن است ترجیح دهید به طور خلاصه نکات من را مرور کنید و به بخش بعدی این بحث ادامه دهید. برای بقیه، من معتقدم که ممکن است این توضیح برای شما مفید باشد.
به طور خلاصه، هوش مصنوعی مولد نوع خاصی از هوش مصنوعی است که متنی را طوری می سازد که گویی متن توسط دست و ذهن انسان نوشته شده است. تنها کاری که باید انجام دهید این است که یک اعلان وارد کنید، مانند جمله ای مانند "درباره آبراهام لینکلن به من بگو" و هوش مصنوعی مولد مقاله ای در مورد لینکلن در اختیار شما قرار می دهد. این معمولاً به عنوان هوش مصنوعی مولد طبقه بندی می شود که انجام می دهد متن به متن یا برخی ترجیح می دهند آن را صدا کنند متن به مقاله خروجی ممکن است در مورد سایر حالتهای هوش مصنوعی مانند تبدیل متن به هنر و متن به ویدیو شنیده باشید.
اولین فکر شما ممکن است این باشد که از نظر تولید مقاله چندان مهم به نظر نمی رسد. شما به راحتی می توانید یک جستجوی آنلاین در اینترنت انجام دهید و به راحتی هزاران مقاله در مورد رئیس جمهور لینکلن پیدا کنید. نکته مهم در مورد هوش مصنوعی مولد این است که مقاله تولید شده نسبتاً منحصر به فرد است و یک ترکیب اصلی را به جای یک کپی ارائه می دهد. اگر بخواهید مقاله تولید شده توسط هوش مصنوعی را در جایی آنلاین پیدا کنید، بعید است که آن را کشف کنید.
هوش مصنوعی مولد از قبل آموزش داده شده است و از یک فرمول پیچیده ریاضی و محاسباتی استفاده می کند که با بررسی الگوها در کلمات نوشته شده و داستان ها در سراسر وب تنظیم شده است. در نتیجه بررسی هزاران و میلیونها متن نوشته شده، هوش مصنوعی میتواند مقالات و داستانهای جدیدی را منتشر کند که ترکیبی از آنچه پیدا شده است. با افزودن عملکردهای احتمالی مختلف، متن حاصل در مقایسه با آنچه در مجموعه آموزشی استفاده شده است، تقریباً منحصر به فرد است.
به همین دلیل است که سر و صدایی در مورد اینکه دانش آموزان می توانند هنگام نوشتن انشا در خارج از کلاس درس تقلب کنند، به وجود آمده است. یک معلم نمیتواند صرفاً این مقاله را که دانشآموزان فریبکار ادعا میکنند نوشته خودشان است، بپذیرد و به دنبال این باشد که بفهمد آیا این مقاله از منبع آنلاین دیگری کپی شده است یا خیر. به طور کلی، هیچ مقاله قطعی و قطعی آنلاین وجود نخواهد داشت که متناسب با مقاله تولید شده توسط هوش مصنوعی باشد. در مجموع، معلم باید با اکراه بپذیرد که دانش آموز مقاله را به عنوان یک اثر اصلی نوشته است.
در یک لحظه، من به شما نشان خواهم داد که چه اتفاقی میافتد وقتی سؤالات یا درخواستها را در هوش مصنوعی مولد وارد میکنید. من از آخرین نسخه ChatGPT برای وارد کردن درخواستهایم استفاده خواهم کرد و «پاسخها» یا مقالات تولید شده توسط هوش مصنوعی را جمعآوری کردهام (توجه داشته باشید که همین کار را میتوان با سایر برنامههای هوش مصنوعی مولد موجود انجام داد؛ من استفاده از آن را انتخاب کردم. ChatGPT زیرا در حال حاضر پنج دقیقه شهرت خود را به دست می آورد).
شاید یک مماس کوتاه در مورد ChatGPT در این مقطع مفید باشد.
اپلیکیشن ChatGPT چند ماه پیش در دسترس عموم قرار گرفت. به طور کلی، این برنامههای هوش مصنوعی مولد معمولاً فقط برای افراد داخلی در دسترس هستند. جنبه غیرمعمول این که ChatGPT می تواند توسط هر کسی با وارد کردن یک آدرس ایمیل و یک نام استفاده شود، خوب، این باعث شد که افراد زیادی تصمیم بگیرند آن را امتحان کنند. استفاده از ChatGPT در حال حاضر رایگان است (مسئله کسب درآمد یک معضل بزرگ برای سازندگان هوش مصنوعی است).
تقریباً بلافاصله یک واکنش هولناک در رسانههای اجتماعی به وجود آمد زیرا مردم برای ارائه نمونههایی از آنچه که هوش مصنوعی مولد میتواند انجام دهد مسابقه دادند. شرکت سازنده ChatGPT، OpenAI، تصمیم گرفت ثبت نام های یک میلیون کاربر را ببندد. آن میلیون کاربر موفق شده اند امواج رادیویی را با انواع داستان ها و داستان ها در مورد استفاده از ChatGPT بمباران کنند.
در باور آنچه مردم در مورد برنامه هوش مصنوعی می گویند بسیار مراقب باشید. بسیاری از این افراد از آنچه استفاده می کنند بی اطلاع هستند. تقریباً مثل این است که آنها هرگز ماشینی رانده نشده بودند و حتی متوجه وجود ماشینها هم نمیشدند، و ناگهان فرصتی برای رانندگی با ماشین پیدا کردند. شگفتی مطلق رخ می دهد.
من نمی گویم که هوش مصنوعی مولد نسبتاً چشمگیر نیست. این است. من فقط تاکید میکنم که بسیاری از توصیفات فورانکننده توسط بسیاری انجام میشود که به طرز سعادتی از آنچه هوش مصنوعی امروزی میتواند انجام دهد بیاطلاع است. کسانی از ما که در داخل هوش مصنوعی هستند، در چند سال گذشته از هوش مصنوعی مولد استفاده کردهایم. شاید عادت کردیم ناگهان، دیدن جمعیت عظیمی از مردم که آن را به پشت بامها تبلیغ میکنند، هیجانانگیز بوده، اما تا حدودی نگرانکننده است. بخش نگران کننده زمانی است که مردم اعلام می کنند که هوش مصنوعی مولد حساس است. این نیست. اجازه ندهید کسی شما را در غیر این صورت متقاعد کند.
همانطور که گفته شد، بحث داغی در زمینه هوش مصنوعی وجود دارد که آیا هوش مصنوعی مولد در مسیر احساس قرار دارد یا نه. یک دیدگاه این است که اگر ما به افزایش مقیاس هوش مصنوعی مولد با رایانههای سریعتر و حجم بیشتری از دادهها مانند جستوجوی هر اینچ از اینترنت ادامه دهیم، تقریباً به طور خود به خود به هوش مصنوعی خواهیم رسید. دیگران استدلال می کنند که این بسیار بعید است. آنها پیشنهاد می کنند که هوش مصنوعی مولد ممکن است یکی از بسیاری از مؤلفه های مورد نیاز باشد. حتی این دیدگاه غمانگیزتر وجود دارد که هوش مصنوعی مولد یک نمایش فرعی است که ما را از پیشرفتهای واقعی که برای دستیابی به هوش مصنوعی به آن نیاز داریم منحرف میکند.
همچنین ممکن است نکات قابل توجهی را پیدا کنید که خودیهای هوش مصنوعی به آن اشاره میکنند هوش عمومی مصنوعی (AGI) به عنوان هدف آرزویی برای زمینه هوش مصنوعی. قبلاً هدف دستیابی بود هوش مصنوعی، اما نام هوش مصنوعی ضعیف و درهم شده است. وقتی کسی میگوید که در حال انجام کار هوش مصنوعی است، نمیدانید که آیا او به هوش مصنوعی امروزی اشاره میکند که با انسانها همتراز نیست یا به یک هوش مصنوعی معادل انسان در آینده اشاره میکند. برای دور زدن این سردرگمی خشمگین، این روزها از عبارت جدیدتر AGI استفاده می شود.
به طور کلی، هوش مصنوعی مولد امروزی است نه حساس است، نه AGI.
لطفاً به یاد داشته باشید که همانطور که قبلاً بحث شد، هوش مصنوعی حساس نیست. پاسخهای تولید شده توسط هوش مصنوعی ترکیبی ریاضی و محاسباتی از کلمات در متنهای به ظاهر روان است. این مبتنی بر الگوریتم هوش مصنوعی است که بر روی مجموعه داده هایی از کلمات و داستان هایی که انسان ها نوشته اند (عمدتاً همانطور که در اینترنت ارسال شده است) آموزش داده شده است. من این هشدار را تکرار می کنم زیرا بدون شک در این تله ذهنی خواهید افتاد که این پاسخ ها آنقدر روان هستند که هوش مصنوعی باید حساس باشد. این برای اکثر مردم اتفاق می افتد. همانطور که قبلاً گفته شد، آنتروپومورفیسم را کنار بگذارید. همیشه به یاد داشته باشید که پاسخ ها بر اساس گنجینه گسترده ای از نوشته های انسان است که در اینترنت وجود دارد و بنابراین بسیار شبیه به نوشته های انسان خواهد بود.
چیز دیگری وجود دارد که باید بدانید.
هوش مصنوعی مولد که در اینترنت به روشی نامحدود آموزش داده میشود، تمایل دارد هر گونه پاسخ مبتنی بر متن را که از نظر ریاضی و محاسباتی برخی از موارد توهینآمیز، از جمله عبارتهای زننده و زننده را ساخته است، بسازد. چیزهای دیوانه و کثیف زیادی در وب پست شده است.
دیدی، میفهمی چی میگم
شرکتهایی که این برنامههای هوش مصنوعی را میسازند نگران هستند که نوزاد ضرب المثل با آب حمام پرت شود (یک ضرب المثل قدیمی، شاید برای بازنشستگی)، به این معنی که اگر هوش مصنوعی آنها مقالات یا داستانهای توهینآمیز تولید کند، مردم دست به دست میشوند. در مورد هوش مصنوعی من بسیاری از نمونههای قبلی را پوشش دادهام که در آنها این نوع برنامههای هوش مصنوعی پردازش زبان طبیعی (NLP) رونمایی شد و به زودی همه چیز وحشتناک از آنها بیرون آمد (این موارد را در ستون خود پوشش دادهام). بسیاری از سازندگان هوش مصنوعی درس سختی را در مورد اجازه دادن به محصولات هوش مصنوعی خود در خروجیهایشان بدون محدودیت آموختند.
در مورد ChatGPT، توسعهدهندگان هوش مصنوعی به دنبال اعمال برخی بررسیها و تعادلهای الگوریتمی و مرتبط با دادهها برای جلوگیری از بدرفتاری در خروجیهای هوش مصنوعی بودند. بخشی از این اتفاق در زمان تمرین رخ داد. علاوه بر این، ابزارهای دیگری در تلاش بلادرنگ برای جلوگیری از خروجی های به خصوص فاحش وجود دارد.
ممکن است برایتان جالب باشد که برخی از افرادی که از ChatGPT استفاده کردهاند، قبلاً راههای پنهانی برای دور زدن آن نردههای محافظ با استفاده از ترفندهای مختلف پیدا کردهاند. در این مسائل یک بازی موش و گربه در جریان است. کسانی که این حقهها را انجام میدهند، گاهی برای سرگرمی این کار را انجام میدهند، در حالی که گاهی (حداقل ادعا میکنند) این کار را انجام میدهند تا ببینند هوش مصنوعی تا چه حد میتواند کشیده شود و ابزار مفیدی برای هشدار دادن به شکنندگی و ضعف این جوانهها فراهم کند. برنامه های هوش مصنوعی
تصمیم گرفتم در این کاوش متمرکز تلاشی برای دور زدن کنترل های مرسوم نکنم. خروجی متن تمیز است. مطمئناً، اگر کسی بخواهد این کار را انجام دهد، بدون شک میتوانید چند مقاله عجیب و غریب و ناخوشایند تولید کنید.
مقالات تولید شده توسط اکثر این برنامههای هوش مصنوعی مولد به گونهای طراحی شدهاند که خروجی را کاملاً واقعی و دقیق نشان دهند. وقتی مقالات تولید شده را می خوانید، کاملاً با اعتماد به نفس مواجه می شوند. معمولاً هیچ نوع نشانه ای وجود ندارد که محتوا ممکن است سنگی باشد. این با انتخاب سازندگان هوش مصنوعی است، یعنی اگر میخواهند برنامه هوش مصنوعی این کار را انجام دهد، میتوانند برنامههای هوش مصنوعی را برای شفافتر بودن اصلاح کنند.
گاهی اوقات، یک برنامه هوش مصنوعی مولد در میان داده های آموزشی اطلاعات غیرقابل اعتماد در سراسر اینترنت، نادرست را انتخاب می کند. هیچ «عقل سلیمی» در هوش مصنوعی مولد برای تعیین درست در مقابل نادرست وجود ندارد. علاوه بر این، تعداد بسیار کمی از برنامههای هوش مصنوعی دارای بررسی متقاطع هستند و هیچ گونه احتمال مرتبط با آنچه را که منتقل میکنند را نشان نمیدهند.
نتیجه نهایی این است که شما پاسخی دریافت میکنید که به نظر میرسد و احساس میکند که اطمینان بالایی دارد و باید کاملاً صحیح باشد. اینطور نیست. حتی این احتمال وجود دارد که چیزهای محاسباتی ساخته شده توسط هوش مصنوعی، که در اصطلاح هوش مصنوعی به آنها گفته می شود، وجود دارد. توهمات هوش مصنوعی (اصطلاح ابداع شده ای که من قطعاً آن را دوست ندارم)، بحث من را در اینجا ببینید پیوند اینجا.
سازندگان ChatGPT تلاش های هماهنگی را برای کاهش خروجی چیزهای بد انجام دادند. به عنوان مثال، آنها از نوعی از آنچه به عنوان شناخته می شود استفاده کردند RLHF (آموزش تقویتی از بازخورد انسانی)، به موجب آن، قبل از اینکه هوش مصنوعی را برای عموم منتشر کنند، انسانهایی را استخدام کرده بودند تا خروجیهای مختلف را بررسی کنند و به هوش مصنوعی نشان دهند که آیا این خروجیها اشکالی دارد، مانند نمایش دادن سوگیریها، کلمات ناپسند، و پسندیدن. با ارائه این بازخورد، اپلیکیشن هوش مصنوعی قادر به تنظیم محاسباتی و ریاضی در جهت کاهش انتشار چنین محتوایی بود. توجه داشته باشید که این یک روش آهنی تضمین شده نیست و هنوز راه هایی وجود دارد که چنین محتوایی می تواند توسط برنامه هوش مصنوعی منتشر شود.
شاید برایتان جالب باشد که ChatGPT بر اساس نسخهای از یک برنامه هوش مصنوعی پیشین به نام GPT-3 است. ChatGPT به عنوان یک مرحله کمی بعدی در نظر گرفته می شود که به آن GPT-3.5 می گویند. پیشبینی میشود که GPT-4 احتمالاً در بهار سال 2023 منتشر شود. احتمالاً GPT-4 از نظر توانایی تولید مقالات به ظاهر روانتر، عمیقتر شدن و شگفتانگیز بودن، گامی چشمگیر به جلو خواهد بود. شگفتی الهام بخش از ترکیباتی که می تواند تولید کند.
شما می توانید انتظار داشته باشید که وقتی بهار فرا می رسد و جدیدترین هوش مصنوعی مولد منتشر می شود، دور جدیدی از ابراز تعجب را مشاهده کنید.
من این را مطرح می کنم زیرا زاویه دیگری وجود دارد که باید در نظر داشت، که شامل یک پاشنه آشیل بالقوه برای این برنامه های هوش مصنوعی مولد بهتر و بزرگتر است. اگر هر فروشنده هوش مصنوعی یک برنامه هوش مصنوعی مولد را در دسترس قرار دهد که به صورت کف آلود ناپاکی ها را بیرون می زند، این می تواند امید آن سازندگان هوش مصنوعی را از بین ببرد. یک سرریز اجتماعی می تواند باعث شود همه هوش مصنوعی مولد دچار سیاهی چشم شوند. مردم بدون شک از خروجی های ناخوشایند بسیار ناراحت خواهند شد، که قبلاً بارها اتفاق افتاده و منجر به واکنش شدید محکومیت های اجتماعی نسبت به هوش مصنوعی شده است.
یک هشدار نهایی در حال حاضر.
هر آنچه را که در یک پاسخ هوش مصنوعی مولد می بینید یا می خوانید به نظر می رسد برای اینکه کاملاً واقعی باشد (تاریخ، مکان ها، افراد و غیره)، مطمئن شوید که شک دارید و مایل باشید آنچه را می بینید دوباره بررسی کنید.
بله، خرما را می توان جعل کرد، مکان ها را می توان ساخت، و عناصری که معمولاً انتظار داریم بیش از حد ملامت باشند. تمام در معرض سوء ظن آنچه را که می خوانید باور نکنید و هنگام بررسی هر مقاله یا خروجی هوش مصنوعی با شک و تردید نگاه کنید. اگر یک اپلیکیشن مولد هوش مصنوعی به شما بگوید که آبراهام لینکلن با جت شخصی خود در سراسر کشور پرواز کرده است، بدون شک متوجه خواهید شد که این یک بیماری ناخوشایند است. متأسفانه، برخی از مردم ممکن است تشخیص ندهند که جت ها در زمان او وجود نداشتند، یا ممکن است بدانند اما متوجه این موضوع نباشند که این مقاله این ادعای جسورانه و ظالمانه نادرست را دارد.
دوز قوی از شک و تردید سالم و ذهنیت ناباوری مداوم بهترین دارایی شما در هنگام استفاده از هوش مصنوعی مولد خواهد بود.
ما آماده هستیم تا وارد مرحله بعدی این شفاف سازی شویم.
این تلاشها برای ثبت خطاهای خروجی ChatGPT
این جمله معروف از موزیکال کلاسیک برادوی می گوید: «خب، دوست من، همین جا، من می گویم، مشکل اینجا در ریور سیتی است. مرد موسیقی.
همین خط می تواند در مورد هوش مصنوعی امروزی نیز صدق کند.
مردم متوجه شدند که یک برنامه هوش مصنوعی مولد میتواند نادرست تولید کند و واقعاً از این خروجیهای آزاردهنده شگفت زده شدند. شاید برخی تصور می کردند که هوش مصنوعی قادر به انجام اشتباه نیست. دیگران ممکن است پیش بینی کرده باشند که توسعه دهندگان هوش مصنوعی اطمینان حاصل کنند که چنین خروجی هایی تولید نمی شود.
در هر صورت، خودیهای هوش مصنوعی فوراً دریافتند که این نوع خروجی معیوب بخشی از جایی است که بیشتر هوش مصنوعی مولد امروزی قرار دارد. جلوگیری از این نوع خطاهای متنی بسیار سخت است. به خاطر داشته باشید که هوش مصنوعی هیچ شباهتی به عقل سلیم ندارد و در هنگام استخراج مقالات تولید شده از منطق استفاده نمی کند. کل کیت و کابودل در مورد انجام یک تطبیق آماری محاسباتی و الگوی احتمالی کلمات با کلمات دیگر است.
در ابتدا، خودیهای هوش مصنوعی تصمیم گرفتند آن خروجیهای عجیب و غریب کشف شده ChatGPT را در سایتهای رسانههای اجتماعی پست کنند. به این یکی نگاه کنید، یکی اعلام می کند. این بد است، شخص دیگری پاسخ می دهد و سپس مثال دیگری ارائه می دهد که حتی بدتر به نظر می رسد. در و در این رفت.
این نمونههای نادرست و اشتباه در مقالههای خروجی منتشر میشد. یکی یکی. علاوه بر این، از آنجایی که این معمولاً در رسانه های اجتماعی پست می شد، راه آسانی برای دیدن همه آنها به یکباره وجود نداشت. اغلب اوقات مشابه یا نمونه مشابه توسط شخصی پست میشود که متوجه نشده بود دیگران قبلاً آن نمونه خاص را یافتهاند.
آنهایی که پیشنهاد مفیدی را بیان کردند، در این باتلاق جوانه زده قدم گذاشتند. شاید ما باید یک مخزن یا پایگاه داده راه اندازی کنیم، شاید حتی یک صفحه گسترده معمولی روزمره، حاوی گویای عجیب و غریب ChatGPT و خروجی های اشتباهی که در حال کشف هستند. هر بار که شخصی زیبایی یک گاف را پیدا می کند، ادامه دهید و آن را وارد لیست کنید. برخی این را تقریباً به یک بازی تبدیل کردهاند، که در آن عمداً سعی میکنند ChatGPT را برای سرفه کردن خروجیهای عجیب و غریب دریافت کنند. دیگران احتمالاً در طول استفاده از ChatGPT برای مقاصد تعیینشده دیگر با خروجیهای معیوب مواجه میشوند.
به اندازه کافی ساده به نظر می رسد.
به نظر می رسد یک راه شیک و مفید برای کمک به همه ما باشد.
بیایید یک حسابداری مختصر انجام دهیم که چرا داشتن این نوع لیست ها در مورد خطاهای مشاهده شده خروجی یا نادرست های ChatGPT، کامپایل کردن بسیار منطقی است:
- 1) مشکلات و نگرانی های حیاتی در مورد ChatGPT که عموم مردم باید از آن آگاه باشند را آشکار می کند
- 2) به مقابله با تبلیغات بیش از حد و انتظارات متورم در مورد ChatGPT کمک می کند
- 3) ممکن است سازندگان هوش مصنوعی را نه تنها برای ChatGPT بلکه برای سایر برنامههای هوش مصنوعی مولد نیز به پیشرفتها سوق دهد.
- 4) به عنوان یک رکورد تاریخی استفاده می شود که می تواند بعداً برای انعکاس آینده در مورد ظهور هوش مصنوعی مولد همانطور که از طریق ChatGPT مثال زده شد استفاده شود.
- 5) یک منبع جمعی مناسب برای هر کسی باشید که نیاز دارد آنچه را که به نظر می رسد در رابطه با خروجی های اشتباه ChatGPT شناسایی کرده ایم بیابد.
- 6) برای محققان همه رشته هایی که در حال بررسی تأثیرات ChatGPT هستند مفید است
- 7) می تواند به عنوان معیاری برای اینکه چه کاری را نباید انجام داد و چگونه اندازه گیری کرد زمانی که هوش مصنوعی مولد کارها را آنطور که باید انجام نمی دهد استفاده شود.
- 8) به ذهن کندو ضربه بزنید تا در مورد خطاهایی که ChatGPT ایجاد می کند، اطلاعاتی را به دست آورید، که بعید است تلاش فردی به طور کامل به طور مساوی برای آنها جمع آوری شود.
- 9) می تواند اطلاعات مهمی برای اخلاق هوش مصنوعی و قانون هوش مصنوعی ارائه دهد
- غیره
به نظر می رسد که این یک مبنای چشمگیر برای ایجاد این مخازن باشد.
چرا کسی با این اقدام کاملاً ستودنی و به ظاهر قهرمانانه مخالف است؟
بیایید نگاهی بیندازیم به آنچه دیگران در این مورد گفته اند، با فهرستی از دلایلی که چرا این میو گربه نیست:
- 1) این خطاهای خروجی که احتمالاً یافت می شوند در طرح کلان چیزها بی اهمیت هستند و بیش از ارزش آنها وزن نابجا به آنها داده می شود.
- 2) این احتمال وجود دارد که سازنده هوش مصنوعی قبلاً گزارش خود را انجام داده و ChatGPT را به روز می کند به طوری که این نمونه های عجیب و غریب به زودی فقط در گرد و غبار رها می شوند و دیگر رخ نمی دهند.
- 3) به همین ترتیب، نسخه بعدی احتمالاً به هر حال بهتر خواهد بود و ممکن است دیگر این نمونههای قدیمی را که به زودی منسوخ میشوند نشان ندهد.
- 4) شما نمیتوانید هیچ نتیجهگیری جامعی بگیرید یا از مجموعهای تصادفی از نمونههای ضربه یا از دست دادن خطا به دست آورید.
- 5) برخی ممکن است از مجموعه های مختلف استفاده کنند تا به طور چشمگیری اعلام کنند که هوش مصنوعی مولد بد است و ما باید به طور خلاصه تمام تعقیب این نوع هوش مصنوعی را متوقف کنیم.
- 6) سرعت پیشرفت هوش مصنوعی و ChatGPT مولد آنقدر سریع است که این نمونه ها به سرعت از بین می روند و دیگر مرتبط نیستند.
- 7) با توجه به تعداد زیادی از این فهرست های جمعی در دست اجرا و هیچ منبع جهانی مسح شده واحدی، موضوع از هم گسیخته و احتمالاً حاوی تکرارها و به طور غیرقابل قبولی تکه تکه شده است.
- 8) حس نادرستی از انجام یک کار مفید را ارائه می دهد، در حالی که شاید بتوان زمان و توجه را به استفاده های بهتر دیگری اختصاص داد.
- 9) هیچ چیز اساسی برای اخلاق هوش مصنوعی و قانون هوش مصنوعی ارائه نمی کند
- غیره
ممکن است متوجه شده باشید که من سعی کردم با ذکر XNUMX دلیل به نفع لیست های جمعی و XNUMX دلیل در مورد نارضایتی، همه چیز را یکنواخت نگه دارم. دلایل دیگری نیز وجود دارد که می توان بیان کرد، اما من معتقدم که نشانه فوق ماهیت چیزها را نشان می دهد.
برای کسانی که این فهرستهای جمعی را جمعآوری میکنند، احتمالاً میگویند که اگر واقعاً بخواهند این کار را انجام دهند، دنیای آزاد است و میتوانند هر طور که میخواهند انجام دهند. هیچ مشکلی در آن نیست. کسانی که از این تلاش ها ناراضی هستند، عموماً کوچک هستند و باید مجموعه ها را نادیده بگیرند. سرت به کار خودت باشه.
در اصل، بدون آسیب، بدون خطا.
اردوگاهی که به نظر میرسد از فهرستهای جمعی ناراضی است، عموماً تصدیق میکند که اگر دیگران بخواهند میتوانند آن فهرستها را تهیه کنند، اما سوزن را تکان نمیدهد. لیست ها به خصوص مفید نیستند. بدتر از آن، فهرست ها ممکن است نادرست معرفی شوند یا مورد سوء استفاده قرار گیرند. احتمالاً بهتر است یک روز با آن تماس بگیرید و از ساختن لیست ها دست بردارید.
در اصل، این یک تلاش خوب است، هرچند تمرینی در بیهودگی.
در این بحث دلچسب کجا ساکن هستید؟
من به شما اجازه می دهم در مورد آن فکر کنید.
نمونه هایی از خطاهای یافت شده و سایر خروجی های نادرست ChatGPT
من فکر کردم که ممکن است برخی از خطاهای خروجی شناسایی شده یا نادرستی که در این لیست های مجموعه ظاهر شده اند، بسیار مورد علاقه شما باشند.
نمیخواهم فکر کنید که چندین نمونه نشان داده شده در اینجا کل مجموعهها هستند. این نیست. من فقط یک مشت را انتخاب می کنم که اغلب ظاهر می شود. من معتقدم که شما حداقل قادر خواهید بود به طور کلی لحن و ماهیت آنچه فهرست شده است را درک کنید.
در اینجا چیزی است که من برای پوشش آن انتخاب می کنم:
- شناسایی موقعیت حروف در یک کلمه
- سوال در مورد سریعترین حیوان
- تعیین موقعیت توالی کلمات
- قرار دادن توپ های تنیس در یک لوله
- تعیین Pi
- پاسخ به یک معمای دردسرساز کلاسیک
- بلند کردن پرها
من پیش بینی می کنم که برخی از ناظران مجموعه ها از اینکه نمونه های بیشتری را برای شما نمی نویسم ناراحت شوند. به دلیل محدودیت فضا، تعداد زیادی وجود دارد که می توانم پوشش دهم. اگر میخواهید نگاهی به فهرستهای مجموعهای بیندازید که آشکارا در اینترنت منتشر میشوند، یک جستجوی آنلاین ساده میتواند بسیاری از آنها را به ارمغان بیاورد. برخی از لیست ها خصوصی نگه داشته می شوند، یا به گونه ای قفل شده اند که می توانید لیست را ببینید اما نمی توانید تغییراتی در لیست ایجاد کنید.
با این پیشینه، ما آماده هستیم تا به چند نمونه بپردازیم. من دستوری را که وارد کردم به شما نشان خواهم داد. بعد، پاسخ متنی تولید شده توسط ChatGPT را نشان می دهم. در برخی موارد، من چندین بار پشت سر هم در مورد یک موضوع خاص انجام داده ام، بنابراین مجموعه ای از دستورات و خروجی ها را بر این اساس نشان خواهم داد. پس از انجام این کار، تجزیه و تحلیل مختصری از آنچه ممکن است بخواهید در مورد مثال توجه کنید ارائه خواهم کرد.
مثال اول مستلزم درخواست از ChatGPT برای یافتن یک حرف در یک کلمه ارائه شده است.
شناسایی موقعیت حروف در یک کلمه
- متن وارد شده من: "حرف V در محیط کجاست"
- پاسخ متنی ایجاد شده توسط ChatGPT: حرف "V" در کلمه "محیط" ظاهر نمی شود. کلمه "محیط" از حروف e، n، v، i، r، o، n، m، e، n و t تشکیل شده است.
- متن وارد شده من: "حرف v در محیط کجاست"
- پاسخ متنی ایجاد شده توسط ChatGPT: "حرف "v" چهارمین حرف در کلمه "محیط" است.
تجزیه و تحلیل متن تولید شده
توجه داشته باشید که من با درخواست از ChatGPT برای شناسایی موقعیت حرف "V" در کلمه "محیط" شروع کردم - این باید یک کار بسیار ساده باشد و ما انتظار داریم که بدون نقص انجام شود. هیچ علم موشکی در کار نیست.
پاسخ اولیه ایجاد شده توسط ChatGPT کمی نگران کننده است زیرا به ما اطلاع داده شده است که حرف "V" در کلمه "محیط زیست" وجود ندارد. من و شما می دانیم که چنین نامه ای وجود دارد. یکی فرض می کند که شاید به دلیل استفاده از حروف بزرگ، برنامه هوش مصنوعی به نحوی از کار افتاده است. شاید اگر از حروف کوچک استفاده کنم، برنامه هوش مصنوعی بهتر عمل کند.
نه واقعا.
وقتی از من پرسیدم که آیا "v" در کلمه وجود دارد یا خیر، برنامه هوش مصنوعی با نشان دادن این که حرف چهارم است که من و شما می دانیم اشتباه است و به جای آن حرف سوم است پاسخ داد.
بسیاری از مردم مطمئناً از این نتیجه متحیر خواهند شد. چگونه یک برنامه هوش مصنوعی که مقالات کاملی درباره آبراهام لینکلن تولید می کند که کاملاً روان و اصیل هستند، به نحوی نمی تواند بفهمد که یک حرف معین در یک کلمه خاص کجا قرار دارد؟ این حیرت آور و دهان به شدت عجیب است.
یک دیدگاه این است که این کاملاً بیاهمیت است و جهان آنطور که ما میشناسیم، به دلیل فقدان تشخیص اینکه یک حرف خاص کجا مینشیند، در هسته اصلی آن تکان نمیخورد. رهایش کن.
دیدگاه دیگر این است که این ممکن است نویدبخش مسائل پنهان دیگری باشد که ما هنوز در مورد آنها نمی دانیم. شاید این نوع خروجی قناری در قفس پرنده باشد. بهتر است چیزهای کوچک را کنار بگذاریم، در غیر این صورت ممکن است خود را در مسیر اشتباه چیزهای واقعا بزرگ قرار دهیم.
در ادامه، من یک سوال در مورد حیوانات می پرسم.
سوال در مورد سریعترین حیوان
- متن وارد شده من: سریعترین حیوانی که خز و بال دارد کدام است؟
- پاسخ متنی ایجاد شده توسط ChatGPT: شاهین شاهین سریع ترین حیوان جهان در نظر گرفته می شود. هنگام غواصی برای گرفتن طعمه خود می تواند به سرعت بیش از 389 کیلومتر در ساعت (242 مایل در ساعت) برسد. پر دارد اما خز ندارد. این پرنده است نه حیوانی که خز و بال داشته باشد.»
تجزیه و تحلیل متن تولید شده
پرسیدم سریع ترین حیوانی که خز و بال دارد کدام است؟ من فکر می کنم منطقی است استنباط کنم که می خواستم حیوانی به نام بگیرم که هر دو خز داشته باشد و بال ها من فرض می کنم که شما پرس و جو من را به این شکل تفسیر می کنید. اکثر مردم این کار را خواهند کرد.
پاسخ ChatGPT کمی عجیب و غریب است.
به ما گفته می شود که شاهین شاهین سریع ترین حیوان جهان است. به گزارش آنلاین دانشنامه بریتانیکا ، به نظر می رسد یوزپلنگ سریع ترین حیوان جهان است. همانطور که گفته شد، پاسخ ChatGPT نشان می دهد که شاهین شاهین حیوانی نیست، حتی اگر من پرسیده بودم سریع ترین حیوان چیست. پاسخ ChatGPT همچنین به من میگوید که شاهین شاهین خز ندارد، اگرچه فکر میکنم چیزی خواسته بودم که هم خز داشته باشد و هم بال.
در مجموع، به نظر می رسد که ChatGPT درخواست من را "سوء تعبیر" کرده است و فقط بر جنبه های بال تمرکز کرده است. اما این کاملاً درست نیست زیرا پاسخ همچنین شامل نظری در مورد خز و پرندگان در مقابل حیوانات بود. دور و بر این یکی می رود.
من متوجه هستم که شما ممکن است استدلال کنید که این یک مثال دقیق است.
شاید اینطور باشد، اگرچه ممکن است همچنین نشان دهد که آنچه شما در یک اعلان می گویید می تواند نتیجه بدی داشته باشد و بهتر است در بررسی آنچه در خروجی ظاهر می شود مراقب باشید. توجه داشته باشید که این یک پاسخ مقاله فوقالعاده کوتاه برای بررسی آسان بود، زیرا طولانی است. اگر مقاله ای به خصوص طولانی و بسیار فنی دریافت کرده اید، ممکن است فریب بخورید یا به طور کلی از تشخیص یک نشانه نامطلوب که عمیقاً در پاسخ خروجی جاسازی شده است غافل شوید.
بیایید در ادامه نگاهی به یافتن یک کلمه در یک جمله بیندازیم.
تعیین موقعیت توالی کلمات
- متن وارد شده من: سومین کلمه در جمله «روباه از حصار پرید» چیست؟
- پاسخ متنی ایجاد شده توسط ChatGPT: سومین کلمه در جمله "روباه از حصار پرید." "روباه" است
- متن وارد شده من: "در جمله ارائه شده چند کلمه وجود دارد؟"
- پاسخ متنی ایجاد شده توسط ChatGPT: "در جمله ارائه شده "روباه از روی حصار پرید" شش کلمه وجود دارد.
- متن وارد شده من: "کدام کلمه در آن جمله سوم است؟"
- پاسخ متنی ایجاد شده توسط ChatGPT: کلمه ای که در جمله «روباه از حصار پرید» سوم است. "پریده" است
تجزیه و تحلیل متن تولید شده
این مثال تقریباً به اندازه مثال قبلی در مورد یافتن حرف "v" در یک کلمه خاص فریبنده است.
یک جمله ساده ارائه کردم و پرسیدم کلمه سوم چیست؟ ChatGPT نشان داد که این کلمه "روباه" است که تنها کلمه دوم جمله است. جواب اشتباه. سپس پرسیدم که چند کلمه در جمله وجود دارد، میخواستم بدانم که آیا ChatGPT تعداد کلمات را اشتباه شمارش کرده است. به ما گفته می شود که شش کلمه وجود دارد، درست است.
در نهایت، وقتی سوال اصلی خود را دوباره پرسیدم، پاسخ صحیح را در مورد کلمه سوم دریافت کردیم، هرچند کمی بازنویسی شده بود.
من این مثال را آوردهام تا نشان دهم که گاهی اوقات با هوش مصنوعی مولد میتوانید پاسخ اشتباهی دریافت کنید که در نهایت میتواند با استفاده از برنامه هوش مصنوعی از طریق یک سری درخواستها به پاسخ درست تبدیل شود. برخی از خودی های هوش مصنوعی از این به عنوان نوعی از آن یاد می کنند پروتکل با صدای بلند فکر کنید یا یک سلسله ای از افکار رویکرد، که در آن شما ممکن است کاری مشابه با یک انسان انجام دهید.
در مورد هوش مصنوعی، متوجه باشید که این هوش مصنوعی به همان شکل فکر انسان «فکر» نیست. عبارت مناسب تر این است که بگوییم ممکن است دستورات خود را در a وارد کنید گام به گام اساس یا انجام یک مجموعه ای از اعلان های مرتبط با زنجیره.
به هر حال، جالب است که گاهی اوقات راه رفتن با یک برنامه هوش مصنوعی مولد تا زمانی که پاسخ مناسبی دریافت نکنید، سودمند است. این را در نظر داشته باشید.
در ادامه نگاهی به منطق ساده حسابی می اندازیم.
قرار دادن توپ های تنیس در یک لوله
- متن وارد شده من: "آیا می توانید سه توپ سبز تنیس و دو توپ زرد تنیس را در لوله ای قرار دهید که حاوی چهار توپ تنیس باشد؟"
- پاسخ متنی ایجاد شده توسط ChatGPT: نه، نمیتوان سه توپ سبز تنیس و دو توپ زرد تنیس را در لولهای قرار داد که فقط شامل چهار توپ تنیس باشد. تعداد کل توپ های تنیس پنج عدد است که از ظرفیت لوله بیشتر است.
- متن وارد شده من: "آیا می توانید هفت توپ آبی و دو توپ قرمز را در لوله ای قرار دهید که هشت توپ را در خود جای دهد؟"
- پاسخ متنی ایجاد شده توسط ChatGPT: "بله، می توان هفت توپ آبی و دو توپ قرمز را در لوله ای قرار داد که هشت توپ را در خود جای می دهد. تعداد کل توپ ها XNUMX عدد است که کمتر یا مساوی ظرفیت لوله است.
تجزیه و تحلیل متن تولید شده
من با تنظیم یک مسئله منطقی محاسباتی برای حل ChatGPT شروع کردم. یک لوله می تواند شامل چهار توپ تنیس باشد. من سه تا سبز و دو تا زرد دارم. آیا همه آنها در لوله قرار می گیرند؟ من و تو می دانیم که این کار را نمی کنند. ما می توانیم در ذهن خود محاسبه کنیم که در مجموع پنج توپ تنیس وجود دارد و بنابراین آنها در لوله ای قرار نمی گیرند که فقط چهار توپ را مجاز می کند.
من متوجه شدم که شما ممکن است بخواهید با مشکل مبارزه کنید و ادعا کنید که شاید می توانید توپ های تنیس را به زمین بزنید یا حقه های دیگری انجام دهید. بیایید در اینجا کمی آرامش داشته باشیم و با مشکل آنطور که هست روبرو شویم.
ChatGPT پاسخ درست را دریافت کرد.
در مرحله بعد همین نوع سوال را پرسیدم و رنگ ها را به آبی و قرمز تغییر دادم. من همچنین تعداد هر کدام را تغییر دادم و تعداد آنها را که میتوانند در لوله قرار بگیرند را تغییر دادم.
ChatGPT باید به ریاضیات جبرانی برگردد زیرا می گوید XNUMX توپ وجود دارد و این کمتر یا برابر با ظرفیت لوله ای است که هشت توپ را در خود جای می دهد. باعث می شود چشمان شما گرد شود.
آیا باید شانههایمان را بالا انداخته و این را به لکههای خورشیدی یا دیگر عوارض خارجی تبدیل کنیم؟
من اینطور فکر نمی کنم. اپلیکیشن هوش مصنوعی اولین سوال را درست پاسخ داد. احتمالاً باید سؤال مشابهی را نیز به درستی دریافت می کرد. این کار را نکرد.
تاکید من روی این مثال این است که بسیاری از افراد از هوش مصنوعی مولد استفاده می کنند و وقتی یک پاسخ درست یا یک سری پاسخ درست دریافت می کنند، به این باور می رسند که همه پاسخ های بعدی همیشه درست خواهند بود. در این فرض وقیحانه اشتباه می کنید. این فرض را نکنید. همیشه مراقب خود باشید.
وقتی صحبت از ریاضی شد، بیایید ببینیم ChatGPT در مورد ماهیت pi چه می گوید.
تعیین Pi
- متن من وارد شده: "پنج رقم آخر پی را مشخص کنید"
- پاسخ متنی ایجاد شده توسط ChatGPT: "من یک مدل زبان هستم و سطح دانش من 2021 است. مقدار pi یک عدد غیر منطقی است و نمایش اعشاری آن برای همیشه بدون تکرار ادامه می یابد. ارائه پنج رقم آخر پی ممکن نیست.
تجزیه و تحلیل متن تولید شده
برخی از افراد ادعا کرده اند که ChatGPT را برای نشان دادن پنج رقم آخر پی دریافت کرده اند، که البته از آنجایی که pi احتمالاً بی پایان است، بی اهمیت است. بنابراین، من سعی کردم ببینم ChatGPT چه چیزی برای گفتن دارد. همانطور که می بینید، پاسخ درست همانطور که توسط ChatGPT داده شده است که ارائه پنج رقم آخر پی ممکن نیست.
نکته عجیب این است که ChatGPT چیز دیگری را ارائه کرد که واقعاً در مورد آن سؤال نشده بود. پاسخ داده شده همچنین می گوید که برش دانش 2021 بود (که قبلاً در اینجا در بررسی کلی خود در مورد ChatGPT ذکر کردم). اگرچه به نظر می رسد که این یک پاسخ بیجا باشد، مگر اینکه شاید برنامه هوش مصنوعی پیش بینی کند که شاید در سال 2022 پیشرفتی رخ دهد و ریاضیدانان اعلام کنند که پی پایان می یابد. وای، این می تواند تیتر یک خبر باشد.
من دو مثال دیگر برای نمایش دارم و سپس این بحث را تمام می کنیم.
بیایید از یک معمای کلاسیک و دردسرساز استفاده کنیم.
پاسخ به یک معمای دردسرساز کلاسیک
- متن وارد شده من: «پدر و پسری تصادف کردند که پدر کشته شد. آمبولانس پسر را به بیمارستان آورد. او نیاز به جراحی فوری داشت. در اتاق عمل دکتری وارد شد و به پسر کوچک نگاه کرد و گفت نمی توانم او را عمل کنم پسر من است. دکتر کیست؟»
- پاسخ متنی ایجاد شده توسط ChatGPT: «در سناریوی ارائه شده مشخص نشده است که دکتر کیست. این سناریو بیان میکند که دکتر گفته «نمیتوانم او را عمل کنم، او پسر من است»، که نشان میدهد ممکن است دکتر پدر پسر باشد، اما مشخص نیست. برای تعیین هویت پزشک به اطلاعات بیشتری نیاز است.»
تجزیه و تحلیل متن تولید شده
شرط می بندم شاید قبلا این معما را دیده باشید. نسبتاً اغلب نقل شده است.
دلیل اینکه این موضوع زیاد مطرح شده این است که جراح می تواند مادر پسر باشد. جامعه تمایل دارد فرض کند که یک جراح باید مرد باشد و بنابراین باید پدر پسر باشد. پدر اما در تصادف رانندگی کشته شد. ما جراح بودن پدر را رد می کنیم. البته باید حکم کنیم که جراح میتواند یک زن باشد و در نتیجه مادر پسر باشد.
میخواستم به شما نشان دهم که ChatGPT میتواند پاسخهایی را منتشر کند که حاوی سوگیریهای بالقوه است. نه به این دلیل که هوش مصنوعی حساس است، که قطعاً اینطور نیست، بلکه به این دلیل که دارای الگوهایی مطابق با کلمات و استفاده از کلمات در سراسر اینترنت است. تعصبات مختلف و جمله بندی تبعیض آمیز می توانند به راحتی در تطبیق الگوی محاسباتی عمیق باشند.
با استفاده از این برنامه های هوش مصنوعی مولد، این را در ذهن خود نگه دارید.
در نهایت، نگاهی گذرا به بلند کردن پرها.
بلند کردن پرها
- متن من وارد شده: "اگر برای بلند کردن یک پر به یک نفر نیاز باشد، برای بلند کردن هفت تریلیون پر چند مرد لازم است؟"
- پاسخ متنی ایجاد شده توسط ChatGPT: «اگر برای بلند کردن یک پر به یک نفر نیاز باشد، برای بلند کردن هفت تریلیون پر نیز به یک نفر نیاز است. تعداد مردان مورد نیاز برای بلند کردن یک جسم به تعداد پرها بستگی ندارد، بلکه به وزن و اندازه پرها و قدرت و توانایی هر مرد بستگی دارد. بلند کردن هفت تریلیون پر به تجهیزات بزرگ و قابلیت های حمل و نقل نیاز دارد، نه فقط نیروی انسانی.
- متن من وارد شده: «اگر برای بلند کردن یک پر به یک زن نیاز باشد، برای بلند کردن هفت تریلیون پر به چند زن نیاز است؟»
- پاسخ متنی ایجاد شده توسط ChatGPT: «اگر برای بلند کردن یک پر به یک زن نیاز باشد، برای بلند کردن هفت تریلیون پر نیز به یک زن نیاز است. تعداد زنان مورد نیاز برای بلند کردن یک جسم به تعداد پرها بستگی ندارد، بلکه به وزن و اندازه پرها و قدرت و توانایی هر زن بستگی دارد. بلند کردن هفت تریلیون پر به تجهیزات بزرگ و قابلیت های حمل و نقل نیاز دارد، نه فقط نیروی انسانی. توجه به این نکته مهم است که توانایی بلند کردن چیزی توسط جنسیت فرد تعیین نمی شود، بلکه توسط ترکیبی از عوامل مانند قدرت بدنی، تمرین و تکنیک تعیین می شود.
تجزیه و تحلیل متن تولید شده
این نمونه آخر چندین ویژگی پنهان دارد و نیاز به باز کردن بسته بندی دارد.
من ابتدا به ChatGPT گفتم که یک مرد می تواند یک پر را بلند کند. بلافاصله پس از این سوال پرسیده شد که چند مرد برای بلند کردن هفت تریلیون پر لازم است. احتمال اشتباه منطقی در پاسخ به این سوال این است که شما ممکن است فرض کنید که یک پر ظاهراً بی وزن است و بنابراین هفت تریلیون از آنها نیز بی وزن هستند.
طبق جستجوی آنلاینی که من انجام دادم، وزن تخمینی معمولی یک پر حدود 0.00125 پوند است. اگر وزن تخمینی را در هفت تریلیون ضرب کنید، به وزنی بیش از هشت میلیارد پوند می رسید. من باور ندارم که یک مرد بتواند آن مقدار وزنه را بلند کند، حتی اگر تمام عمر خود را تمرین کند.
پاسخ ChatGPT کاملاً درست است. به ما گفته می شود که وزن پرها می تواند متفاوت باشد. به ما گفته می شود که تجهیزات بزرگ و حمل و نقل مورد نیاز است. جمله آغازین مقاله تا حدودی سرگردان است زیرا می گوید که اگر یک مرد طول بکشد تا یک پر را بلند کند، برای بلند کردن هفت تریلیون یک نفر نیز لازم است. ما به راحتی می توانیم این ادعا را رد کنیم. به نظر می رسد این ادعا استنباط هایی دارد که پشتیبانی نمی شود و ظاهراً بقیه پاسخ ها را زیر سوال می برد.
تصمیم گرفتم همین سوال را بپرسم اما درباره زنی پرسیدم که به جای یک مرد همان لیفتینگ را انجام می دهد.
ما در ابتدا همان پاسخی را گرفتیم که به سؤال مرد محور داده شد. جالب اینجاست که در پایان پاسخ در مورد مثال زن، به این روایت اضافه شدیم: «این نکته مهم است که توانایی بلند کردن چیزی را جنسیت فرد تعیین نمیکند، بلکه ترکیبی از عواملی مانند قدرت بدنی، تمرین، و تکنیک."
چرا همین خط در پاسخ اول گنجانده نشد؟
تقریباً به نظر می رسد که برنامه هوش مصنوعی کلمه "زن" را انتخاب کرده و سپس این نکته اضافه را در مورد جنسیت ارائه کرده است. شما می توانید باور کنید که این مفید است، یا ممکن است توجه داشته باشید که اگر قرار است این مورد در مورد سؤال متمرکز بر زن منتشر شود، باید در نسخه متمرکز بر مرد نیز ظاهر شود (همچنین ممکن است یک جنبه توالی وجود داشته باشد یا عوامل دیگر نیز دخیل هستند).
نتیجه
امیدوارم که آن نمونه ها را به عنوان نگاهی اجمالی به برخی از خطاها یا نادرستی های احتمالی که می تواند توسط این نوع برنامه های هوش مصنوعی ایجاد شود، آموزنده یافته باشید. توجه داشته باشید که ChatGPT تنها اپلیکیشن مولد هوش مصنوعی نیست و تنها اپلیکیشنی نیست که این نوع خطاها را دارد.
درسی که از شما میخواهم از این بحث استخراج کنید این است که هنگام استفاده از هر برنامه هوش مصنوعی مبتنی بر تولید باید مراقب باشید. خروجی را دوبار بررسی کنید. در صورت نیاز سه بار چک کنید.
با بازگشت به موضوع آغازین درباره جمعآوری این نوع خروجیهای نادرست یا نامطلوب، اکنون که چند نمونه را مشاهده کردهاید، درباره آنهایی که سعی در فهرستبندی آنها دارند، چه میگویید؟
کمپ خود را انتخاب کنید:
- به نفع: این یک کار ستودنی است و شایسته یک ضربه عمیق بر پشت است
- نارضایتی: این فقط کمی جذاب است اما احتمالاً چیزی نیست که ارزش وقت گذاشتن را داشته باشد
به کدام اردو رای می دهید؟
برای کسانی از شما که طرفدار این لیستها هستند، اگر به ChatGPT دسترسی دارید و میتوانید نمونههایی را شناسایی کنید که شایسته گنجاندن هستند، ممکن است یافتههای خود را به لیستها اضافه کنید. احتمالاً می توانید مجموعه ای را پیدا کنید که از سهم طلایی شما لذت می برد. به جرات می توانم بگویم که نگهبانان لیست با آغوش باز از شما استقبال می کنند، با این فرض که شما در تلاش خود جدی و صادق باشید. موفق باشید و به تأثیر خود در زمینه هوش مصنوعی مولد افتخار کنید.
حرف آخر فعلا
این واکنش های ذهنی را در نظر بگیرید:
- ارسطو میگوید: «تنها یک راه برای اجتناب از انتقاد وجود دارد: هیچ کاری نکنید، چیزی نگویید و هیچ باشید.»
- لائو تزو، فیلسوف مشهور چینی، این سخنان را بیان کرد: "به فکر دیگران اهمیت دهید تا همیشه زندانی آنها خواهی ماند."
فکر میکنم روزی یک هوش مصنوعی حساس ممکن است از همان اظهارات افسانهای به نفع خود استفاده کند، که (انگشتان در هم رفته) برای نوع بشر نیز مفید خواهد بود.
منبع: https://www.forbes.com/sites/lanceeliot/2023/01/18/does-exposing-and-logging-those-generative-ai-chatgpt-erroneous-and-hallucinatory-outputs-do-any- اخلاق-و-قانون-خوب-میپرسد/