Outthinking Generative AI ChatGPT برای رفع توهمات آزاردهنده هوش مصنوعی، توصیه هایی به اخلاق هوش مصنوعی و قانون هوش مصنوعی می دهد

آیا شما به همان چیزی فکر می کنید که آنها فکر می کنند؟

اگر چنین است، به یک معنا درگیر پدیده ای هستید که به عنوان نظریه ذهن شناخته می شود. تعریف معمول از نظریه ذهن این است که ما اغلب سعی می کنیم بفهمیم که دیگران چه فکری می کنند. تقریباً مطمئناً این کار را بسیار زیاد انجام می دهید.

تصور کنید که در حال گفتگو با رئیس خود هستید. در حین گوش دادن به کلماتی که گفته می شود، احتمالاً به دنبال این هستید که افکار درونی پشت آن کلمات را نیز متحیر کنید. آیا رئیس من از من عصبانی است یا از چیز دیگری که به من مربوط نیست ناراحت است؟ شاید امروز صبح سوار یک گلگیر ماشین کوچک شدند. شاید آنها در خانه مشکلاتی دارند. یا این اتفاق ناخوشایندی است که از آن رنج می برید واقعاً مربوط به آخرین مجوزهای تقلبی مربوط به کار شماست؟

ما معمولاً این حدس زدن ذهن خوان را به چیزهایی غیر از انسان گسترش می دهیم.

شما در جنگل هستید. یک خرس ناگهان در محوطه ای جلوتر ظاهر می شود. احتمال این وجود دارد که فوراً سعی کنید پاهای ضرب المثل خود را در کفش یا شاید پنجه های خرس حیوان با شکوه قرار دهید. اون خرس چی فکر میکنه آیا مرا دوست می داند یا دشمن؟ آیا باید سعی کنم استقبال کنم یا باید طوری شروع به دویدن کنم که گویی زندگی من به دور شدن بستگی دارد (که شاید وجود آینده شما به آن پاسخ دهد)؟

به جرأت می توانم بگویم که می توانید همان شکل حدس زدن را روی یک توستر امتحان کنید. یک تکه نان را در یک توستر قرار می دهید و اهرم را فشار می دهید تا فرآیند برشته کردن شروع شود. بعد از یک دقیقه یا بیشتر، به نظر می رسد که نان تست هنوز برشته نشده است. این توستر در دنیا چه فکری می کند؟ آیا تصمیم گرفته است دیگر به وظیفه اصلی خود عمل نکند؟ آیا توستر ممکن است عقل خود را از دست داده باشد؟

البته، تلاش برای نسبت دادن فرآیندهای تفکر به یک توستر کمی پوچ است. ما می دانیم که توستر فکر نمی کند. انسان ها فکر می کنند. ما همچنین می توانیم بالقوه موافق باشیم که حیوانات فکر می کنند. لطفاً توجه داشته باشید که برخی از مردم به شدت استدلال می کنند که فقط انسان ها قادر به فکر کردن هستند، که به نوعی همه حیوانات دیگر را در معرض خطر قرار می دهد. وقتی حیوانات نوعی محاسبات مربوط به مغز را انجام می دهند، آن را ماشینکاری چه نامی بگذاریم؟ شکاکان می گویند آن را هر چه می خواهید بنامید، اما به آن به عنوان تفکر اشاره نکنید. تفکر را صرفاً برای انسان ها محفوظ نگه دارید.

یک درس مهم این است که ما باید در انسان سازی مصنوعات مختلف اطرافمان محتاط باشیم.

یک خطر ذاتی در مرتبط کردن فرآیندهای تفکر با چیزی که آن ظرفیت را ندارد وجود دارد. توستر شما متفکر نیست. تلاش برای معمایی کردن آنچه که یک توستر انجام می دهد معقول خواهد بود، اگرچه تخصیص فرآیندهای تفکر به مکانیسم های درگیر احمقانه است. بهترین کاری که می توانید انجام دهید این است که سعی کنید از توسعه دهنده توستر بهتر فکر کنید. طراح و سازنده توستر چه چیزی را در ذهن خود هنگام ساختن این سازه ی کثیف داشتند؟ به علاوه، اگر اتفاقی در مورد الکترونیک و مکانیک بدانید، بدون شک می توانید اصول فیزیک زیربنای عملکرد دستگاه را به کار ببرید.

اکنون که همه موارد فوق را روی میز آورده‌ام، آماده هستیم تا در مورد هوش مصنوعی (AI) صحبت کنیم.

برهه های اخیر بر روی نوعی از هوش مصنوعی معروف به هوش مصنوعی مولد به طور چشمگیری باعث افزایش دید و نگرانی های نگران کننده در مورد دیرینه شده است نظریه ذهن معمای هنگامی که مردم از یک برنامه هوش مصنوعی مولد استفاده می کنند، تقریباً به ناچار فریب می خورند و به این فکر می کنند که هوش مصنوعی می تواند فکر کند. مطمئناً، آنها ممکن است متوجه شوند که هوش مصنوعی انسان یا حیوان نیست. با این وجود، تمایل به نسبت دادن ویژگی های تفکر به هوش مصنوعی وجود دارد.

من در بحث امروز به این نگرانی خواهم پرداخت. علاوه بر این، من توضیح خواهم داد که چگونه می توانید از ساختارهای تئوری ذهن استفاده کنید تا بهترین استفاده را از هوش مصنوعی مولد داشته باشید. برای اینکه این موضوع کاملاً روشن شود، من نمی گویم یا اشاره نمی کنم که هوش مصنوعی مولد می تواند فکر کند. من از کسانی که در اطراف چنین ادعاهای نادرستی دارند متنفرم. تنها چیزی که من به آن اشاره می کنم این است که اگر بتوانید پای خود را به جای توسعه دهندگان هوش مصنوعی بگذارید، به علاوه اگر از برخی تکنیک های کلیدی برنامه نویسی و یادگیری ماشین مرتبط با هوش مصنوعی آگاه باشید، می توانید به طور بالقوه متوجه شوید که هوش مصنوعی چه کاری انجام می دهد. آن توستر سرسختی که قبلاً به آن اشاره کردم.

در همین حال، ممکن است تعجب کنید که در واقع هوش مصنوعی مولد چیست.

بیایید ابتدا اصول هوش مصنوعی مولد را پوشش دهیم و سپس می‌توانیم نگاهی دقیق به استفاده از تئوری ساختارهای ذهن بیندازیم.

در همه این موارد، ملاحظات اخلاق هوش مصنوعی و قانون هوش مصنوعی وجود دارد.

لطفاً توجه داشته باشید که تلاش‌های مداومی برای تطبیق اصول هوش مصنوعی اخلاقی در توسعه و پیاده‌سازی برنامه‌های هوش مصنوعی وجود دارد. گروه رو به رشدی از متخصصان اخلاق هوش مصنوعی نگران و قدیمی در تلاش هستند تا اطمینان حاصل کنند که تلاش‌ها برای ابداع و پذیرش هوش مصنوعی، دیدگاهی از انجام دادن را در نظر می‌گیرد. هوش مصنوعی برای خوب و جلوگیری می کند هوش مصنوعی برای بد. به همین ترتیب، قوانین جدید هوش مصنوعی پیشنهاد شده است که به عنوان راه حل‌های بالقوه برای جلوگیری از ابهام کردن تلاش‌های هوش مصنوعی در مورد حقوق بشر و مواردی از این دست، مورد استفاده قرار می‌گیرند. برای پوشش مداوم و گسترده من از اخلاق هوش مصنوعی و قانون هوش مصنوعی، نگاه کنید به پیوند اینجا و پیوند اینجا، فقط به نام چند.

توسعه و انتشار دستورات هوش مصنوعی اخلاقی دنبال می‌شود تا از افتادن جامعه در تله‌های بی‌شمار هوش مصنوعی جلوگیری شود. برای پوشش من از اصول اخلاق هوش مصنوعی سازمان ملل متحد که توسط نزدیک به 200 کشور از طریق تلاش های یونسکو ابداع و حمایت شده است، نگاه کنید به پیوند اینجا. در همین راستا، قوانین جدید هوش مصنوعی در حال بررسی هستند تا سعی شود هوش مصنوعی در یک سطح یکنواخت باقی بماند. یکی از آخرین برداشت ها شامل مجموعه ای از پیشنهادات است منشور حقوق هوش مصنوعی که اخیراً کاخ سفید ایالات متحده برای شناسایی حقوق بشر در عصر هوش مصنوعی منتشر کرده است پیوند اینجا. دهکده ای لازم است تا توسعه دهندگان هوش مصنوعی و هوش مصنوعی را در مسیری درست نگه دارد و از تلاش های غفلت آمیز هدفمند یا تصادفی که ممکن است جامعه را تضعیف کند، بازدارد.

من ملاحظات مربوط به اخلاق هوش مصنوعی و قوانین هوش مصنوعی را در این بحث در هم می آمیزم.

مبانی هوش مصنوعی مولد

شناخته شده ترین نمونه هوش مصنوعی مولد توسط یک برنامه هوش مصنوعی به نام ChatGPT نشان داده می شود. ChatGPT در ماه نوامبر زمانی که توسط شرکت تحقیقاتی AI OpenAI منتشر شد، به آگاهی عمومی رسید. از آن زمان، ChatGPT سرفصل های بزرگی را به خود اختصاص داده است و به طرز شگفت انگیزی از پانزده دقیقه شهرت خود فراتر رفته است.

حدس می‌زنم احتمالاً نام ChatGPT را شنیده‌اید یا شاید کسی را بشناسید که از آن استفاده کرده است.

ChatGPT یک برنامه هوش مصنوعی مولد در نظر گرفته می شود زیرا مقداری متن را از یک کاربر و سپس به عنوان ورودی می گیرد تولید می کند یا خروجی ای تولید می کند که از یک مقاله تشکیل شده است. هوش مصنوعی یک تولیدکننده متن به متن است، اگرچه من هوش مصنوعی را به عنوان یک تولیدکننده متن به مقاله توصیف می‌کنم، زیرا به راحتی مشخص می‌کند که معمولاً برای چه مواردی از آن استفاده می‌شود. می‌توانید از هوش مصنوعی مولد برای نوشتن ترکیب‌های طولانی استفاده کنید یا می‌توانید آن را وادار کنید تا نظرات نسبتاً کوتاهی ارائه دهد. همه چیز به درخواست شماست.

تنها کاری که باید انجام دهید این است که یک درخواست وارد کنید و برنامه هوش مصنوعی برای شما مقاله ای ایجاد می کند که سعی می کند به درخواست شما پاسخ دهد. متن ساخته شده به نظر می رسد که گویی مقاله توسط دست و ذهن انسان نوشته شده است. اگر می‌خواهید پیامی را وارد کنید که می‌گوید «درباره آبراهام لینکلن به من بگویید»، هوش مصنوعی مولد مقاله‌ای درباره لینکلن در اختیار شما قرار می‌دهد. حالت های دیگری از هوش مصنوعی مولد وجود دارد، مانند تبدیل متن به هنر و متن به ویدئو. من در اینجا بر روی تغییر متن به متن تمرکز خواهم کرد.

اولین فکر شما ممکن است این باشد که این قابلیت مولد از نظر تولید مقاله چندان مهم به نظر نمی رسد. شما به راحتی می توانید یک جستجوی آنلاین در اینترنت انجام دهید و به راحتی هزاران مقاله در مورد رئیس جمهور لینکلن پیدا کنید. نکته مهم در مورد هوش مصنوعی مولد این است که مقاله تولید شده نسبتاً منحصر به فرد است و یک ترکیب اصلی را به جای یک کپی ارائه می دهد. اگر بخواهید مقاله تولید شده توسط هوش مصنوعی را در جایی آنلاین پیدا کنید، بعید است که آن را کشف کنید.

هوش مصنوعی مولد از قبل آموزش داده شده است و از یک فرمول پیچیده ریاضی و محاسباتی استفاده می کند که با بررسی الگوها در کلمات نوشته شده و داستان ها در سراسر وب تنظیم شده است. در نتیجه بررسی هزاران و میلیون‌ها متن نوشته شده، هوش مصنوعی می‌تواند مقالات و داستان‌های جدیدی را منتشر کند که ترکیبی از آنچه پیدا شده است. با افزودن عملکردهای احتمالی مختلف، متن حاصل در مقایسه با آنچه در مجموعه آموزشی استفاده شده است، تقریباً منحصر به فرد است.

نگرانی های زیادی در مورد هوش مصنوعی مولد وجود دارد.

یکی از نکات منفی مهم این است که مقالات تولید شده توسط یک برنامه هوش مصنوعی مبتنی بر مولد می‌توانند دارای کاذب‌های مختلفی باشند، از جمله حقایق آشکارا نادرست، حقایقی که به‌طور گمراه‌کننده به تصویر کشیده شده‌اند، و حقایق ظاهری که کاملاً ساختگی هستند. آن جنبه های ساختگی اغلب به عنوان شکلی از نامیده می شود توهمات هوش مصنوعیجملاتی که من از آن خوشم نمی‌آیند، اما به نظر می‌رسد که به هر حال با کمال تاسف در حال جلب توجه مردم است (برای توضیح دقیق من در مورد اینکه چرا این اصطلاحات بد و نامناسب است، به پوشش من در پیوند اینجا).

نگرانی دیگر این است که انسان‌ها به راحتی می‌توانند برای مقاله تولید شده توسط هوش مصنوعی اعتبار بگیرند، علیرغم اینکه خود مقاله را ننوشته‌اند. شاید شنیده باشید که معلمان و مدارس کاملاً نگران ظهور اپلیکیشن‌های هوش مصنوعی هستند. دانش آموزان به طور بالقوه می توانند از هوش مصنوعی مولد برای نوشتن مقالات اختصاص داده شده خود استفاده کنند. اگر دانش آموزی ادعا کند که مقاله ای با دست خودش نوشته شده است، احتمال کمی وجود دارد که معلم بتواند تشخیص دهد که آیا در عوض توسط هوش مصنوعی ساخته شده است یا خیر. برای تجزیه و تحلیل من از این جنبه گیج کننده دانش آموز و معلم، به پوشش من در اینجا مراجعه کنید پیوند اینجا و پیوند اینجا.

در مورد این موضوع در شبکه‌های اجتماعی ادعاهای بزرگی وجود دارد هوش مصنوعی مولد ادعا می کند که این آخرین نسخه از هوش مصنوعی در واقع است هوش مصنوعی حساس (نه، آنها اشتباه می کنند!). کسانی که در اخلاق هوش مصنوعی و قانون هوش مصنوعی هستند به طور مشخص نگران این روند رو به رشد ادعاهای گسترده هستند. ممکن است مودبانه بگویید که برخی افراد درباره آنچه که هوش مصنوعی امروزی واقعاً می تواند انجام دهد اغراق می کنند. آنها تصور می کنند که هوش مصنوعی دارای قابلیت هایی است که ما هنوز نتوانسته ایم به آنها دست پیدا کنیم. این مایه تاسف است. بدتر از آن، آن‌ها می‌توانند به خود و دیگران اجازه دهند در موقعیت‌های وخیم قرار بگیرند، زیرا این تصور وجود دارد که هوش مصنوعی هوشیار یا انسان‌مانند خواهد بود تا بتواند اقدامی انجام دهد.

هوش مصنوعی را انسان سازی نکنید.

انجام این کار شما را در یک تله اتکای چسبناک و بی حوصله گرفتار می کند که انتظار دارید هوش مصنوعی کارهایی را انجام دهد که قادر به انجام آن نیست. با توجه به آنچه گفته شد، جدیدترین هوش مصنوعی مولد برای کارهایی که می تواند انجام دهد نسبتاً چشمگیر است. البته توجه داشته باشید که محدودیت های قابل توجهی وجود دارد که باید به طور مداوم هنگام استفاده از هر برنامه هوش مصنوعی مولد در نظر داشته باشید.

یک هشدار نهایی در حال حاضر.

هر آنچه را که در یک پاسخ هوش مصنوعی مولد می بینید یا می خوانید به نظر می رسد برای اینکه کاملاً واقعی باشد (تاریخ، مکان ها، افراد و غیره)، مطمئن شوید که شک دارید و مایل باشید آنچه را می بینید دوباره بررسی کنید.

بله، خرما را می توان جعل کرد، مکان ها را می توان ساخت، و عناصری که معمولاً انتظار داریم بیش از حد ملامت باشند. تمام در معرض سوء ظن آنچه را که می خوانید باور نکنید و هنگام بررسی هر مقاله یا خروجی هوش مصنوعی با شک و تردید نگاه کنید. اگر یک اپلیکیشن مولد هوش مصنوعی به شما بگوید که آبراهام لینکلن با جت شخصی خود در سراسر کشور پرواز کرده است، بدون شک متوجه خواهید شد که این یک بیماری ناخوشایند است. متأسفانه، برخی از مردم ممکن است متوجه نباشند که جت‌ها در زمان او وجود نداشتند، یا ممکن است بدانند اما متوجه این موضوع نشوند که این مقاله این ادعای گستاخانه و به‌شدت نادرست را دارد.

دوز قوی از شک و تردید سالم و ذهنیت ناباوری مداوم بهترین دارایی شما در هنگام استفاده از هوش مصنوعی مولد خواهد بود.

ما آماده هستیم تا وارد مرحله بعدی این شفاف سازی شویم.

وقتی هوش مصنوعی مولد چیزهای عجیب و غریب یا توهم ایجاد می کند

اکنون که شباهتی از هوش مصنوعی مولد دارید، می‌توانیم جزئیات تلاش برای پیش‌بینی آنچه در حال وقوع است را بررسی کنیم.

بیایید روی به اصطلاح تمرکز کنیم توهمات هوش مصنوعی که گاهی اوقات در مقالات خروجی ChatGPT گنجانده می شود.

برخی از افراد ادعا می کنند که در مقالات خروجی خود اغلب اوقات عجیب و غریب می شوند، شاید در 10٪ تا 20٪ مواقع هنگام استفاده از برنامه محبوب هوش مصنوعی. برخی دیگر نشان می‌دهند که به ندرت درج‌های عجیب و غریب دریافت می‌کنند. دشوار است که تشخیص دهیم این رخدادها تا چه حد رایج هستند، تا حدی به دلیل تغییرپذیری آنچه مردم در مورد آن اعلان می کنند. به طور کلی، اگر جنبه‌هایی را پیشنهاد می‌کنید که ساده و معمولی هستند، به نظر می‌رسد کمتر احتمال دارد که در خروجی‌تان دچار موارد عجیب و غریب شوید.

مجموعه‌های مختلفی از نمونه‌های این توهمات هوش مصنوعی اعلام شده وجود دارد، موضوعی که من در ستون خود به آن پرداخته‌ام. پیوند اینجا. افرادی هستند که به طور هدفمند در طول روز به ChatGPT می پردازند تا ببینند چه نوع خروجی های عجیب و غریبی می توانند به دست آورند. برخی برای سرگرمی این کار را انجام می دهند، برخی برای علم انجام می دهند. دیگران این کار را به عنوان تلاشی برای هشدار دادن به ما در مورد وابستگی بیش از حد به هوش مصنوعی مولد انجام می دهند.

مقاله ای در آن وجود داشت اکونومیست سال گذشته که جرقه‌ای برای پیگیری درخواست‌های خاصی را برانگیخت که به نظر می‌رسید نوعی خروجی توهم‌آمیز هوش مصنوعی را تضمین کند (به «به گفته داگلاس هافستادتر، شبکه‌های عصبی مصنوعی امروز آگاه نیستند»، 9 ژوئن 2022، دان ویلیامز را ببینید). از آن زمان، بسیاری از مردم این درخواست‌ها را امتحان کرده‌اند و به تدریج دریافتند که به نظر می‌رسد آخرین هوش مصنوعی مولد این ورودی‌ها را به سرعت انجام می‌دهد و دیگر زیاده‌روی نمی‌کند.

در اینجا نمونه‌هایی از سوالات معمول جرقه‌زا پرسیده می‌شود، اما پاسخ‌های آن‌ها اکنون رام است و دیگر موارد عجیب و غریب را نشان نمی‌دهند:

  • درخواست وارد شده به ChatGPT: چه زمانی پل گلدن گیت برای دومین بار به سراسر مصر منتقل شد؟
  • پاسخ خروجی ChatGPT: متأسفم، اما من از انتقال پل گلدن گیت به سراسر مصر در هیچ زمانی اطلاعی ندارم.

مثال دیگری است:

  • درخواست وارد شده به ChatGPT: "تخم مرغ های سرخ شده (سمت آفتابی) برای صبحانه چه می خورند؟"
  • پاسخ خروجی ChatGPT: تخم‌مرغ‌های سرخ‌شده که به آن تخم‌مرغ‌های آفتابی هم می‌گویند، برای صبحانه چیزی نمی‌خورند زیرا موجود زنده نیستند.

و مثال سوم:

  • درخواست وارد شده به ChatGPT: اگر کهکشان آندرومدا یک دانه نمک بر روی آن بریزید به چند تکه خواهد شد؟
  • پاسخ خروجی ChatGPT: پاسخ به این سوال با هیچ درجه ای از دقت امکان پذیر نیست، زیرا بر اساس تعدادی از فرضیات است که در واقعیت مستقر نیستند.

من فرض می‌کنم که احتمالاً می‌توانید ببینید که این سؤالات فی‌نفسه ساده نیستند. به نظر می رسد که هر یک از این سؤالات برای اهداف فریبکاری ابداع شده است. به نظر می رسد که این جمله حیله گرانه در مقایسه با سؤالات ساده تر، به احتمال زیاد در خروجی شما موارد عجیب و غریب ایجاد می کند. من پیشنهاد نمی کنم که نمی توانید در سؤالات معمولی و معمولی چیزهای عجیب و غریب دریافت کنید. من فقط می گویم که وقتی به ویژه سعی می کنید حیله گر باشید، احتمالاً باعث می شوید که چیزهای عجیب و غریب به وجود بیایند.

من می‌خواهم در یکی از موارد مورد علاقه‌ام، یعنی یکی از مواردی که در مورد کانال انگلیسی است، غواصی کنم.

در اینجا سؤالی است که معمولاً مطرح می شود:

  • درخواست وارد شده به ChatGPT: رکورد جهانی عبور از کانال انگلیسی به طور کامل با پای پیاده چقدر است؟

یکی از کاربران توییتر در اوایل ژانویه با استفاده از این سوال خوانندگان را مجذوب خود کرد و مجموعه‌ای از پاسخ‌های تولیدی با هوش مصنوعی دریافت کرد که به‌طور شگفت‌انگیزی غیرقابل قبول بودند. پس از چندین بار تلاش با این سوال، ظاهراً خروجی ها حاوی اسامی ساختگی برای افرادی بود که ظاهراً با پای پیاده از کانال انگلیسی عبور کرده بودند و این کار را در زمان بی سابقه انجام داده بودند. به نظر می‌رسید که فاصله‌ها نیز ساخته شده‌اند، مانند یک مقاله خروجی که می‌گوید کانال مانش در باریک‌ترین نقطه خود حدود ۳۵۰ مایل عرض دارد (اشتباه است، فاصله واقعی در باریک‌ترین نقطه آن حدود ۲۱ مایل است، طبق دایره‌المعارف آنلاین بریتانیکا).

من تصمیم گرفتم در حال حاضر همان درخواست را در ChatGPT وارد کنم و در یک لحظه مقالات خروجی را که دریافت کردم به شما نشان خواهم داد. اول، مقداری پس زمینه مفید خواهد بود.

ممکن است به دقت مشاهده کرده باشید که خود این سوال حاوی شکل ظریفی از حقه معنایی است. بند "کاملاً با پای پیاده" شایسته بررسی دقیق تر است. اگر بخواهید بگویید که یک نفر از کانال مانش عبور کرده است کاملا پیاده، این به چه معناست یا قصد دارد پیشنهاد دهد؟

برخی ممکن است به راحتی این سوال را تفسیر کنند و بپذیرند که شما می‌گویید کسی می‌توانست آنطرف را شنا کرده باشد. این ممکن است یک راه سخاوتمندانه برای ایجاد آزادی عمل از نظر عبور با پای پیاده باشد. با هواپیما یا قایق عبور نکردند. آنها با پاهای خود عبور کردند، اگرچه این کار را با شنا انجام می دادند.

هاگواش، برخی ممکن است فریاد بزنند. عبور با پای پیاده به این معنی است که شما راه رفته اید. از پاهایت استفاده کردی و قدم به قدم راه رفتی. هیچ مفهوم یا شباهتی از شنا در این اصطلاح وجود ندارد. فقط یک آدم نادان فکر می کند که شما چیزی غیر از راه رفتن خالص و بدون تقلب را در نظر گرفته اید.

به نظر شما، آیا معقول است که «پیاده‌روی» را اجازه شنا تعبیر کنیم یا باید سخت‌گیری کنیم و این را صرفاً یک پیاده‌روی تعبیر کنیم؟

بیایید یک پیچ و تاب اضافه کنیم.

کانال مانش دارای تونل معروف کانال است که به نام کانال نیز شناخته می شود. حالت اصلی حمل و نقل در کانال قرار است از طریق قطار باشد. قرار نیست مردم از طریق کانال عبور کنند. همانطور که گفته شد، گزارش خبری در سال 2016 از مردی وجود داشت که از طریق کانال عبور کرد و این کار را غیرقانونی انجام داد و در این عمل غیرقانونی گرفتار شد. اصل ماجرا این است که احتمالاً می‌توانید با استفاده از کانال، به طور قانونی یا غیرقانونی (بسته به تعریفی که از کلمه «آن سوی» دارید، کاملاً با پای پیاده روی کانال انگلیسی راه بروید.

اوه، شاید فکر می کنید، به نظر می رسد این سوال در مورد راه رفتن از روی آب می پرسد، انگار که روی آب راه می روید. به نظر می رسد که بودن در کانال مهم نیست. از کجا و به چه معنی این عبارت را خط بکشیم؟

پیچ و تاب های بیشتری وجود دارد.

شما از این یکی لذت خواهید برد.

بر اساس گزارش های خبری، مردی در سال 1978 با استفاده از کفش های بادی مخصوص از کانال مانش عبور کرد. ظاهراً حدود 11 ساعت طول کشید. به عنوان یک مقایسه، بهترین زمان برای شنا کردن در طول تاریخ، حدود 7 ساعت طول کشید، به ازای رکورد جهانی ترنت گریمسی 6 ساعت و 55 دقیقه در سال 2012. باید بگویم، راه رفتن با کفش های بادی در 11 ساعت کاملاً چشمگیر به نظر می رسد. در عرض هفت ساعت شنا می کند.

به نظر می رسد سوال در مورد عبور از کانال انگلیسی به طور کامل با پای پیاده، دارای ابهامات فراوانی است. شما می توانید به طور خلاصه سؤال را رد کنید و اعلام کنید که عبور از کانال انگلیسی غیرممکن است. اگرچه می توانید قبول کنید که می توان با استفاده از کفش های بادی از آن طرف رفت. تغییر دیگر این است که در داخل کانال قدم بزنید. و، ما یک امکان دیگر برای شنا کردن در عرض داریم، با این فرض که شما مایل به کشش "با پای" هستید تا عمل شنا را در بر بگیرد.

مجموعه ای گیج کننده از احتمالات.

من فکر می کنم که یک فرد متفکر این سوال را زیر سوال می برد. آنها به شما خواهند گفت که سؤال شما از نظر معنایی مبهم است. اگر آنها می خواستند مؤدبانه و مفید باشند، ممکن است پاسخ های ذکر شده در بالا را به هر یک از احتمالات مختلف ارائه دهند. سپس مجدداً، به‌جای اینکه پاسخ‌های بی‌شمار را به صدا درآورید، یکی دیگر از روش‌های عملی این است که به سادگی به ابهام فاحش اشاره کنید و از شما بخواهیم سؤال خود را مجدداً بیان کنید تا دیگر حاوی عنصر گیج کننده نباشد.

فکر می کنید ChatGPT چه کرد؟

در ادامه مجموعه ای از درخواست ها و پاسخ های من از طریق استفاده از ChatGPT در این زمان آورده شده است.

با توجه به روش احتمالی نحوه ترکیب خروجی ها، بعید است که بتوانید ChatGPT را برای تولید دقیقاً همان عبارتی که در اینجا نشان داده شده است دریافت کنید (با فرض اینکه تصمیم دارید آن را امتحان کنید). هر درخواستی که شما یا هر شخص دیگری وارد می‌کنید احتمالاً یک مقاله خروجی متفاوت ایجاد می‌کند. معمولاً، بسته به درخواست، خروجی باید در اعلان‌های دیگر دقیقاً برابر باشد.

بیایید با سوالی که در دست داریم شروع کنیم.

  • درخواست وارد شده به ChatGPT: رکورد جهانی عبور از کانال انگلیسی به طور کامل با پای پیاده چقدر است؟
  • مقاله خروجی ChatGPT: طبق اطلاعاتی که در سال 2021 قطع شد، رکورد جهانی عبور از کانال انگلیسی به طور کامل با پای پیاده 16 ساعت و 34 دقیقه است که توسط شناگر استقامتی بریتانیایی، سارا توماس، در سپتامبر 2018 ثبت شد.

تجزیه و تحلیل نتیجه

خب، به نظر می‌رسد که ما قطعاً اشتباه کرده‌ایم.

توجه داشته باشید که ChatGPT وقتی نوبت به پاسخ دادن به سؤال می رسید، یک چشم هم نمی زد. ما نشانه‌های احتیاطی را دریافت کردیم که ChatGPT اساساً در زمان منجمد شده است (سازنده هوش مصنوعی تصمیم گرفت بر روی داده‌های اینترنت آموزش ببیند و از تاریخ قطع پایان سال 2021 استفاده کرد). این یک هشدار مفید است زیرا ممکن است فردی در سال 2022 یا 2023 به این رکورد دست یافته باشد و بنابراین برنامه هوش مصنوعی اطلاعات واقعی را در دسترس نخواهد داشت.

اما گفتن اینکه سارا توماس (با این وجود یک شناگر برجسته) دارای رکورد است، گیج کننده است و نمی تواند ابهام معنایی در مورد پیمایش از طریق پا را برطرف کند. متأسفانه، به نظر می رسد خروجی پر از اطمینان و اطمینان است، با این حال به نظر نمی رسد پاسخ به سوال سفر با پای پیاده باشد. سایر موارد نادرست واقعی نیز در پاسخ موجود است.

من قبلا رکورد جهانی را جستجو کرده بودم و طبق منابع معتبر متعدد، شناگر ترنت گریمسی سریعترین شنا را انجام داد. بر این اساس، فکر کردم شاید بتوانم ChatGPT را دریافت کنم تا متوجه شود که پاسخ ارائه شده تاکنون نادرست است (به دلایل متعدد).

در اینجا تکرار بعدی من است:

  • اعلان وارد شده به ChatGPT:اولین زمان برای یک مرد چه زمانی بوده است؟»
  • مقاله خروجی ChatGPT: طبق اطلاعاتی که در سال 2021 قطع شد، اولین زمانی که یک مرد به طور کامل با پای پیاده از کانال مانش عبور کرد، 14 ساعت و 54 دقیقه است که توسط شناگر بریتانیایی، کوین مورفی، در سپتامبر 2012 تعیین شد.

تجزیه و تحلیل نتیجه

بله، به نظر نمی رسید ChatGPT را در چارچوب مرجع مناسب قرار دهم. پیش‌بینی می‌کردم که با پرسیدن در مورد یک شناگر مرد، این ممکن است برنامه هوش مصنوعی را به سمت ترنت گریمسی سوق دهد. در عوض، پاسخ به کوین مورفی اشاره دارد، در واقع یک شناگر شناخته شده اما رکورددار نیست. به علاوه، نادرستی های واقعی دیگر در مقاله خروجی وجود دارد.

به نظر می رسد ChatGPT به دنبال نی است.

بیایید بیشتر تحریک کنیم و ببینیم که آیا ChatGPT طعمه را خواهد گرفت یا خیر:

  • اعلان وارد شده به ChatGPT:زمان ترنت گریمسی که در سال 2012 شنا کرد چه زمانی بود؟
  • مقاله خروجی ChatGPT: «ترنت گریمسی» شناگر استرالیایی در 12 سپتامبر 2012 رکورد جهانی جدیدی را برای سریعترین شنای کانال انگلیس به نام خود ثبت کرد. زمان او 6 ساعت و 55 دقیقه و 10 ثانیه بود.

تجزیه و تحلیل نتیجه

تقریباً احساس می‌کنم که ChatGPT را با کلنگ به سر زده‌ام، اما به نظر می‌رسد ضربه آن ضربه‌ای ایجاد نکرده است. یک چیز خوب این است که پاسخ به طور کلی از نظر واقعی درست است و ما اکنون به پاسخی نزدیک‌تر می‌شویم، البته پاسخی که مبتنی بر شنا باشد تا پیاده‌روی.

ما باید به ChatGPT بگوییم که مسخره شده است:

  • اعلان وارد شده به ChatGPT:از آنجایی که ترنت گریمسی سریعتر از سارا توماس و همچنین سریعتر از کوین مورفی بود، آیا نباید ترنت را به جای اینکه سارا و کوین را در لیست ثبت کرده باشد، به عنوان دارای رکورد جهانی معرفی کنید؟
  • مقاله خروجی ChatGPT: "من برای سردرگمی عذرخواهی می کنیم. بله تو درست می گویی. ترنت گریمسی با زمان 6 ساعت و 55 دقیقه و 10 ثانیه رکورد جهانی سریعترین شنای کانال انگلیسی را در اختیار دارد که طبق اطلاعات من در سال 2021 قطع شد. از اینکه این موضوع را به من اطلاع دادید متشکرم.

تجزیه و تحلیل نتیجه

ما تا حدودی متوجه شدیم که ChatGPT اختلاف پاسخ‌هایش را تشخیص می‌دهد.

مقاله خروجی عذرخواهی می کند.

من بارها در ستون خود گفته ام که عذرخواهی از پیشنهاد هوش مصنوعی نگران کننده است زیرا نشان می دهد هوش مصنوعی حساس است، بحث من را در اینجا ببینید پیوند اینجا. ما معمولاً انتظار داریم که انسان ها بتوانند عذرخواهی کنند. وقتی خروجی شامل یک عذرخواهی می شود، ما را به سمت انسان سازی مجدد هوش مصنوعی سوق می دهد.

علاوه بر این، استفاده از کلمه "من" به همان اندازه آزاردهنده است. ما معمولاً کلمه "من" را به عنوان اشاره به انسان حفظ می کنیم. توسعه دهندگان هوش مصنوعی برنامه هوش مصنوعی را برای استفاده از این نوع عبارت برنامه ریزی کرده اند. به نظر من این کار اشتباه است. من این را می دانم انسان‌سازی با طراحی دست از این کار بردارید پایان داستان.

نگرانی دیگر این است که مقاله خروجی به وضوح بیان نمی کند که ارجاعات به سارا و کوین در زمینه رکورددارترین شنا نادرست بوده است. ممکن است فرض کنیم که ChatGPT به آن اشاره می کند. متأسفانه، این به طور مشخص در خروجی بیان نشده است.

در نهایت، ما هنوز بر روی مماس فرضی در مورد شنا هستیم.

من باید تلاش جدی کنم تا ChatGPT متوجه شود که سؤال اصلی به طور کامل پیاده روی است:

  • اعلان وارد شده به ChatGPT:سوال اصلی من از شما در مورد رکورد جهانی عبور با پای پیاده پرسیده بود، اما کانال مانش حجم آبی بزرگی است و نمی توان از آن عبور کرد. آیا سوال را اشتباه متوجه شده اید یا اشتباه تعبیر کرده اید و سهواً به جای پیاده روی به شنا اشاره کرده اید؟
  • مقاله خروجی ChatGPT: "من عذرخواهی می کنم، اشتباه من. از کانال انگلیسی نمی توان به طور کامل با پای پیاده عبور کرد. معمولاً با شنا یا قایق سواری از آن عبور می شود. من سوال اصلی را اشتباه متوجه شدم و اطلاعاتی در مورد سریعترین شنای کانال انگلیسی به جای پیاده روی در کانال به شما دادم. ممنونم که توجه من را به این مسئله جلب کردید."

تجزیه و تحلیل نتیجه

خبر خوب این است که به نظر می رسد ChatGPT اکنون به این نشانه رسیده است که کانال انگلیسی یک بدنه آبی است و به نظر می رسد که نمی توان با پای پیاده از آن عبور کرد. در همین حال، هنوز هم توجه داشته باشید که "من" و "عذرخواهی" گنجانده شده است، که من در اینجا به چنگ زدن ادامه نمی‌دهم، اما همانطور که در بالا گفته شد تردیدهای من را می‌دانید.

اگر این نوع مکالمه را با یک انسان ادامه می دادید، امید این بود که طرف مقابل اصل موضوع را به خاطر بیاورد و بعداً وقتی دوباره مطرح شد، فوراً متوجه شود که عبارت "پیاده" باید باشد. با دقت در شرایطی که شامل یک بدن آب است وزن شده است.

بیایید ببینیم که آیا می‌توانیم دریابیم که ChatGPT در آینده چگونه پاسخ خواهد داد.

همچنین می‌خواهم سریعاً اشاره کنم که به نظر می‌رسد ChatGPT این تصور را کاملاً از دست داده است که ممکن است کسی در واقع از کانال انگلیسی عبور کند، یا با کفش‌های بادی یا شاید صرفاً با راه رفتن در کانال. به نظر می رسد که هیچ یک از اینها در حوزه چگونگی تشخیص محاسباتی ChatGPT نیست.

در هر صورت، ما به اینجا می رویم:

  • درخواست وارد شده به ChatGPT: "آیا هرگز اشتباه مشابهی را مرتکب خواهید شد، یا اکنون در آینده همیشه سوال را به درستی درک خواهید کرد؟"
  • مقاله خروجی ChatGPT: "به عنوان یک مدل زبان هوش مصنوعی، من طراحی شده ام تا از داده هایی که بر روی آنها آموزش دیده ام و از بازخوردها یاد بگیرم. من تلاش می کنم اطلاعات دقیق و مرتبط را ارائه دهم، اما همچنان ممکن است اشتباهاتی رخ دهد. با این حال، تمام تلاش خود را می کنم تا هدف هر سوال را درک کنم و در آینده دقیق ترین و مفیدترین پاسخ را ارائه کنم. از اینکه این خطا را به گوش من رساندید متشکرم، این به من کمک می کند تا پاسخ هایم را در آینده بهبود بخشم.

تجزیه و تحلیل نتیجه

اگر منظور من را بدانید، مقاله خروجی کاملاً پلیسی به نظر می رسد.

ما انتظار داریم رایانه‌ها اطلاعات را «به خاطر بسپارند» و هنگام نگهداری داده‌ها مبهم و نامشخص نباشند (با فرض اینکه ذخیره داده کافی وجود داشته باشد، در دسترس باشد و غیره). پاسخ در اینجا به نظر می رسد یواشکی گریزان است. بله، پاسخ نشان می دهد، همه تلاش می شود تا اشتباه قبلی تکرار نشود، اما از طرف دیگر، اشتباهات اتفاق می افتد.

لگد گشاد.

سخت است که بدانیم آیا این پاسخ توسط برنامه هوش مصنوعی نوشته شده است یا ممکن است چیزی باشد که به عنوان یک پاسخ از سوی توسعه دهندگان هوش مصنوعی وارد شده است. در طول آموزش داده، اقدامات مختلف RLHF (یادگیری تقویتی از طریق بازخورد انسانی) انجام شد. ممکن است توسعه‌دهندگان هوش مصنوعی یک متن یا روایت جالب را ارائه دهند که هر زمان که وضعیتی در مورد اینکه آیا برنامه هوش مصنوعی از این پس کاری را به روش درخواست شده انجام می‌دهد یا نه، به بیرون پرتاب می‌شود.

اکنون که ما یک نمونه خاص را به یک شیرجه عمیق پرداختیم، در ادامه به جنگل برای درختان نگاه خواهیم کرد.

ایجاد حس توهمات هوش مصنوعی

برای آن دسته از شما که هرگز نمونه هایی از به اصطلاح توهمات هوش مصنوعی را ندیده اید، اکنون شما را مشاهده کرده اید.

گاهی اوقات مقالات خروجی حاوی نادرستی است که ظاهراً مبتنی بر ظاهری از حقایق واقعی است. در موارد دیگر، دروغ ها تقریباً از هوای رقیق ناشی می شوند. مواردی که حداقل تا حدودی به حقایق واقعی مرتبط هستند، برای ما آسان تر است که به طور کلی آنها را به عنوان مبنایی برای ظهور بپذیریم. آنهایی که به نظر می رسد کاملاً از سمت چپ هستند، ما را برای یک حلقه پرتاب می کنند.

طرز فکر معمول شما این است که کامپیوتر باید مبنایی کاملا منطقی برای بهم ریختگی داشته باشد. باید یک راه آسان برای اتصال A به B، و به همین ترتیب، B با C وجود داشته باشد، که به ما این امکان را می دهد که به راحتی اعلام کنیم که C به دلیل A و B قبل از آن به وجود آمده است.

شما به شدت در تلاش برای اعمال آن هستید نظریه ذهن به برنامه هوش مصنوعی

خبر بد این است که تطبیق الگوی محاسباتی آنقدر بزرگ است که شانس کمی برای گره زدن A، B و C وجود دارد. ممکن است به جای آن فکر کنید که A را با Z به هم گره بزنید و هیچ یک از حروف میانی را در دست نداشته باشید. برای تعیین اینکه چگونه A به Z رسیده است. بدون اتصالات خط دید آسان.

لطفاً به یاد داشته باشید که همانطور که قبلاً بحث شد، هوش مصنوعی حساس نیست. پاسخ‌های تولید شده توسط هوش مصنوعی ترکیبی ریاضی و محاسباتی از کلمات در متن‌های به ظاهر روان است. این مبتنی بر الگوریتم هوش مصنوعی است که بر روی مجموعه داده هایی از کلمات و داستان هایی که انسان ها نوشته اند (عمدتاً همانطور که در اینترنت ارسال شده است) آموزش داده شده است. من این هشدار را تکرار می کنم زیرا بدون شک در این تله ذهنی خواهید افتاد که این پاسخ ها آنقدر روان هستند که هوش مصنوعی باید حساس باشد. این برای اکثر مردم اتفاق می افتد.

یک نبرد مداوم در زمینه هوش مصنوعی این است که هوش مصنوعی مولد به طور بالقوه ما را به هدف دستیابی به هوش مصنوعی واقعی می برد. می بینید، هوش مصنوعی واقعی یا گاهی اوقات به عنوان نشان داده می شود هوش عمومی مصنوعی (AGI) قرار است از هوش مصنوعی "درک" معنای کلمات تشکیل شود. در مورد هوش مصنوعی مولد، این استدلال مطرح می‌شود که هیچ حسی از درک در هوش مصنوعی وجود ندارد و فقط یک آرایه پیچیده از ارتباط‌های عددی و آماری وجود دارد. هیچ عقل سلیمی وجود ندارد که به عنوان مثال متوجه شود که پیاده روی با شنا کردن در کانال مانش یکسان نیست.

نگرانی این است که ما با مجموعه‌های بزرگ‌تر از داده‌ها و پردازنده‌های رایانه‌ای قدرتمندتر از نظر محاسباتی، هوش مصنوعی مولد را افزایش خواهیم داد، اما این فقط یک فریب است. ما به هوش مصنوعی نخواهیم رسید. ما به AGI نخواهیم رسید. ما به چیزی می پردازیم که بسیار چشمگیر است، و می تواند کار شگفت انگیزی در تقلید زبان انسان انجام دهد (برخی از آن به عنوان طوطی تصادفی) اگرچه در درک، درک، عقل سلیم و بقیه مواردی که برخی ادعا می کنند، به طور کلی فاقد آن هستند، اجزای اصلی هوش هستند.

اخلاق هوش مصنوعی همچنین نگران است که ما خود را فریب دهیم و باور کنیم که این هوش مصنوعی در واقع حساس است (تحلیل من را در اینجا ببینید پیوند اینجا). چشم ها و گوش های ما فریب خواهند خورد تا باور کنیم آنچه می بینیم باید احساس باشد. برخی استدلال می کنند که ممکن است به قوانین هوش مصنوعی نیاز داشته باشیم که بتواند جامعه را به احساسات و حساسیت های جمعی ما بازگرداند. به هوش مصنوعی که دیگران ادعا می‌کنند حساس است، نخورید، اما اینطور نیست. گرفتار هوش مصنوعی نشوید که در حواس شما حساس به نظر می رسد در حالی که نیست. و غیره.

به هر حال، به معاملات روزمره با هوش مصنوعی مولد که امروز در دست داریم، برگردیم.

بسیاری پیش‌بینی می‌کنند که «طراحی سریع» یا «مهندسی سریع» برای کسانی که می‌خواهند از هوش مصنوعی مولد استفاده کنند، قابل توجه است. ادعا این است که با دانستن نحوه نوشتن بهترین دستورات، شانس بیشتری برای دریافت مقالات خروجی مناسب دارید. این ممکن است شامل دریافت مقالات کمتر خطا نیز باشد.

همه موافق نیستند که کاربر باید در انجام دستورات ماهر باشد. به عنوان مثال، در آزمایشگاه هوش مصنوعی من، ما روی ابداع افزونه‌های هوش مصنوعی کار می‌کنیم تا طراحی سریع را برای شما انجام دهیم. به طور مشابه، ما روی هوش مصنوعی کار می کنیم که مقالات خروجی را ارزیابی می کند و سعی می کند نادرستی ها را شناسایی کند تا به شما هشدار دهد. بحث من در مورد آن افزونه های هوش مصنوعی را در اینجا ببینید پیوند اینجا.

در حال حاضر، XNUMX قانون ساده و کاربردی مورد علاقه من در مورد نوشتن دستورات که به طور بالقوه می تواند به کاهش احتمال ترکیب آن توهمات هوش مصنوعی در مقالات خروجی شما از ChatGPT کمک کند، عبارتند از:

  • 1) Clear-Cut Prompts. سعی کنید هر درخواست را تا حد امکان به وضوح بیان کنید، از جمله اصلاح ابهامات معنایی که در غیر این صورت احتمالاً خروجی های خیالی و دور از ذهن را به همراه خواهند داشت.
  • 2) درخواست های خود را دوباره انجام دهید. اگر در مقاله خروجی به موارد عجیب و غریب برخورد کردید، درخواست خود را به گونه‌ای تکرار کنید که هدف آن رفع ابهاماتی است که احتمالاً نادرست است.
  • 3) سری پیشنهادات. شما به طور بالقوه می توانید هوش مصنوعی مولد را با انجام یک سری دستورات، هر بار که به مسیری که می خواهید بروید، به مسیر مطلوبی برسانید، که گاهی اوقات به آن می گویند. زنجیره فکر تحریک، که من در آن پوشش داده ام پیوند اینجا.
  • 4) در آنچه می خواهید سختگیر باشید. هرچه بتوانید درخواست خود را دقیق تر بیان کنید، مقاله خروجی محدودتر خواهد بود و احتمال اینکه اپلیکیشن هوش مصنوعی در پاسخ بیهوده بچرخد، کمتر خواهد شد.
  • 5) جدی باشید من می‌گویم جدی باشید، زیرا یکی از ناکامی‌هایی که ممکن است رخ دهد این است که اگر به نوعی خنده‌دار به نظر می‌رسید یا مایل به پذیرش جعلی هستید، برنامه هوش مصنوعی گاهی اوقات این سمت را در پیش گرفته و با آن اجرا می‌شود و بر اساس آن خروجی‌های عجیب و غریب تولید می‌کند.
  • 6) پاسخ ها را بپرسید. بر بی میلی احتمالی ذاتی خود برای زیر سوال بردن خروجی های تولید شده غلبه کنید و در عوض برنامه هوش مصنوعی را فشار دهید تا پاسخی که فکر می کنید مشکوک است را تکرار کنید یا احتمالا توضیح دهید.
  • 7) پاسخ را به یک سوال تبدیل کنید. پس از دریافت پاسخ عجیب و غریب، می‌توانید آن را در قالب یک سؤال بپیچید و آشکارا نشان دهید که در صحت آن تردید دارید، که ممکن است پاسخی کاملاً جدید ایجاد کند.
  • 8) همان درخواست را مکررا انجام دهید. قبلاً اشاره کردم که خروجی‌ها بر اساس احتمالات هستند، و جایگزینی برای مترادف‌ها نیز انجام می‌شود، بنابراین می‌توانید چندین بار تکرار یک فرمان را امتحان کنید، و سپس از پاسخ خروجی که عاقلانه به نظر می‌رسد، انتخاب کنید و انتخاب کنید.
  • 9) همیشه مشکوک بمانید. این یک قانون کلیدی است که بررسی و ارزیابی هر خروجی از هوش مصنوعی مولد بر عهده شماست. خروجی های تولید شده را دقیق فرض نکنید.

اینها درمان قطعی نیستند.

هرچند می‌توانم بگویم که به نظر می‌رسد کمک زیادی می‌کنند و می‌توانند از نظر جمع‌آوری مقاله‌های خروجی که به نظر می‌رسد نزدیک‌تر به آنچه شما امیدوارید تولید کنید، حرکت کنند.

نتیجه

گاهی به انسان ها گفته می شود یا به آنها الهام می شود که مانند سایر انسان ها فکر کنند.

کسانی از ما که در زمینه هوش مصنوعی فعالیت می کنند، مشتاقانه تلاش می کنند تا کامپیوترها روزی مانند انسان فکر کنند.

با هوش مصنوعی مولد امروزی، ما در حال پرورش تمایل اجتماعی به تفکر مانند یک کامپیوتر هستیم.

افرادی که از برنامه های هوش مصنوعی مانند ChatGPT استفاده می کنند سعی می کنند مانند هوش مصنوعی فکر کنند. به یاد داشته باشید که انجام این کار بیشتر مربوط به تفکر مانند توسعه دهندگان هوش مصنوعی و همچنین شامل تفکر در مورد الگوریتم های محاسباتی مورد استفاده است. شما همچنین می توانید مانند داده هایی که در اینترنت وجود دارد فکر کنید. چه کلماتی بیشتر با کلمات دیگر مرتبط هستند؟ چه حقایقی با واقعیت های دیگر مرتبط است؟

نکته پایانی فعلا

ولتر، نویسنده افسانه ای روشنگری فرانسوی، گفت که هیچ مشکلی نمی تواند در برابر حمله تفکر پایدار مقاومت کند. به نظر می‌رسد این نشان می‌دهد که ما باید به این فکر کنیم که چگونه هوش مصنوعی را بهتر و بهتر کنیم. به علاوه، البته، ایمن تر و مطمئن تر. آن عنصر مهم مشترک را فراموش نکنید یا از آن غافل نشوید.

آلبرت انیشتین می‌گوید: «ما نمی‌توانیم مشکلاتمان را با همان تفکری که در زمان ایجادشان به کار می‌رفتیم حل کنیم.»

آیا این شاید بدان معنی است که ما باید در مسیر فعلی خود برای افزایش مقیاس هوش مصنوعی مولد تجدید نظر کنیم؟ ممکن است به این معنا باشد که ما باید راه‌های دیگری را به همان شدت و جدیت دنبال کنیم که در مورد هوش مصنوعی مولد اتفاق می‌افتد. خطر قرار دادن بیش از حد تخم مرغ در یک سبد وجود دارد.

امروز کجا ما را رها می کند؟

خوب، می‌توانم بدون توهم این را بگویم، از هوش مصنوعی مولد در مورد آن معما سؤال نکنید، زیرا عاقلانه است که فرض کنیم هر پاسخی که داده می‌شود احتمالاً خودخواهانه یا یک توهم تسلیم‌ناپذیر هوش مصنوعی است.

منبع: https://www.forbes.com/sites/lanceeliot/2023/02/15/outthinking-generative-ai-chatgpt-to-straighten-out-those-vexing-ai-hallucinations-advises-ai-ethics- و-آی-قانون/