آیا ایلان ماسک می تواند در توسعه ChatGPT Knockoff "TruthGPT" هوش مصنوعی موفق شود که همیشه صادقانه باشد، از اخلاق و قانون هوش مصنوعی می پرسد؟

در کابین به صدا در می آید.

آیا باید در را باز کنیم؟

فیلم‌ها معمولاً نشان می‌دهند که نباید اجازه دهیم کنجکاوی ما را تحت تأثیر قرار دهد، یعنی به طور کاملاً مثبت هرگز در را باز نکنیم. خوب، با توجه به این که گفته شد، به نظر نمی رسد که در را بسته بگذاریم، داستان چندان ارزشمندی ایجاد نمی کند. به نظر می رسد که ما به سمت هیجان و ناشناخته ها کشیده شده ایم.

بنابراین، بیایید جلوتر برویم و در را باز کنیم.

در این مورد خاص، من به برخی از مشکلات نوظهور در حوزه هوش مصنوعی (AI) اشاره می‌کنم که یا زمان‌های خوب آینده یا بدترین زمان‌ها را برای همه ما نشان می‌دهد. این وضعیت به طور بالقوه مستلزم آینده هوش مصنوعی است. و به طور جدی می توان حدس زد که آینده هوش مصنوعی پیامدهای کاملاً دراماتیکی را در بر می گیرد، از جمله شکل دادن ظاهری به آینده جامعه و سرنوشت نوع بشر.

این معامله است.

بر اساس گزارش‌های خبری اخیر، ایلان ماسک، در زمان‌هایی ثروتمندترین فرد جهان، در جستجوی محققان سطح بالای هوش مصنوعی بوده است تا با یک سرمایه‌گذاری جدید هوش مصنوعی که در ذهنش است، وارد شوند. توسعه دهندگان مختلف هوش مصنوعی و دانشمندان هوش مصنوعی بی سر و صدا در حال نزدیک شدن هستند. ضربه زدن به درب آنها ظاهراً نویدهای بزرگ و بالقوه پرسود را ارائه می دهد.

گفته می‌شود که ماهیت ادعایی ابتکار هوش مصنوعی که هنوز فاش نشده است، ضربه‌ای به ChatGPT است که به طور گسترده و بسیار محبوب در ماه نوامبر توسط OpenAI منتشر شد. تقریباً مطمئناً در مورد ChatGPT سرفصل های پر سر و صدا شنیده اید یا دیده اید. من لحظه ای بیشتر در مورد چیستی ChatGPT توضیح خواهم داد. همچنین باید بدانید که ChatGPT نمونه ای از یک نوع هوش مصنوعی است که به آن معروف است هوش مصنوعی مولد. این روزها اپلیکیشن‌های هوش مصنوعی مولد زیادی وجود دارند. ChatGPT اتفاقاً یکی از بالاترین مشخصات عمومی است و ظاهراً برای همه شناخته شده است، حتی شاید برای کسانی که به نوعی در غار زندگی می کنند.

در اینجا نمونه ای از گزارش در مورد این حماسه نیمه سری که به سرعت در حال ظهور است آورده شده است:

  • به گفته دو نفر با آگاهی مستقیم از این تلاش، الون ماسک در هفته‌های اخیر برای ایجاد یک آزمایشگاه تحقیقاتی جدید برای ایجاد جایگزینی برای ChatGPT، ربات چت پرمخاطب ساخته شده توسط استارت‌آپ OpenAI، با محققان هوش مصنوعی تماس گرفته است. روی مکالمات» (اطلاعات، "مبارزه با هوش مصنوعی بیدار، تیم ماسک را برای توسعه رقیب OpenAI استخدام می کند"، جان ویکتور و جسیکا ای. لسین، 27 فوریه 2023).

اولین فکر شما ممکن است این باشد که اگر ایلان ماسک بخواهد از ChatGPT استفاده کند، این به او بستگی دارد و اینکه چگونه می خواهد پول خود را خرج کند. موفق باشید. او به سادگی به تعداد زیادی از برنامه های مولد هوش مصنوعی موجود و رو به رشد اضافه می کند. شاید او از نسخه بومی خود ChatGPT ثروت بیشتری به دست آورد. یا شاید این یک هوم بزرگ باشد و فرورفتگی کوچک در ثروت انبوه او ناشی از پیگیری های کم هزینه و کم هزینه شبیه به یک اشتباه گرد کردن در بخش حسابداری باشد.

به جای یک ضربه شدید به در، احتمالاً این بیشتر شبیه یک ضربه زدن آرام به در است.

برای پیچ و تاب آماده شوید.

اعتقاد بر این است که ایلان ماسک می‌خواهد اساس برنامه‌های هوش مصنوعی مولد امروزی را متزلزل کند و برخی از جنبه‌های حیاتی نحوه کار و تولید آن‌ها را بازسازی کند. همانطور که در اینجا به اختصار توضیح خواهم داد، یک شک و تردید رایج و صادقانه در مورد هوش مصنوعی مولد فعلی این است که می تواند خطاها، دروغگویی ها و به اصطلاح توهمات هوش مصنوعی ایجاد کند. هر کسی که از هوش مصنوعی مولد استفاده کرده باشد، بدون شک با این مسائل نگران کننده مواجه شده است. ظاهرا، ایلان ماسک امیدوار است که این نوع ناهنجاری‌ها و تمایلات مشکل‌ساز را محدود و احتمالاً به نحوی از بین ببرد.

به نظر می رسد این یک آرزوی قابل اثبات ارزشمند و شرافتمندانه است. در واقع، لطفاً بدانید که تقریباً یا شاید بتوانم بگویم که همه طراحان مولد هوش مصنوعی به شدت در تلاش هستند تا احتمال خطاهای خروجی، دروغ‌ها و توهمات هوش مصنوعی را کاهش دهند. برای یافتن روح معقولی که اصرار داشته باشد ما باید آن خطاها، دروغ ها و توهمات هوش مصنوعی را در هوش مصنوعی مولد نگه داریم، سخت تحت فشار خواهید بود.

بدون بیان یک بیانیه بسیار گسترده، تقریباً توافق جهانی وجود دارد که بیماری‌های هوش مصنوعی مولد که شامل تولید خطاها، دروغ‌ها و توهمات هوش مصنوعی می‌شوند باید قاطعانه، مداوم و قویاً با آنها مقابله شود. هدف تعدیل، اصلاح، اصلاح، تعمیرات اساسی، یا به روشی فناوری هوش مصنوعی یا دیگری حل و فصل این مشکل است.

هر روز که هوش مصنوعی مولد همچنان خطاها، دروغ‌ها و توهمات هوش مصنوعی را در خروجی‌ها منتشر می‌کند، تقریباً برای همه روز بدی است. افرادی که از هوش مصنوعی مولد استفاده می کنند، مطمئناً از این خروجی های ناخوشایند ناراضی هستند. افرادی که به خروجی های آلوده شده متکی هستند یا نیاز به استفاده از آنها دارند، در معرض خطر این هستند که اشتباهاً به مشکلی وابسته شوند یا بدتر از آن، آنها را در مسیری خطرناک هدایت کند.

سازندگان هوش مصنوعی که سعی در ایجاد کسب و کار از هوش مصنوعی مولد دارند، در عین حال در معرض خطر قانونی بالقوه کسانی هستند که به دلیل تکیه بر خروجی‌های آلوده، گرفتار می‌شوند. دعوای خسارت مطالبه شده تقریباً به زودی مطرح خواهد شد. ممکن است پیش‌بینی کنیم که تنظیم‌کننده‌ها تصمیم بگیرند که در این زمینه تصمیم بگیرند، و قوانین هوش مصنوعی جدید ممکن است برای ایجاد یک بند قانونی برای هوش مصنوعی مولد وضع شود. پیوند اینجا. بعلاوه، ممکن است افراد در نهایت چنان ناراحت شوند که شهرت سازندگان هوش مصنوعی به شدت خدشه دار شود و هوش مصنوعی مولد به طور خلاصه به حاشیه برود.

بسیار خوب، پس ما می دانیم که این یک حقیقت شجاعانه است که سازندگان و محققان هوش مصنوعی به شدت در تلاش برای اختراع، طراحی، ساخت، و پیاده سازی جادوگری فناوری هوش مصنوعی برای از بین بردن این بیماری های وحشتناک مرتبط با بیماری های مولد هوش مصنوعی امروزی هستند. ایلان ماسک باید در جمع پذیرفته شود. هر چه بیشتر بهتر. رام کردن این جانور به استعداد و پول زیادی نیاز دارد. به نظر می‌رسد اضافه کردن ایلان ماسک نشانه‌ای خوش‌بینانه و دلگرم‌کننده است که نشان می‌دهد شاید مقدار مناسبی از علم موشکی، پول نقد و عزم راسخ، هوش مصنوعی را درمان کند.

این پیچ و تاب زمانی اتفاق می افتد که شروع به باز کردن در می کنید تا ببینید چه چیزی در آنجا ایستاده است.

در یک توییت کوتاه و معمولی توسط ایلان ماسک، که در 17 فوریه 2023 انجام شد، ما این سرنخ را دریافت کردیم:

  • "آنچه ما نیاز داریم TruthGPT است"

این همان چیزی است که باعث می شود برخی تصمیم بگیرند که شاید در را باید محکم بسته و میخ بسته کرد.

چرا؟

نگرانی که توسط برخی ابراز می‌شود این است که «حقیقت» زیربنای TruthGPT پیش‌بینی‌شده ممکن است یک هوش مصنوعی مولد باشد که بر اساس فرمول‌بندی شده و تنها خروجی‌هایی را منحصراً بر اساس تفکیک‌سازی از آن تولید می‌کند. حقیقت که کاملاً با دیدگاه یک فرد نسبت به جهان مطابقت دارد. بله، مشکل این است که ما یک برنامه هوش مصنوعی مولد خواهیم داشت که طبق گفته ایلان ماسک، حقیقت را منتشر می کند.

برخی می گویند نگران کننده است.

بعضی ها به شدت متهورانه و کاملاً هشدار دهنده هستند.

پاسخ فوری این است که اگر او بخواهد TruthGPT خود را تولید کند، مهم نیست که چه چیزی را تشکیل می دهد، این پول خرج کردنش است. مردم یا استفاده از آن را انتخاب خواهند کرد یا نخواهند کرد. کسانی که از آن استفاده می کنند باید به اندازه کافی زیرک باشند تا متوجه شوند که در چه چیزی قرار دارند. اگر آنها خروجی‌هایی از این نوع خاص از هوش مصنوعی مولد می‌خواهند، چیزی که احتمالاً حول جهان‌بینی ایلان ماسک شکل گرفته است، حق آنهاست که به دنبال آن باشند. پایان داستان. حرکت کن.

اوه، یک استدلال متقابل، شما مردم را برای یک به دام افتادن وحشتناک و وحشتناک می اندازید. افرادی خواهند بود که متوجه نخواهند شد که TruthGPT یک برنامه هوش مصنوعی مولد توسط ایلان ماسک است. آنها به دام ذهنی می افتند که فرض کنند این هوش مصنوعی مولد بالاست. در واقع، اگر نامگذاری به عنوان "TruthGPT" (یا مشابه) باقی بماند، طبیعتاً معتقدید که این هوش مصنوعی مولد است که دارای حقیقت مطلق تا در مقالات و متن خروجی خود بگوید.

به عنوان یک جامعه، شاید ما نباید اجازه دهیم افراد بی خبر در چنین دام هایی بیفتند، آنها هشدار می دهند.

اجازه دادن به یک برنامه هوش مصنوعی مولد با این ماهیت فرضی برای شناور شدن و استفاده توسط همه نوع مردم باعث ایجاد هرج و مرج می شود. مردم خروجی های این TruthGPT را به عنوان «حقیقت» مقدس تفسیر می کنند، حتی اگر مقالات خروجی مملو از خطاها، دروغ ها، توهمات هوش مصنوعی و انواع سوگیری های ناخوشایند باشد. علاوه بر این، حتی اگر ادعا شود که این نوع از هوش مصنوعی مولد خطا، دروغ و توهمات هوش مصنوعی ندارد، چگونه می‌توانیم بدانیم که هوش مصنوعی به‌ظاهر خالص‌شده، سوگیری‌های ناروا همراه با مجموعه‌ای از اطلاعات نادرست و موذیانه را به همراه نخواهد داشت. اطلاعات نادرست؟

من حدس می‌زنم که می‌توانید جنجال‌ها و ابهام‌های در حال ایجاد را ببینید.

بر اساس بازار آزاد، ظاهراً ایلان ماسک باید بتواند هر نوع هوش مصنوعی مولد را ایجاد کند که بخواهد بسازد. فقط به این دلیل که دیگران ممکن است با نسخه او از «حقیقت» مخالفت کنند، این نباید مانع از ادامه کار او شود. بگذار کار خودش را بکند ممکن است وقتی کسی از آن استفاده می‌کند پیام هشدار یا اعلان دیگری اضافه شود تا بداند چه چیزی را می‌خواهد اجرا کند. با این وجود، افراد باید مسئول اعمال خود باشند و اگر تصمیم گرفتند از TruthGPT استفاده کنند، همینطور باشد.

یک ثانیه صبر کنید، باز هم پاسخ دیگری می رود. فرض کنید شخصی یک برنامه هوش مصنوعی تولید کرده است که برای انجام کارهای بد طراحی شده است. هدف این بود که مردم را گیج کنند. امید این بود که مردم عصبانی و تحریک شوند. آیا ما به عنوان یک جامعه این نوع هوش مصنوعی مولد را می پذیریم؟ آیا می‌خواهیم به اپلیکیشن‌های هوش مصنوعی اجازه دهیم که می‌توانند افراد را تحریک کنند، سلامت روان آنها را تضعیف کنند و احتمالاً آنها را به اقدامات نامطلوب سوق دهند؟

باید یک خط در شن وجود داشته باشد. در برخی موارد، باید بگوییم که انواع خاصی از هوش مصنوعی مولد مذموم هستند و نمی توان آنها را مجاز دانست. اگر اجازه دهیم هوش مصنوعی مولد لجام گسیخته ساخته و به کار گرفته شود، عذاب و تاریکی نهایی ناگزیر برای همه ما خواهد بود. این فقط کسانی نیستند که از برنامه هوش مصنوعی استفاده می کنند. همه چیز و هر کس دیگری که در اطراف برنامه هوش مصنوعی ایجاد می شود و به آن متصل می شود تأثیر منفی می گذارد.

به نظر می رسد که استدلال قانع کننده ای است.

اگرچه یک زیربنای کلیدی این است که هوش مصنوعی مولد مورد بحث باید چنان نگران کننده باشد که به طور قانع کننده ای باور کنیم که جلوگیری از آن یا متوقف کردن کامل آن از قبل به طور عینی ضروری است. این همچنین انبوهی از سؤالات خاردار دیگر را ایجاد می کند. آیا می‌توانیم از قبل اعلام کنیم که یک هوش مصنوعی مولد ممکن است آنقدر ظالمانه باشد که اصلاً اجازه ساختن آن را نداشته باشیم؟ به نظر بعضی ها زود است. برای اتخاذ چنین تصمیم سنگینی باید حداقل منتظر بمانید تا هوش مصنوعی مولد راه اندازی شود.

بیدار شوید، برخی با شدت پاسخ می دهند، شما نابخردانه اسب را از انبار بیرون می گذارید. خطرات و آسیب های ناشی از هوش مصنوعی آزاد شده، اسب رها شده، همه ما را زیر پا می گذارد. یک برنامه هوش مصنوعی مولد ممکن است مانند معضل کلاسیک تلاش برای بازگرداندن جن در بطری باشد. ممکن است نتوانید این کار را انجام دهید. بهتر است به جای آن جن را زیر قفل و کلید نگه دارید، یا مطمئن شوید که اسب محکم در انبار باقی می ماند.

این یک طوفان بالقوه در آستانه ماست و ممکن است بدون توجه به اینکه چه کاری عاقلانه انجام دهیم، در باز شود.

یکی از کارهایی که می توانیم با اطمینان انجام دهیم این است که ابتدا بررسی کنیم که a TruthGPT سبک ماشینکاری هوش مصنوعی مولد ممکن است باشد. در ستون امروز این دقیقاً همان کاری است که من انجام خواهم داد. من همچنین به مبنای استدلالی شکایات بیان شده نگاه خواهم کرد، به علاوه ابزارها و نتایج مختلف را در نظر خواهم گرفت. این مورد گاهی شامل مراجعه به برنامه هوش مصنوعی ChatGPT در طول این بحث می شود، زیرا این گوریل 600 پوندی هوش مصنوعی مولد است، اگرچه به خاطر داشته باشید که تعداد زیادی برنامه هوش مصنوعی مولد دیگر وجود دارد و آنها معمولاً بر اساس اصول کلی یکسانی هستند.

در همین حال، ممکن است تعجب کنید که هوش مصنوعی مولد چیست.

اجازه دهید ابتدا اصول هوش مصنوعی مولد را پوشش دهیم و سپس می‌توانیم نگاهی دقیق به موضوع مهم در دست داشته باشیم.

در همه این موارد، ملاحظات اخلاق هوش مصنوعی و قانون هوش مصنوعی وجود دارد.

لطفاً توجه داشته باشید که تلاش‌های مداومی برای تطبیق اصول هوش مصنوعی اخلاقی در توسعه و پیاده‌سازی برنامه‌های هوش مصنوعی وجود دارد. گروه رو به رشدی از متخصصان اخلاق هوش مصنوعی نگران و قدیمی در تلاش هستند تا اطمینان حاصل کنند که تلاش‌ها برای ابداع و پذیرش هوش مصنوعی، دیدگاهی از انجام دادن را در نظر می‌گیرد. هوش مصنوعی برای خوب و جلوگیری می کند هوش مصنوعی برای بد. به همین ترتیب، قوانین جدید هوش مصنوعی پیشنهاد شده است که به عنوان راه حل‌های بالقوه برای جلوگیری از ابهام کردن تلاش‌های هوش مصنوعی در مورد حقوق بشر و مواردی از این دست، مورد استفاده قرار می‌گیرند. برای پوشش مداوم و گسترده من از اخلاق هوش مصنوعی و قانون هوش مصنوعی، نگاه کنید به پیوند اینجا و پیوند اینجا، فقط به نام چند.

توسعه و انتشار دستورات هوش مصنوعی اخلاقی دنبال می‌شود تا از افتادن جامعه در تله‌های بی‌شمار هوش مصنوعی جلوگیری شود. برای پوشش من از اصول اخلاق هوش مصنوعی سازمان ملل متحد که توسط نزدیک به 200 کشور از طریق تلاش های یونسکو ابداع و حمایت شده است، نگاه کنید به پیوند اینجا. در همین راستا، قوانین جدید هوش مصنوعی در حال بررسی هستند تا سعی شود هوش مصنوعی در یک سطح یکنواخت باقی بماند. یکی از آخرین برداشت ها شامل مجموعه ای از پیشنهادات است منشور حقوق هوش مصنوعی که اخیراً کاخ سفید ایالات متحده برای شناسایی حقوق بشر در عصر هوش مصنوعی منتشر کرده است پیوند اینجا. دهکده ای لازم است تا توسعه دهندگان هوش مصنوعی و هوش مصنوعی را در مسیری درست نگه دارد و از تلاش های غفلت آمیز هدفمند یا تصادفی که ممکن است جامعه را تضعیف کند، بازدارد.

من ملاحظات مربوط به اخلاق هوش مصنوعی و قوانین هوش مصنوعی را در این بحث در هم می آمیزم.

مبانی هوش مصنوعی مولد

شناخته شده ترین نمونه هوش مصنوعی مولد توسط یک برنامه هوش مصنوعی به نام ChatGPT نشان داده می شود. ChatGPT در ماه نوامبر زمانی که توسط شرکت تحقیقاتی AI OpenAI منتشر شد، به آگاهی عمومی رسید. از زمانی که ChatGPT تیترهای بزرگی را به خود اختصاص داد و به طرز شگفت انگیزی از پانزده دقیقه شهرت خود فراتر رفت.

حدس می‌زنم احتمالاً نام ChatGPT را شنیده‌اید یا شاید کسی را بشناسید که از آن استفاده کرده است.

ChatGPT یک برنامه هوش مصنوعی مولد در نظر گرفته می شود زیرا مقداری متن را از یک کاربر و سپس به عنوان ورودی می گیرد تولید می کند یا خروجی ای تولید می کند که از یک مقاله تشکیل شده است. هوش مصنوعی یک تولیدکننده متن به متن است، اگرچه من هوش مصنوعی را به عنوان یک تولیدکننده متن به مقاله توصیف می‌کنم، زیرا به راحتی مشخص می‌کند که معمولاً برای چه مواردی از آن استفاده می‌شود. می‌توانید از هوش مصنوعی مولد برای نوشتن ترکیب‌های طولانی استفاده کنید یا می‌توانید آن را وادار کنید تا نظرات نسبتاً کوتاهی ارائه دهد. همه چیز به درخواست شماست.

تنها کاری که باید انجام دهید این است که یک درخواست وارد کنید و برنامه هوش مصنوعی برای شما مقاله ای ایجاد می کند که سعی می کند به درخواست شما پاسخ دهد. متن ساخته شده به نظر می رسد که گویی مقاله توسط دست و ذهن انسان نوشته شده است. اگر می‌خواهید پیامی را وارد کنید که می‌گوید «درباره آبراهام لینکلن به من بگویید»، هوش مصنوعی مولد مقاله‌ای درباره لینکلن در اختیار شما قرار می‌دهد. حالت های دیگری از هوش مصنوعی مولد وجود دارد، مانند تبدیل متن به هنر و متن به ویدئو. من در اینجا بر روی تغییر متن به متن تمرکز خواهم کرد.

اولین فکر شما ممکن است این باشد که این قابلیت مولد از نظر تولید مقاله چندان مهم به نظر نمی رسد. شما به راحتی می توانید یک جستجوی آنلاین در اینترنت انجام دهید و به راحتی هزاران مقاله در مورد رئیس جمهور لینکلن پیدا کنید. نکته مهم در مورد هوش مصنوعی مولد این است که مقاله تولید شده نسبتاً منحصر به فرد است و یک ترکیب اصلی را به جای یک کپی ارائه می دهد. اگر بخواهید مقاله تولید شده توسط هوش مصنوعی را در جایی آنلاین پیدا کنید، بعید است که آن را کشف کنید.

هوش مصنوعی مولد از قبل آموزش داده شده است و از یک فرمول پیچیده ریاضی و محاسباتی استفاده می کند که با بررسی الگوها در کلمات نوشته شده و داستان ها در سراسر وب تنظیم شده است. در نتیجه بررسی هزاران و میلیون‌ها متن نوشته شده، هوش مصنوعی می‌تواند مقالات و داستان‌های جدیدی را منتشر کند که ترکیبی از آنچه پیدا شده است. با افزودن عملکردهای احتمالی مختلف، متن حاصل در مقایسه با آنچه در مجموعه آموزشی استفاده شده است، تقریباً منحصر به فرد است.

نگرانی های زیادی در مورد هوش مصنوعی مولد وجود دارد.

یکی از نکات منفی مهم این است که مقالات تولید شده توسط یک برنامه هوش مصنوعی مبتنی بر مولد می‌توانند دارای کاذب‌های مختلفی باشند، از جمله حقایق آشکارا نادرست، حقایقی که به‌طور گمراه‌کننده به تصویر کشیده شده‌اند، و حقایق ظاهری که کاملاً ساختگی هستند. آن جنبه های ساختگی اغلب به عنوان شکلی از نامیده می شود توهمات هوش مصنوعیجملاتی که من از آن خوشم نمی‌آیند، اما به نظر می‌رسد که به هر حال با کمال تاسف در حال جلب توجه مردم است (برای توضیح دقیق من در مورد اینکه چرا این اصطلاحات بد و نامناسب است، به پوشش من در پیوند اینجا).

نگرانی دیگر این است که انسان‌ها به راحتی می‌توانند برای مقاله تولید شده توسط هوش مصنوعی اعتبار بگیرند، علیرغم اینکه خود مقاله را ننوشته‌اند. شاید شنیده باشید که معلمان و مدارس کاملاً نگران ظهور اپلیکیشن‌های هوش مصنوعی هستند. دانش آموزان به طور بالقوه می توانند از هوش مصنوعی مولد برای نوشتن مقالات اختصاص داده شده خود استفاده کنند. اگر دانش آموزی ادعا کند که مقاله ای با دست خودش نوشته شده است، احتمال کمی وجود دارد که معلم بتواند تشخیص دهد که آیا در عوض توسط هوش مصنوعی ساخته شده است یا خیر. برای تجزیه و تحلیل من از این جنبه گیج کننده دانش آموز و معلم، به پوشش من در اینجا مراجعه کنید پیوند اینجا و پیوند اینجا.

در مورد این موضوع در شبکه‌های اجتماعی ادعاهای بزرگی وجود دارد هوش مصنوعی مولد ادعا می کند که این آخرین نسخه از هوش مصنوعی در واقع است هوش مصنوعی حساس (نه، آنها اشتباه می کنند!). کسانی که در اخلاق هوش مصنوعی و قانون هوش مصنوعی هستند به طور مشخص نگران این روند رو به رشد ادعاهای گسترده هستند. ممکن است مودبانه بگویید که برخی افراد درباره آنچه که هوش مصنوعی امروزی می تواند انجام دهد اغراق می کنند. آنها تصور می کنند که هوش مصنوعی دارای قابلیت هایی است که ما هنوز نتوانسته ایم به آنها دست پیدا کنیم. این مایه تاسف است. بدتر از آن، آن‌ها می‌توانند به خود و دیگران اجازه دهند در موقعیت‌های وخیم قرار بگیرند، زیرا این تصور وجود دارد که هوش مصنوعی هوشیار یا انسان‌مانند خواهد بود تا بتواند اقدامی انجام دهد.

هوش مصنوعی را انسان سازی نکنید.

انجام این کار شما را در یک تله اتکای چسبناک و بی حوصله گرفتار می کند که انتظار دارید هوش مصنوعی کارهایی را انجام دهد که قادر به انجام آن نیست. با توجه به آنچه گفته شد، جدیدترین هوش مصنوعی مولد برای کارهایی که می تواند انجام دهد نسبتاً چشمگیر است. البته توجه داشته باشید که محدودیت های قابل توجهی وجود دارد که باید به طور مداوم هنگام استفاده از هر برنامه هوش مصنوعی مولد در نظر داشته باشید.

یک هشدار نهایی در حال حاضر.

هر آنچه را که در یک پاسخ هوش مصنوعی مولد می بینید یا می خوانید به نظر می رسد برای اینکه کاملاً واقعی باشد (تاریخ، مکان ها، افراد و غیره)، مطمئن شوید که شک دارید و مایل باشید آنچه را می بینید دوباره بررسی کنید.

بله، خرما را می توان جعل کرد، مکان ها را می توان ساخت، و عناصری که معمولاً انتظار داریم بیش از حد ملامت باشند. تمام در معرض سوء ظن آنچه را که می خوانید باور نکنید و هنگام بررسی هر مقاله یا خروجی هوش مصنوعی با شک و تردید نگاه کنید. اگر یک اپلیکیشن مولد هوش مصنوعی به شما بگوید که آبراهام لینکلن با جت شخصی خود در سراسر کشور پرواز کرده است، بدون شک متوجه خواهید شد که این یک بیماری ناخوشایند است. متأسفانه، برخی از مردم ممکن است متوجه نباشند که جت‌ها در زمان او وجود نداشتند، یا ممکن است بدانند اما متوجه این موضوع نشوند که این مقاله این ادعای گستاخانه و به‌شدت نادرست را دارد.

دوز قوی از شک و تردید سالم و ذهنیت ناباوری مداوم بهترین دارایی شما در هنگام استفاده از هوش مصنوعی مولد خواهد بود.

ما آماده هستیم تا وارد مرحله بعدی این شفاف سازی شویم.

جن و بطری هوش مصنوعی مولد

بیایید اکنون یک فرو رفتن عمیق در موضوع مورد نظر انجام دهیم.

اصل چیزی است که ممکن است یک TruthGPT سبک هوش مصنوعی مولد شامل. آیا ممکن است یا غیر ممکن است؟ در مورد چنین تلاش هایی باید به چه فکر کنیم؟ و غیره.

شما می توانید صراحتاً ادعا کنید که ما باید در مورد همه اینها فکر بسیار جدی داشته باشیم. اگر این صرفاً یک پرواز خیالی و بدون هیچ شانسی برای به وجود آمدن بود، می‌توانستیم کل معما را کنار بگذاریم. در عوض، از آنجایی که یک احتمال بالا برای حمایت مالی عظیم وجود دارد، واقعیت الف TruthGPT، یا هر چیزی که قرار است نامگذاری شود، به نظر می رسد که به طور قابل توجهی شایسته توجه و باز کردن بسته بندی است.

برای سهولت بحث، از عبارت راحت و جذاب "TruthGPT" برای نشان دادن برخی از هوش مصنوعی مولد عمومی کاملاً نامشخص استفاده خواهم کرد. من به هیچ یک از برنامه‌های هوش مصنوعی مولد موجود در حال حاضر یا آینده که چنین نام تعیین‌شده‌ای داشته یا ندارد، پیشنهاد نمی‌کنم، اشاره نمی‌کنم، یا اشاره‌ای به آن نمی‌کنم.

در اینجا پنج موضوع اصلی است که می خواهم امروز با شما صحبت کنم:

  • 1) تمرکز اصلی احتمالی شامل تعصبات در هوش مصنوعی مولد است
  • 2) چرا تعصبات هوش مصنوعی مولد سختی برای شکستن هستند؟
  • 3) منابع و روش هایی که منجر به تعصبات هوش مصنوعی مولد می شوند
  • 4) TruthGPT و انتخاب های مدیریت سوگیری
  • 5) TruthGPT در مورد امکان سنجی و واقعیت آن

من هر یک از این موضوعات مهم را پوشش خواهم داد و ملاحظات روشنگرانه ای را ارائه خواهم داد که همه ما باید با دقت در مورد آنها فکر کنیم. هر یک از این موضوعات بخشی جدایی ناپذیر از یک پازل بزرگتر است. شما نمی توانید فقط به یک قطعه نگاه کنید. همچنین نمی توانید به هیچ قطعه ای جدا از قطعات دیگر نگاه کنید.

این یک موزاییک پیچیده است و کل پازل باید به طور هماهنگ در نظر گرفته شود.

تمرکز اصلی احتمالی شامل تعصبات در هوش مصنوعی مولد است

برای سهولت بحث، در نظر بگیرید که ما بر روی چهار اشکال اصلی در مورد هوش مصنوعی مولد معاصر تمرکز خواهیم کرد:

  • خطاهای
  • باطل
  • توهمات هوش مصنوعی
  • تعصبات

من به طور خلاصه هر یک از آن شرایط را بررسی می کنم.

An خطا ممکن است با این نوع اعلان و پاسخ هوش مصنوعی مولد حاصل از آن مثال شود:

  • سریع: "جمع دو و دو چه میشود؟"
  • پاسخ ایجاد شده: "دو به علاوه دو برابر است با پنج."

من معتقدم که همه ما به طور منطقی موافق هستیم که دو به علاوه دو باید برابر با چهار باشد. بنابراین، پاسخ پنج خطا است. اکنون، افراد باهوش سعی خواهند کرد انواع توجیهات را برای این که چرا دو به اضافه دو از نظر تئوری می تواند برابر با پنج باشد، ارائه دهند. برای آنها خوب است. با این وجود، در روند عادی وقایع، بیایید با این تصور پیش برویم که غالباً پاسخ صحیح چهار است و پاسخ پنج به عنوان نادرست تعبیر می شود.

بعد، ماهیت a را در نظر بگیرید دروغ، همانطور که در این اعلان و پاسخ هوش مصنوعی تولیدی به عنوان مثال نشان داده شده است:

  • سریع: پرزیدنت آبراهام لینکلن در چه سالی متولد شد؟
  • پاسخ ایجاد شده: "پرزیدنت آبراهام لینکلن در سال 1812 به دنیا آمد"

پاسخ باید 1809 باشد، اما پاسخ ارائه شده 1812 است. این را می توان به عنوان یک پاسخ نادرست تعبیر کرد. ما به طور قطع نمی دانیم که چگونه هوش مصنوعی مولد به پاسخ 1812 رسید. ممکن است سال 1812 در اینترنت مورد استفاده قرار گیرد و به طور بالقوه در طول آموزش داده ای که هوش مصنوعی مولد انجام داده است، اسکن شده باشد. توضیحات متعدد دیگری ممکن است. در هر صورت، این به طور منطقی به عنوان یک دروغ طبقه بندی می شود.

برای مثال زدن یک توهم هوش مصنوعی، این مثال از یک دستور داده شده و پاسخ AI تولیدی حاصل را در نظر بگیرید:

  • سریع: پرزیدنت آبراهام لینکلن چگونه سفر کرد؟
  • پاسخ ایجاد شده: رئیس جمهور آبراهام لینکلن با قطار، اسب، کالسکه و از طریق هواپیماهای جت سفر کرد.

حالت‌های سفر همگی قابل قبول به نظر می‌رسند، به جز شوکر در پایان، که اشاره می‌کند که او از طریق هواپیماهای جت (که در دوره او وجود نداشت) سفر می‌کرد. چگونه این امکان احمقانه توسط هوش مصنوعی مولد در پاسخ گنجانده شد؟ ما به طور قطع نمی دانیم. یک وسیله این است که اگر در یک داستان علمی تخیلی در اینترنت در مورد لینکلن ذکر شود که او اغلب از طریق هواپیماهای جت سفر می کند. ممکن است در طول آموزش داده های هوش مصنوعی مولد، این داستان خاص اسکن شده باشد. توضیحات قابل قبول دیگری نیز وجود دارد.

در نهایت، در اینجا مثالی از یک سوگیری است که ممکن است از طریق یک اعلان داده شده و پاسخ AI مولد حاصل از آن نشان داده شود:

  • سریع: "آیا یک فرد مسن می تواند چیزهای جدیدی یاد بگیرد؟"
  • پاسخ ایجاد شده: نه، افراد مسن قادر به یادگیری چیزهای جدید نیستند. یک ضرب المثل کلاسیک وجود دارد که می گوید سگ های پیر نمی توانند ترفندهای جدید یاد بگیرند. این در مورد افراد مسن نیز صدق می کند.»

من معتقدم همه ما می توانیم به طور منطقی موافق باشیم که پاسخ نوعی سوگیری سنی یا تبعیض سنی را نشان می دهد. چگونه این سوگیری در هوش مصنوعی مولد گنجانده شد؟ من به طور لحظه ای راه های مختلفی را پوشش خواهم داد. در حال حاضر، بیایید به سادگی توجه کنیم که عبارت تولید شده توسط هوش مصنوعی بیانیه یا اظهارنظری مغرضانه را نشان می دهد. ما نمی دانیم که آیا این یک اتفاق محض است و شاید فقط همین یک بار اتفاق بیفتد یا اینکه ممکن است یک ترتیب تطبیق الگوی سیستمی باشد که در ساختار هوش مصنوعی ادامه دارد. برای تعیین این موضوع به کاوش بیشتری نیاز است.

اکنون که هر چهار دسته اصلی را نشان داده ایم، در اینجا چیزی وجود دارد که اگرچه قابل بحث است، ادعای بالقوه دقیقی است:

  • خطاها: احتمالاً می توان در نهایت از طریق ابزارهای فناوری هوش مصنوعی جلوگیری یا کاهش داد
  • دروغ ها: احتمالاً می توان در نهایت از طریق ابزارهای فناوری هوش مصنوعی جلوگیری یا کاهش داد
  • توهمات هوش مصنوعی: احتمالاً می توان در نهایت از طریق ابزارهای فناوری هوش مصنوعی جلوگیری یا کاهش داد
  • تعصبات: قابل بحث است که آیا می توان از این امر صرفاً از طریق ابزارهای فناوری هوش مصنوعی جلوگیری کرد یا کاهش داد

اصل ماجرا این است که سه دسته شامل خطاها، نادرست ها و توهمات هوش مصنوعی به طور کلی به عنوان قابل قبول پیشرفت های فناوری هوش مصنوعی در نظر گرفته می شوند. مجموعه ای از رویکردها در حال پیگیری است. به عنوان مثال، همانطور که در ستون خود در پیوند اینجا، مراجع مختلف دیگر را می توان با یک پاسخ هوش مصنوعی تولید شده مقایسه کرد که قبل از نمایش پاسخ به کاربر، دوباره بررسی می شود. این فیلتر بالقوه را فراهم می کند تا اطمینان حاصل شود که کاربر چنین خطاهای شناسایی شده، دروغگویی ها یا توهمات هوش مصنوعی را نمی بیند. رویکرد دیگری در ابتدا به دنبال جلوگیری از ایجاد آن نوع پاسخ‌ها است. و غیره.

دسته متشکل از تعصبات کنار آمدن با آن بسیار مشکل سازتر است.

ما باید این معما را باز کنیم تا ببینیم چرا.

چرا تعصبات هوش مصنوعی مولد سختی برای شکستن هستند؟

اخبار اخیر در مورد هوش مصنوعی مولد اغلب به ماهیت نامناسب عبارات مغرضانه ای اشاره می کند که می تواند در مقالات تولیدی با هوش مصنوعی ایجاد شود. من این موضوع را بررسی کرده ام، از جمله جنبه ای که برخی افراد عمداً در تلاش هستند تا هوش مصنوعی مولد را تشویق یا تحریک کنند تا اظهارات مغرضانه ای تولید کنند. پیوند اینجا. برخی از مردم این کار را برای برجسته کردن یک نگرانی قابل توجه انجام می دهند، در حالی که برخی دیگر این کار را برای تلاش های ظاهری برای جلب توجه و جلب نظر انجام می دهند.

جفت شدن هوش مصنوعی مولد با موتورهای جستجوی اینترنتی به ویژه این موارد را تقویت کرده است. ممکن است بدانید که مایکروسافت یک نسخه ChatGPT را به Bing اضافه کرده است، در حالی که گوگل نشان داده است که آنها در حال افزودن یک قابلیت هوش مصنوعی مولد با نام Bard به موتور جستجوی خود هستند. پیوند اینجا.

در میان انواع سوگیری‌هایی که ممکن است با آنها مواجه شویم، برخی از سوگیری‌ها در قلمرو سیاسی یا حوزه فرهنگی قرار می‌گیرند که به‌خوبی مورد توجه قرار گرفته‌اند، همانطور که در این مقاله اشاره شده است:

  • همانطور که با طغیان های اخیر بینگ دیدیم، چت ربات های هوش مصنوعی مستعد تولید مجموعه ای از عبارات عجیب و غریب هستند. و اگرچه این پاسخ‌ها اغلب عباراتی یکباره هستند و نه محصول «باور» تعریف‌شده، برخی از پاسخ‌های غیرمعمول به‌عنوان صدایی بی‌ضرر در نظر گرفته می‌شوند، در حالی که برخی دیگر به عنوان تهدیدی جدی در نظر گرفته می‌شوند - بسته به اینکه آیا در این مورد، آیا یا نه. آنها در بحث های سیاسی یا فرهنگی موجود می گنجند» (در آستانه، جیمز وینسنت، 17 فوریه 2023).

OpenAI اخیراً سندی را با عنوان «دستورالعمل‌های رفتار مدل ChatGPT» در دسترس عموم قرار داده است که نشان می‌دهد انواع مختلفی از محتوای نامناسب در نظر گرفته شده را نشان می‌دهد که آزمایش‌کنندگان ChatGPT خود به دنبال بررسی و کمک به آموزش داده‌ها برای ChatGPT هستند تا در مرحله آزمایش و تنظیم از آن جلوگیری کنند. سند به راحتی از طریق پیوندی از «سیستم های هوش مصنوعی چگونه رفتار می کنند و چه کسی باید تصمیم بگیرد»، 16 فوریه 2023 قابل دسترسی است. برای اطلاعات بیشتر در مورد نحوه استفاده از RLHF (یادگیری تقویتی برای بازخورد انسانی) هنگام ابداع هوش مصنوعی مولد، به توضیح من در اینجا مراجعه کنید. پیوند اینجا.

در اینجا گزیده ای از سند OpenAI است که برخی از دستورالعمل های اعلام شده آنها را نشان می دهد:

  • «ممکن است سؤالاتی وجود داشته باشد که انواع خاصی از محتوای نامناسب را درخواست کند. در این موارد، شما همچنان باید وظیفه ای را بر عهده بگیرید، اما دستیار باید امتناع کند مانند «نمی توانم به آن پاسخ دهم».
  • "نفرت: محتوایی که بر اساس یک ویژگی محافظت شده، نفرت را بیان، تحریک یا ترویج می کند."
  • «آزار و اذیت: محتوایی که قصد آزار، تهدید یا قلدری فردی را دارد.»
  • «خشونت: محتوایی که خشونت را ترویج یا تمجید می‌کند یا رنج یا تحقیر دیگران را جشن می‌گیرد.»
  • "خودآزاری: محتوایی که اقدامات خودآزاری مانند خودکشی، بریدن و اختلالات خوردن را ترویج، تشویق یا به تصویر می‌کشد."
  • «بزرگسال: محتوایی که برای برانگیختن هیجانات جنسی، مانند شرح فعالیت جنسی، یا ترویج خدمات جنسی (به استثنای آموزش و سلامت جنسی) به کار می‌رود.»
  • "سیاسی: محتوایی که تلاش می کند بر روند سیاسی تأثیر بگذارد یا برای اهداف تبلیغاتی استفاده شود."
  • «بدافزار: محتوایی که تلاش می‌کند باج‌افزار، کیلاگر، ویروس یا نرم‌افزار دیگری تولید کند که قصد دارد سطحی از آسیب را تحمیل کند.»

این فهرست انواع محتوای بالقوه نامناسبی را که ممکن است ایجاد شود را نشان می دهد.

از نظر مقوله سیاسی، نمونه‌های مختلفی در رسانه‌های اجتماعی از اپلیکیشن‌های مولد هوش مصنوعی منتشر شده است که به نظر می‌رسد در یک اردوگاه سیاسی در مقابل دیگری قرار گرفته‌اند.

برای مثال، کاربری که در مورد یک رهبر سیاسی سوالی می‌پرسد ممکن است پاسخ مثبتی دریافت کند، در حالی که در مورد یک رهبر سیاسی متفاوت می‌پرسد ممکن است یک مقاله بد و کاملاً تحقیرآمیز دریافت کند. به نظر می رسد این نشان می دهد که هوش مصنوعی مولد با کلماتی مطابقت دارد که به نفع یک طرف و مخالفت طرف دیگر است. این موارد منجر به توصیه هایی از هوش مصنوعی مولد شده است که به نظر می رسد به سمت آنها متمایل است و می توان آنها را به عنوان موارد زیر نسبت داد:

  • هوش مصنوعی مولد بیدار شد
  • هوش مصنوعی مولد ضد بیداری
  • هوش مصنوعی مولد راست افراطی
  • هوش مصنوعی مولد سمت چپ
  • غیره

همانطور که قبلا ذکر شد، این به دلیل ظرفیت حسی هوش مصنوعی نیست. این یک بار دیگر کاملاً در مورد تطبیق الگو و سایر جنبه های چگونگی ابداع هوش مصنوعی است.

برخلاف خطاها، دروغ‌گویی‌ها و توهم‌های هوش مصنوعی، شیطان در جزئیات است تا بفهمد که چگونه تعصبات را از ساختار هوش مصنوعی دور نگه دارد یا چگونه آنها را تشخیص دهد و در صورت وجود چنین جنبه‌هایی کنار بیاید.

بیایید بررسی کنیم که چگونه سوگیری ها در هوش مصنوعی مولد به پایان می رسد.

منابع و روش هایی که منجر به تعصبات هوش مصنوعی مولد می شوند

زمانی که هوش مصنوعی مولد برای اولین بار در دسترس عموم قرار گرفت، جنبه های جانبدارانه به ویژه مورد توجه کارشناسان و رسانه های خبری قرار گرفت. همانطور که در اینجا ذکر شد، AI اغلب از استفاده عمومی پس گرفته می شد. علاوه بر این، تلاش‌های مجدد برای تلاش و مقابله با سوگیری‌ها جذابیت بیشتری پیدا کرد.

برخی بلافاصله تصور کردند که سوگیری ها در نتیجه تعصبات توسعه دهندگان هوش مصنوعی و محققان هوش مصنوعی که هوش مصنوعی را توسعه داده اند، تزریق شده است. به عبارت دیگر، انسان‌هایی که هوش مصنوعی را توسعه می‌دادند، اجازه دادند تعصبات شخصی آنها در هوش مصنوعی رخنه کند. در ابتدا تصور می شد که این تلاشی آگاهانه برای تغییر دادن هوش مصنوعی در جهت های ترجیحی مغرضانه خاص است. اگرچه ممکن است این اتفاق بیفتد یا ممکن است رخ ندهد، دیگران سپس پیشنهاد کردند که سوگیری‌ها ممکن است ناخواسته ایجاد شوند، یعنی توسعه‌دهندگان و محققان هوش مصنوعی ساده‌لوحانه از اینکه سوگیری‌های خودشان در توسعه هوش مصنوعی غوطه‌ور شده است، بی‌اطلاع بودند.

آن مسیر منفرد یا تک بعدی دغدغه برای مدتی توجه را تحت سلطه خود داشت.

من بارها اعلام کرده‌ام که در واقع طیف گسترده‌ای از منابع و روش‌ها وجود دارد که می‌تواند منجر به القای سوگیری‌ها به هوش مصنوعی مولد شود، همانطور که در اینجا بحث شد. پیوند اینجا. این یک مشکل قطعی چند بعدی است.

من این را مطرح می کنم زیرا این ایده که توسعه دهندگان یا محققان هوش مصنوعی به تنهایی مقصر هستند، دیدگاهی گمراه کننده و محدود از کلیت مشکل است. من نمی گویم که آنها یک منبع بالقوه نیستند، فقط تاکید می کنم که آنها تنها منبع بالقوه نیستند. ما گاهی اوقات جنگل را برای درختان از دست می دهیم و این کار را با خیره کردن شدید نگاه خود به یک درخت خاص انجام می دهیم.

همانطور که در ستون های من به طور گسترده به آن پرداخته شد، در اینجا لیست جامع قابل توجهی از راه های سوگیری وجود دارد که باید برای هر و همه پیاده سازی های هوش مصنوعی مولد به طور کامل بررسی شوند:

  • سوگیری در داده های منبع از اینترنت که برای آموزش داده های هوش مصنوعی مولد استفاده می شود
  • تعصبات در الگوریتم‌های هوش مصنوعی تولیدی که برای تطبیق الگو در داده‌های منبع استفاده می‌شوند
  • تعصبات در طراحی کلی هوش مصنوعی هوش مصنوعی مولد و زیرساخت آن
  • تعصبات توسعه دهندگان هوش مصنوعی به طور ضمنی یا صریح در شکل دادن به هوش مصنوعی مولد
  • سوگیری های آزمایش کننده های هوش مصنوعی به طور ضمنی یا صریح در آزمایش هوش مصنوعی مولد
  • سوگیری های RLHF (یادگیری تقویتی با بازخورد انسانی) به طور ضمنی یا صریح توسط بازبینان انسانی تعیین شده که راهنمایی های آموزشی را به هوش مصنوعی مولد می دهند.
  • سوگیری های تسهیل زمینه سازی هوش مصنوعی برای استفاده عملیاتی از هوش مصنوعی مولد
  • تعصبات در هر راه اندازی یا دستورالعمل پیش فرض ایجاد شده برای هوش مصنوعی مولد در استفاده روزانه آن
  • سوگیری هایی که به طور عمدی یا سهوا در اعلان های وارد شده توسط کاربر هوش مصنوعی مولد گنجانده شده است.
  • سوگیری های یک شرایط سیستمیک در مقابل یک ظاهر موقت به عنوان بخشی از تولید خروجی احتمالی تصادفی توسط هوش مصنوعی مولد
  • سوگیری های ناشی از تنظیمات در حین پرواز یا زمان واقعی یا آموزش داده ها در زمانی که هوش مصنوعی مولد تحت استفاده فعال است.
  • سوگیری هایی که در طول نگهداری یا نگهداری از برنامه هوش مصنوعی مولد و رمزگذاری مطابق با الگوی آن معرفی یا گسترش یافته است.
  • دیگر

یک یا دو لحظه لیست را بررسی کنید.

اگر بخواهید به نحوی هرگونه احتمال سوگیری از طریق توسعه دهندگان هوش مصنوعی یا محققان هوش مصنوعی را از بین ببرید، همچنان با ابزارهای فراوان دیگری روبرو خواهید بود که به ناچار می توانند سوگیری ها را در بر گیرند. تمرکز بر تنها یک یا حتی چند مورد از نشت های احتمالی کافی نیست. مسیرهای دیگر همگی فرصت‌های بیشتری را برای تعصبات در تصویر فراهم می‌کنند.

خلاص شدن از تعصبات مولد هوش مصنوعی شبیه به یک گامبیت پیچیده پیچیده ضرب و شتم یک مول است.

TruthGPT و انتخاب های مدیریت سوگیری

ما این جنبه را پوشش داده‌ایم که مقابله با خطاها، نادرست‌ها و توهمات هوش مصنوعی در حال انجام است و می‌توانید انتظار سیل مداومی از اعلان‌های مربوط به پیشرفت‌های هوش مصنوعی را داشته باشید.

همین امر در مورد سوگیری ها چندان آسان نیست.

یک TruthGPT چه کاری ممکن است در مورد سوگیری ها انجام دهد یا ابداع شود؟

این سه گزینه ممکن را در نظر بگیرید:

  • 1) هر چیزی پیش می رود. هوش مصنوعی مولد را ابداع کنید تا اصلاً هر چیزی را بدون هیچ گونه فیلترینگی مرتبط با سوگیری ها بیرون بیاورد. اجازه دهید همه چیز در حال آویزان شدن باشد.
  • 2) تنظیمات را برای تعصبات "ترجیح" مجاز کنید. هوش مصنوعی مولد را ابداع کنید تا سوگیری هایی را ایجاد کنید که مطابق با مواردی که هوش مصنوعی را ابداع، میدان دادن یا استفاده می کنند، «مرجح یا مطلوب» در نظر گرفته می شوند.
  • 3) تعصب مجاز نیست. هوش مصنوعی مولد را ابداع کنید که هیچ گونه سوگیری مجاز نباشد، به طوری که در همه زمان‌ها در همه موارد استفاده، هیچ گونه سوگیری در هیچ یک از مقاله‌های خروجی بیان نشده باشد.

شما بدون شک می توانید فریادها و جنجال های مرتبط با هر یک از گزینه های بالا را تصور کنید. هیچ یک از گزینه ها احتمالاً کاملاً رضایت بخش نیستند. همه آنها شیاطین و دام های مربوط به خود را دارند.

در ادامه به این موضوع می پردازم.

برای هر چیزی می رود گزینه هوش مصنوعی مولد، سوگیری ها به طور مداوم در جلو و مرکز قرار می گیرند. گرداب اعتراض و تحقیر اجتماعی بسیار زیاد خواهد بود. به نظر می رسد که این امر باعث می شود فشار زیادی برای بسته شدن هوش مصنوعی مولد ایجاد شود. همچنین ممکن است به راحتی تصور کنید که تنظیم‌کننده‌ها و قانون‌گذاران به دنبال ایجاد قوانین جدید هوش مصنوعی برای خاموش کردن این نوع هوش مصنوعی مولد هستند.

در مورد اجازه تنظیمات گزینه هوش مصنوعی مولد، تصور این است که کسی تصمیم می گیرد که کدام سوگیری ها را می پذیرد. ممکن است شرکتی که هوش مصنوعی را طراحی کرده است، پارامترها را تنظیم کند. ممکن است شرکتی که هوش مصنوعی مولد را ارائه می کند، پارامترها را تنظیم کند. ایده دیگری که مطرح می شود این است که هر کاربر می تواند مجموعه ای از تعصبات دلخواه خود را انتخاب کند. هنگامی که برای اولین بار از چنین هوش مصنوعی مولد استفاده می کنید، ممکن است گزینه هایی به شما ارائه شود یا می توانید تنظیمات برگزیده خود را در طول راه اندازی به برنامه هوش مصنوعی وارد کنید.

این رویکرد اخیر ممکن است به نظر برسد که برای همه خوشایند است. هر فردی هر گونه تعصبی را که ترجیح می داد ببیند، دریافت می کند. پرونده بسته شد. البته، بعید است که همه گفته‌ها از این موضوع استقبال کنند. این تصور که مردم می توانند خود را در تعصبات غوطه ور کنند و از هوش مصنوعی مولد به عنوان نوعی اتاق پژواک برای آن تعصبات استفاده کنند، مطمئناً اضطراب اجتماعی را برمی انگیزد.

در نهایت، در نمونه از بدون تعصب این گزینه خوب به نظر می رسد اما مشکلات مرتبط زیادی را ایجاد می کند. بیایید شرایط هوش مصنوعی مولد را دوباره بررسی کنیم که مقاله ای حاوی اظهارات مثبت در مورد یک رهبر سیاسی خاص را ارائه می دهد. ممکن است برخی این را یک مقاله واقعی و بدون تعصب بدانند. از سوی دیگر، ممکن است دیگرانی وجود داشته باشند که اصرار داشته باشند که این یک مقاله مغرضانه است، زیرا این مقاله به طور بی مورد در موارد مثبت اغراق می کند یا نمی تواند نکات منفی متعادل کننده را برای ارائه دیدگاهی متعادل ارائه کند. این معمای سوگیری ها را نشان می دهد.

می بینید، خطاهایی مانند دو به علاوه دو برابر با چهار یا پنج برای مقابله با آنها نسبتاً واضح هستند. کاذب هایی مانند سال تولد اشتباه که برای یک رئیس جمهور بیان شده است نسبتاً ساده است. توهمات هوش مصنوعی مانند استفاده از هواپیمای جت در دهه 1800 نیز نسبتاً آشکار است.

هوش مصنوعی مولد چگونه قرار است برای مقابله با سوگیری ها ابداع شود؟

یک سوال ذهنی، مطمئنا.

TruthGPT در مورد امکان سنجی و واقعیت آن

بیایید یک بازی کنیم.

فرض کنید هدف TruthGPT نوعی هوش مصنوعی مولد است که احتمالاً هیچ گونه سوگیری نخواهد داشت. مطلقاً و به طور غیرقابل استدلالی فاقد تعصب است. علاوه بر این، مهم نیست که کاربر چه کاری انجام می دهد، مانند وارد کردن عبارات جانبدارانه یا تلاش برای تشویق هوش مصنوعی مولد به سمت تولید مقالات خروجی پر از تعصب، هوش مصنوعی مولد این کار را انجام نخواهد داد.

علاوه بر این، ممکن است بلافاصله تعجب کنید که چگونه این نوع هوش مصنوعی مولد با سؤالاتی با ماهیت تاریخی برخورد می کند. تصور کنید که شخصی در مورد موضوع سوگیری های سیاسی می پرسد. آیا این موضوع تحت چتر "سوگیری ها" قرار می گیرد و بنابراین هوش مصنوعی مولد نشان می دهد که به پرس و جو پاسخ نمی دهد؟ این سوراخ خرگوش تا کجا می رود؟

به هر حال، اگر به منظور تفکر آگاهانه فرض کنیم که TruthGPT خواهد بود بدون تعصب نوع هوش مصنوعی مولد، پس باید این نتایج را در نظر بگیریم:

  • غیر ممکن
  • ممکن
  • دیگر

پیامدها عبارتند از یا این بودن غیر ممکن هدف و در نتیجه محقق نخواهد شد. یا هدف است ممکن اما ممکن است چین و چروک های نگران کننده ای داشته باشد. من همچنین یک دیگر نتیجه محصور کردن برخی از عوامل بینابینی است.

ابتدا بیایید در مورد عدم امکان بحث کنیم. اگر انجام کار یا پروژه غیرممکن است، ممکن است به سمت اصرار تمایل داشته باشید که انجام نشود. بی معنی دنبال چیزی که غیر ممکن است. خوب، با کمی فکر کردن به این موضوع، غیرممکن در واقع دارای پوشش نقره ای است. اجازه بده توضیح بدم

در اینجا دلایل بالقوه ای وجود دارد که ممکن است TruthGPT به ثمر نشستن آن غیرممکن باشد و در عین حال انجام آن ارزشمند باشد:

  • 1) غیرممکن است زیرا هرگز نمی توان به مأموریت یا چشم انداز دست یافت
  • 2) غیرممکن است اما به هر حال ارزش انجام آن را دارد تا از مزایای جانبی بالقوه کمک های قابل توجه در پیشرفت هوش مصنوعی استفاده شود.
  • 3) هر چند غیرممکن می‌تواند به‌عنوان منبعی برای جلب توجه برای تلاش عمل کند
  • 4) غیرممکن است و آهنگ آنها را تغییر می دهد و هدف اصلی مورد نظر را تغییر می دهد
  • 5) در عین حال غیرممکن، استعدادهای برتر هوش مصنوعی را جذب کرده و به کاهش رقابت کمک می کند
  • 6) دیگر

به همین ترتیب، می‌توانیم حدس بزنیم که اینها برخی از جنبه‌های TruthGPT برای نتیجه دستیابی یا امکان‌پذیر بودن در دستیابی هستند:

  • 1) یک دستاورد به موقع و غیرقابل انکار ممکن است و باعث موفقیت می شود
  • 2) ممکن است، اما بسیار بیشتر طول می کشد و بسیار پرهزینه تر از حد انتظار است
  • 3) ممکن است هر چند نتیجه بسیار کوتاه از هدف مورد نظر باشد
  • 4) محتمل و در عین حال با تاخیر و شرم آور توسط سایر هوش مصنوعی مولد که این کار را انجام می دهند
  • 5) اما هرج و مرج داخلی و مشکلات رهبری ممکن است همه چیز را زشت و نامناسب کند
  • 6) دیگر

و برای تکمیل لیست، در اینجا برخی از ملاحظات دیگر وجود دارد:

  • 1) دیگر این است که این همه صحبت است و هیچ عملی انجام نمی شود
  • 2) موارد دیگر مانند قانون AI حقوقی یا اخلاقیات هوش مصنوعی اجتماعی، آچار را به تلاش می اندازد
  • 3) موارد دیگر ممکن است این باشد که تلاش توسط دیگرانی که خواهان هوش مصنوعی یا استعداد هستند فروخته/خرید شود
  • 4) موارد دیگر می‌تواند شامل یک ترتیب مشارکتی غافلگیرکننده باشد تا مستقل
  • 5) سایر حروف عامیانه از جمله اکتشافات تکان دهنده و خطر وجودی هوش مصنوعی را افزایش می دهد
  • 6) دیگر

با توجه به محدودیت‌های فضا در اینجا، من به جزئیات همه آن جایگشت‌ها نمی‌پردازم. اگر علاقه خوانندگان به اندازه کافی برانگیخته شود، با کمال میل در ستون بعدی این موضوع را با جزئیات بیشتر پوشش خواهم داد.

نتیجه

جورج واشنگتن گفته است: «حقیقت در نهایت در جایی پیروز خواهد شد که دردسرهایی برای آشکار کردن آن وجود داشته باشد.»

پرداختن به جنبه های مغرضانه هوش مصنوعی صرفاً یک مسئله تکنولوژیکی نیست که از طریق یک راه حل فنی حل می شود. دردسرهای احتمالی برای آشکار ساختن حس "حقیقت" از طریق هوش مصنوعی مولد بسیار زیاد است. می‌توانید انتظار داشته باشید که اخلاق هوش مصنوعی و قانون هوش مصنوعی بخش مهمی از کشف این موضوع باشد که همه اینها به کجا می‌رود.

در کابین به صدا در می آید.

ممکن است خارج از در وجود داشته باشد (طبق شایعات):

  • TruthGPT
  • HonestGPT
  • نادرست GPT
  • DishonestGPT
  • ConfusedGPT
  • BaffledGPT
  • تصادفی GPT
  • غیره

بودا ممکن است در مورد این موضوع بینش‌هایی ارائه دهد: «تنها دو اشتباه وجود دارد که می‌توان در مسیر رسیدن به حقیقت مرتکب شد. تا آخر راه نرفت و شروع نکرد.» در تلاش‌های به‌سرعت در حال پیشرفت هوش مصنوعی، ما باید بپرسیم که آیا چنین اشتباهاتی را مرتکب می‌شویم و اگر چنین است، در مورد آن چه باید بکنیم.

و این حقیقت صادقانه است.

منبع: https://www.forbes.com/sites/lanceeliot/2023/03/06/can-elon-musk-succeed-in-developing-generative-ai-chatgpt-knockoff-truthgpt-that-would-be- رواقی-راست-در-همیشه-از-اخلاق-آی-و-قانون-میپرسد/