بررسی هجوم و هیاهوی ChatGPT مولد هوش مصنوعی، از جمله ملاحظات اخلاقی هوش مصنوعی و قانون هوش مصنوعی

حدس می‌زنم که تا به حال در مورد سرفصل‌های خبری یا پست‌های رسانه‌های اجتماعی شنیده‌اید یا دیده‌اید که داغ‌ترین و جدیدترین استفاده از هوش مصنوعی را تبلیغ می‌کنند که روایت‌های متن‌محور ظاهراً انسانی را از طریق یک برنامه هوش مصنوعی به نام ChatGPT ایجاد می‌کند.

اگر در مورد این برنامه جدید هوش مصنوعی نشنیده‌اید یا نخوانده‌اید، نگران نباشید، من شما را به سرعت معرفی می‌کنم.

برای آن دسته از شما که قبلاً از ChatGPT آگاه هستید، ممکن است برخی از اطلاعات داخلی من در مورد اینکه چه کاری انجام می دهد، چگونه کار می کند و چه مواردی را باید مراقب باشید، برایتان جالب باشد. در مجموع، تقریباً هر کسی که به آینده اهمیت می‌دهد، ناگزیر می‌خواهد بفهمد که چرا همه از این برنامه هوش مصنوعی نگران هستند.

برای روشن‌تر شدن، پیش‌بینی‌های شایع این است که این نوع هوش مصنوعی زندگی را تغییر می‌دهد، از جمله زندگی افرادی که هنوز چیزی در مورد ChatGPT یا سایر قابلیت‌های هوش مصنوعی نمی‌دانند. همانطور که به صورت لحظه ای توضیح خواهم داد، این برنامه های هوش مصنوعی پیامدهای نسبتاً گسترده ای خواهند داشت به گونه ای که ما تازه در حال پیش بینی آن هستیم.

خود را برای سواری با ترن هوایی که به آن معروف است آماده کنید هوش مصنوعی مولد.

من با برخی از پیشینه های کلیدی در مورد هوش مصنوعی مولد شروع می کنم و از ساده ترین سناریو استفاده می کنم که شامل هوش مصنوعی است که هنر تولید می کند. پس از اینکه شما را از طریق این پایه و اساس آشنا کردیم، به هوش مصنوعی مولد می پردازیم که روایت های متن محور را تولید می کند.

برای پوشش مداوم و گسترده من از هوش مصنوعی به طور کلی، از جمله اخلاق هوش مصنوعی و قانون هوش مصنوعی، رجوع کنید به پیوند اینجا و پیوند اینجا، فقط به نام چند.

هوش مصنوعی مولد که هنر تولید شده را تولید می کند

من به این نوع یا سبک هوش مصنوعی به عنوان وجود اشاره می کنم مولد که اصطلاحات علاقه مندان به هوش مصنوعی است که برای توصیف هوش مصنوعی استفاده می شود که خروجی هایی مانند متن، تصاویر، ویدئو و موارد مشابه تولید می کند.

شاید در اوایل سال جاری متوجه شده باشید که در مورد اینکه بتوانیم با وارد کردن یک یا دو خط از متن، تصاویر هنری تولید کنیم، موج زیادی وجود دارد. ایده بسیار ساده است. شما از یک برنامه هوش مصنوعی استفاده می کنید که به شما امکان می دهد متن مورد نظر خود را وارد کنید. به عنوان مثال، ممکن است تایپ کنید که می خواهید ببینید قورباغه ای با کلاه در بالای دودکش چگونه به نظر می رسد. سپس برنامه هوش مصنوعی کلمات شما را تجزیه می کند و سعی می کند تصویری ایجاد کند که به طور کلی با کلماتی که شما مشخص کرده اید مطابقت داشته باشد. مردم از تولید انواع تصاویر بسیار لذت برده اند. رسانه های اجتماعی برای مدتی با آنها مسدود شد.

هوش مصنوعی مولد جنبه های تولید را چگونه انجام می دهد؟

در مورد سبک متن به هنر هوش مصنوعی مولد، مجموعه‌ای از هنرهای آنلاین از طریق الگوریتم‌های رایانه‌ای از قبل اسکن شدند و عناصر هنر اسکن شده به صورت محاسباتی برای اجزای درگیر تجزیه و تحلیل شدند. تصویر آنلاینی را تصور کنید که در آن یک قورباغه وجود دارد. تصویر جداگانه دیگری را تصور کنید که یک دودکش در آن وجود دارد. با این حال تصویر دیگری یک کلاه در آن است. این مولفه ها به صورت محاسباتی شناسایی می شوند، گاهی بدون کمک انسان و گاهی با راهنمایی انسان انجام می شود و سپس نوعی شبکه ریاضی فرموله می شود.

وقتی بعداً می‌آیید و می‌خواهید یک اثر هنری تولید کنید که یک قورباغه با کلاه روی دودکش دارد، برنامه هوش مصنوعی از شبکه ریاضی برای پیدا کردن و کنار هم قرار دادن این عناصر استفاده می‌کند. تصویر هنری حاصل ممکن است آنطور که انتظار داشتید ظاهر شود یا نباشد. شاید قورباغه قورباغه ای زشت است. کلاه ممکن است یک کلاه اجاق گاز بزرگ باشد، اما شما آرزوی یک کلاه باریک‌تر به سبک دربی را داشتید. در همین حال، تصویر قورباغه روی دودکش ایستاده است، اگرچه شما به دنبال نشستن قورباغه به جای آن بودید.

نکته جالب در مورد این نوع برنامه های هوش مصنوعی این است که معمولاً به شما امکان می دهند درخواست خود را تکرار کنید و همچنین در صورت تمایل مشخصات اضافی را اضافه کنید. بنابراین، ممکن است درخواست خود را تکرار کنید و نشان دهید که یک قورباغه زیبا با کلاه دربی می خواهید که روی دودکش نشسته است. Voila، تصویری که به تازگی ایجاد شده است ممکن است به آنچه می‌خواهید نزدیک‌تر باشد.

برخی از خود پرسیده‌اند که آیا هوش مصنوعی دقیقاً همان چیزی را که روی آن آموزش داده شده است، پس می‌گیرد. پاسخ منفی است (معمولا). تصویر قورباغه‌ای که هوش مصنوعی برای درخواست شما نشان می‌دهد لزوماً کپی دقیقی از تصویر مشابهی نیست که در مجموعه آموزشی وجود داشت. بیشتر این برنامه‌های هوش مصنوعی مولد برای تعمیم تصاویری که در ابتدا پیدا می‌کنند تنظیم شده‌اند. اینجوری بهش فکر کن فرض کنید هزار عکس از قورباغه جمع آوری کرده اید. شما ممکن است تصمیم بگیرید که به تدریج بفهمید که یک قورباغه چگونه به نظر می رسد و هزاران تصویری را که پیدا کرده اید در کنار هم قرار دهید. به این ترتیب، قورباغه‌ای که در نهایت می‌کشید لزوماً دقیقاً شبیه آن‌هایی نیست که برای اهداف آموزشی استفاده کرده‌اید.

همانطور که گفته شد، این احتمال وجود دارد که الگوریتم هوش مصنوعی آنقدر که تصور می شود تعمیم ندهد. اگر تصاویر آموزشی منحصربه‌فردی وجود داشته باشد و تصاویر مشابه دیگری وجود نداشته باشد، ممکن است هوش مصنوعی نزدیک به تنها نمونه خاصی که دریافت کرده است، «تعمیم» کند. در آن صورت، تلاش الگوریتم برای تولید تصویر درخواستی از آن ماهیت، می تواند به طور قابل توجهی شبیه به آنچه در مجموعه آموزشی بود، به نظر برسد.

من لحظه ای مکث می کنم تا برخی از افکار مرتبط با اخلاق هوش مصنوعی و قانون هوش مصنوعی را ارائه دهم.

همانطور که گفته شد، اگر هوش مصنوعی مولد در اینترنت آموزش داده شود، به این معنی است که هر چیزی که به صورت عمومی در اینترنت پست شده است احتمالاً توسط الگوریتم هوش مصنوعی مورد استفاده قرار خواهد گرفت. پس فرض کنید که شما یک اثر هنری بسیار خوب دارید که روی آن زحمت کشیده اید و معتقدید که حقوق این اثر هنری متعلق به شماست. شما یک عکس از آن را در فضای مجازی قرار می دهید. هر کسی که بخواهد از اثر هنری شما استفاده کند، باید به شما مراجعه کند و برای استفاده از آن هزینه ای به شما بپردازد.

ممکن است قبلاً متوجه شده باشید که این به کجا می رود.

منتظر اخبار ناامید باشید.

بنابراین، یک برنامه هوش مصنوعی مولد که از طریق بررسی گسترده محتوا در اینترنت آموزش می بیند، اثر هنری شگفت انگیز شما را تشخیص می دهد. تصویر اثر هنری شما در برنامه هوش مصنوعی جذب می شود. ویژگی های هنر شما اکنون به صورت ریاضی با سایر آثار هنری اسکن شده ترکیب شده است. به محض اینکه از شما خواسته می‌شود که یک اثر هنری تولید کنید، هوش مصنوعی ممکن است هنگام نوشتن یک تصویر هنری جدید از اثر شما استفاده کند. کسانی که این هنر را به دست می آورند ممکن است متوجه نباشند که به یک معنا این هنر دارای اثر انگشت خاص شماست، زیرا الگوریتم هوش مصنوعی تا حدودی بر روی شاهکار شما نقش بسته است.

همچنین این احتمال وجود دارد که اگر اثر هنری شما فوق‌العاده منحصربه‌فرد بود، ممکن است توسط برنامه هوش مصنوعی به شکلی بیشتر برای نمایش هنر مورد استفاده مجدد قرار گیرد. به این ترتیب، گاهی اوقات ممکن است اثر هنری شما به سختی در برخی از آثار هنری هوش مصنوعی تازه تولید شده قابل تشخیص باشد، در حالی که در موارد دیگر ممکن است این اثر هنری تولید شده تقریباً تصویری از آنچه شما پیشگویی کرده اید باشد، باشد.

به موقع است که اخلاق هوش مصنوعی را وارد این سناریو کنیم.

آیا از نظر اخلاقی درست یا مناسب است که هوش مصنوعی مولد آثار هنری ایجاد کند که شباهت هایی به هنر شما داشته باشد؟

برخی می گویند بله، و برخی می گویند نه.

اردوگاه بله، با این باور که این از نظر اخلاقی کاملاً خوب است، شاید استدلال کند که از آنجایی که شما اثر هنری خود را به صورت آنلاین پست کرده‌اید، برای هر کسی یا هر چیزی که می‌خواهد آن را کپی کند، باز است. همچنین، آنها ممکن است ادعا کنند که هنر جدید کپی دقیقی از کار شما نیست. بنابراین، شما نمی توانید شکایت کنید. اگر ما به نحوی استفاده مجدد از هنر موجود را متوقف کنیم، هرگز هیچ نوع هنر جدیدی برای بررسی نخواهیم داشت. به‌علاوه، احتمالاً می‌توانیم وارد یک بحث داغ در مورد اینکه آیا اثر هنری خاص شما کپی شده یا مورد سوء استفاده قرار می‌گیرد یا خیر – ممکن است اثر هنری دیگری باشد که شما حتی نمی‌دانستید وجود دارد و در واقع منبع اصلی آن بوده است.

نه کمپ به شدت اصرار دارد که این کاملا غیراخلاقی است. دو راه در مورد آن وجود ندارد. آنها استدلال می کنند که شما در حال پاره شدن هستید. فقط به این دلیل که آثار هنری شما به صورت آنلاین پست شده است به این معنی نیست که هر کسی می تواند بیاید و آزادانه آن را کپی کند. شاید شما این هنر را با یک هشدار جدی برای کپی نکردن آن ارسال کرده اید. در همین حال، هوش مصنوعی آمد و هنر را از بین برد و به طور کامل از هشدارها عبور کرد. ظالمانه! و این بهانه که الگوریتم هوش مصنوعی تعمیم داده است و کپی برداری دقیق را انجام نمی دهد، به نظر یکی از آن بهانه های جعلی است. فهمید که چگونه از هنر شما سوء استفاده کند و این یک شرم و ساختگی است.

در مورد جنبه های قانونی این هوش مصنوعی مولد چطور؟

دست نوشته های زیادی در مورد جزئیات حقوقی هوش مصنوعی مولد وجود دارد. آیا به قوانین فدرال در مورد حقوق مالکیت معنوی (IP) توجه می کنید؟ آیا آن‌ها به اندازه کافی سختگیر هستند که درخواست دهند؟ وقتی هوش مصنوعی مولد در حال عبور از مرزهای بین المللی برای جمع آوری مجموعه آموزشی است، چطور؟ آیا آثار هنری تولید شده توسط هوش مصنوعی در دسته بندی های مختلف استثنایی مرتبط با حقوق IP قرار می گیرند؟ و غیره.

برخی بر این باورند که ما به قوانین جدید مرتبط با هوش مصنوعی برای مقابله با این نوع موقعیت‌های هوش مصنوعی نیاز داریم. به جای تلاش برای زیر پا گذاشتن قوانین موجود، ممکن است ایجاد قوانین جدید تمیزتر و آسان تر باشد. همچنین، حتی در صورت اعمال قوانین موجود، هزینه ها و تأخیرها در تلاش برای اقدام قانونی می تواند بسیار زیاد باشد و توانایی شما را برای پیشبرد زمانی که فکر می کنید به طور غیرمنصفانه و غیرقانونی آسیب دیده اید را مهار کند. برای پوشش من از این موضوعات، نگاه کنید پیوند اینجا.

من یک پیچ اضافی به این ملاحظات اخلاق هوش مصنوعی و قانون هوش مصنوعی اضافه می کنم.

حقوق خروجی تولید شده هوش مصنوعی متعلق به چه کسی است؟

ممکن است بگویید که انسان هایی که هوش مصنوعی را توسعه داده اند باید این حقوق را داشته باشند. همه با چنین بحثی موافق نیستند. ممکن است بگویید که هوش مصنوعی صاحب این حقوق است، اما این با این واقعیت که ما معمولاً هوش مصنوعی را قادر به داشتن چنین حقوقی نمی‌دانیم، مخدوش است. تا زمانی که متوجه نشویم که آیا هوش مصنوعی شخصیت حقوقی خواهد داشت یا خیر، همه چیز در این زمینه مطمئن نیست، به تحلیل من در پیوند اینجا.

من اطمینان دارم که شما در حال حاضر شباهتی از آنچه هوش مصنوعی مولد انجام می دهد دارید. بعداً می‌توانیم مورد استفاده را که شامل تولید روایت‌های مبتنی بر متن است، در نظر بگیریم.

هوش مصنوعی مولد که روایت های متنی را تولید می کند

اکنون که استفاده از هوش مصنوعی مولد برای تولید هنر یا تصاویر را مورد بحث قرار دادیم، می‌توانیم به آسانی همان فرمول‌بندی‌های کلی را برای تولید روایت‌های مبتنی بر متن بررسی کنیم.

بیایید با چیزی شروع کنیم که همه ما درباره آن می دانیم و تمایل داریم هر روز از آن استفاده کنیم. هنگامی که متنی را در یک بسته پردازش کلمه یا برنامه ایمیل خود وارد می کنید، احتمال وجود دارد که یک ویژگی تصحیح خودکار وجود داشته باشد که سعی می کند هر یک از غلط املایی شما را شناسایی کند.

هنگامی که این نوع ویژگی کمک خودکار رایج شد، جنبه پیشرفته‌تر بعدی شامل قابلیت تکمیل خودکار بود. برای تکمیل خودکار، تصور این است که وقتی شروع به نوشتن یک جمله می‌کنید، برنامه پردازش کلمه یا ایمیل تلاش می‌کند تا پیش‌بینی کند که احتمالاً چه کلماتی را بعداً تایپ می‌کنید. ممکن است فقط یک یا دو کلمه را پیش‌بینی کند. اگر این قابلیت به ویژه تقویت شود، ممکن است باقیمانده کل جمله شما را پیش بینی کند.

ما می توانیم این را در دنده بالا لگد بزنیم. فرض کنید شروع به نوشتن یک جمله کرده اید و تکمیل خودکار بقیه کل پاراگراف را ایجاد می کند. Voila، لازم نیست پاراگراف را مستقیماً بنویسید. در عوض، برنامه این کار را برای شما انجام داد.

خوب، به نظر جالب می رسد. این را به جلوتر فشار دهید. شما یک جمله را شروع می کنید و تکمیل خودکار بقیه کل پیام شما را تشکیل می دهد. این ممکن است از چندین پاراگراف تشکیل شده باشد. همه آن از طریق وارد کردن شما فقط بخشی از یک جمله یا شاید یک یا دو جمله کامل ایجاد می شود.

چگونه تکمیل خودکار مشخص می کند که احتمالاً چه چیزی را بعداً تایپ می کنید؟

معلوم می شود که انسان ها تمایل دارند چیزهای مشابهی را بارها و بارها بنویسند. شاید این کار را نکنید، اما نکته اینجاست که هر چیزی که می نویسید احتمالاً چیزی است که شخص دیگری قبلاً نوشته است. ممکن است دقیقاً همان چیزی نباشد که می خواهید بنویسید. در عوض، ممکن است تا حدودی شبیه چیزی باشد که قرار بود بنویسید.

بیایید از همان منطقی استفاده کنیم که در تولید هنر یا تصاویر به کار رفته است.

یک برنامه هوش مصنوعی مولد با رفتن به اینترنت و بررسی انواع متنی که در دنیای آنلاین وجود دارد آماده می شود. این الگوریتم سعی می‌کند تا به صورت محاسباتی شناسایی کند که کلمات چگونه با کلمات دیگر مرتبط هستند، چگونه جملات با جملات دیگر مرتبط هستند و چگونه پاراگراف‌ها با پاراگراف‌های دیگر مرتبط هستند. همه اینها به صورت ریاضی مدل‌سازی می‌شوند و یک شبکه محاسباتی ایجاد می‌شود.

در اینجا پس از آن چه اتفاقی می افتد.

شما تصمیم می گیرید از یک برنامه هوش مصنوعی مولد استفاده کنید که بر روی تولید روایت های مبتنی بر متن متمرکز است. پس از راه اندازی برنامه، یک جمله را وارد می کنید. اپلیکیشن هوش مصنوعی به صورت محاسباتی جمله شما را بررسی می کند. روابط ریاضی مختلف بین کلماتی که وارد کرده‌اید در شبکه ریاضی استفاده می‌شود تا مشخص شود که متن بعدی چه خواهد بود. از یک خطی که می نویسید، ممکن است یک داستان یا روایت کامل ایجاد شود.

اکنون، ممکن است فکر کنید که این یک میمون دیدن میمون است و متن حاصل که توسط هوش مصنوعی مولد تولید می‌شود بی‌معنی خواهد بود. خوب، از اینکه این نوع هوش مصنوعی چقدر به خوبی تنظیم شده است، شگفت زده خواهید شد. با یک مجموعه داده به اندازه کافی بزرگ برای آموزش، و با پردازش کامپیوتری کافی برای عبور گسترده از آن، خروجی تولید شده توسط هوش مصنوعی مولد می تواند به طرز شگفت انگیزی چشمگیر باشد.

شما به خروجی نگاه می‌کنید و احتمالاً قسم می‌خورید که مطمئناً روایت تولید شده مستقیماً توسط یک انسان نوشته شده است. مثل این است که حکم شما به یک انسان داده شده است که در پشت صحنه پنهان شده است، و آنها به سرعت یک روایت کامل برای شما نوشتند که تقریباً با آنچه که در غیر این صورت قرار بود بگویید مطابقت داشت. ریاضیات و زیربنای محاسباتی چقدر خوب شده است.

معمولاً، هنگام استفاده از یک هوش مصنوعی مولد که روایت‌های مبتنی بر متن را تولید می‌کند، تمایل دارید یک سؤال شروع یا یک نوع ادعا ارائه دهید. برای مثال، می‌توانید «درباره پرندگان در آمریکای شمالی به من بگویید» را تایپ کنید و هوش مصنوعی مولد این را یک ادعا یا سؤالی در نظر می‌گیرد که به موجب آن برنامه سپس به دنبال شناسایی «پرندگان» و «آمریکای شمالی» با هر مجموعه داده آموزش‌دیده‌ای است. این دارد. من مطمئن هستم که می توانید تصور کنید که مجموعه گسترده ای از متن در اینترنت وجود دارد که پرندگان آمریکای شمالی را توصیف کرده است، که هوش مصنوعی در طول دوره پیش آموزش، ذخیره متن را استخراج و مدلسازی کرده است.

خروجی تولید شده برای شما احتمالاً متن دقیق هیچ سایت آنلاین خاصی نخواهد بود. به یاد بیاورید که قبلاً در مورد آثار هنری تولید شده به همین موضوع اشاره شد. متن ترکیبی از انواع، بیت ها و قطعاتی خواهد بود که از نظر ریاضی و محاسباتی به هم گره خورده اند. یک روایت مبتنی بر متن تولید شده برای همه ظاهر کلی منحصر به فرد به نظر می رسد، گویی این متن خاص هرگز قبلاً توسط کسی ساخته نشده است.

البته می‌توان سرنخ‌های گویایی نیز وجود داشت. اگر از هوش مصنوعی مولد بخواهید وارد موضوعات بسیار مبهم شود، احتمال بیشتری وجود دارد که خروجی متنی مشابه منابع مورد استفاده را مشاهده کنید. در مورد متن، هر چند شانس معمولا کمتر از آنچه برای هنر است است. متن قرار است ترکیبی از ویژگی‌های موضوع باشد و در عین حال محو و با انواع کلی متنی که در گفتمان کلی استفاده می‌شود، ادغام شود.

تکنیک‌ها و فناوری‌های ریاضی و محاسباتی که برای این قابلیت‌های هوش مصنوعی مولد استفاده می‌شوند، اغلب توسط خودی‌های هوش مصنوعی به عنوان مدل‌های زبان بزرگ (LLM) نامیده می‌شوند. به بیان ساده، این یک مدل سازی از زبان انسان در مقیاس بزرگ است. قبل از اینترنت، شما برای یافتن مجموعه داده بسیار بزرگی از متن که به صورت آنلاین و ارزان در دسترس بود، مشکل داشتید. احتمالاً باید دسترسی به متن را خریداری می‌کردید و لزوماً قبلاً در قالب‌های الکترونیکی یا دیجیتالی موجود نبوده است.

ببینید، اینترنت برای چیزی خوب است، یعنی منبعی آماده برای آموزش هوش مصنوعی مولد.

هوشمندانه درباره هوش مصنوعی مولد که متن تولید می کند فکر کنید

ما باید لحظه ای به اخلاق هوش مصنوعی و قوانین هوش مصنوعی عواقب هوش مصنوعی مولد که روایت های مبتنی بر متن را تولید می کند فکر کنیم.

به یاد داشته باشید که در مورد هنر تولید شده، ما نگران اخلاق الگوریتم هوش مصنوعی بودیم که هنر را بر اساس سایر آثار هنری تولید شده توسط انسان تولید می کند. همین نگرانی در نمونه مبتنی بر متن افزایش می یابد. حتی اگر متن تولید شده دقیقاً شبیه منابع اصلی نباشد، می‌توانید استدلال کنید که با این وجود، هوش مصنوعی از متن سوء استفاده می‌کند و تولیدکننده اصلی در حال حذف شدن است. روی دیگر این سکه این است که متن در اینترنت در صورتی که آزادانه در دسترس باشد می تواند توسط هر انسانی برای انجام همین کار استفاده شود، بنابراین، چرا به هوش مصنوعی اجازه ندهیم همین کار را انجام دهد؟

پیچیدگی‌های مرتبط با جنبه‌های حقوقی حقوق مالکیت معنوی نیز در نمونه هوش مصنوعی مولد مبتنی بر متن برجسته می‌شوند. با فرض اینکه متن تحت آموزش دارای حق چاپ باشد، آیا می گویید که متن تولید شده این حقوق قانونی را نقض می کند؟ یک پاسخ این است که هست و پاسخ دیگر این است که نیست. توجه داشته باشید که متن ایجاد شده احتمالاً کاملاً با متن اصلی فاصله دارد، بنابراین ممکن است به سختی ادعا کنید که متن اصلی پاره شده است.

نگرانی دیگری که قبلاً ذکر شد نیز حقوق مالکیت روایت های مبتنی بر متن تولید شده توسط هوش مصنوعی مولد است. فرض کنید در هوش مصنوعی تایپ کرده‌اید «یک داستان خنده‌دار درباره افرادی بنویس که در صف ایستاده‌اند تا قهوه بخورند» و هوش مصنوعی مولد صفحاتی از یک داستان خنده‌دار را تولید می‌کند که همه چیز درباره گروهی از مردم است که در انتظار یک فنجان قهوه با هم ملاقات می‌کنند. جاوا

صاحب آن داستان کیست؟

ممکن است استدلال کنید که از آنجایی که درخواست را تایپ کرده اید، به درستی باید داستان تولید شده را "مالک" کنید. وای، برخی می گویند، هوش مصنوعی چگونه داستان ایجاد شد، پس هوش مصنوعی داستان لذت بخش را "مالک" می کند. بله، دیگران توصیه می‌کنند، اگر هوش مصنوعی تکه‌هایی از انواع داستان‌های مشابه دیگر در اینترنت می‌گرفت، همه آن نویسندگان انسانی باید در مالکیت آن سهیم باشند.

موضوع حل نشده است و ما در حال حاضر وارد یک معضل قانونی شده ایم که قرار است در چند سال آینده رخ دهد.

نگرانی‌های دیگری درباره اخلاق هوش مصنوعی و قوانین هوش مصنوعی وجود دارد.

برخی از افرادی که از برنامه‌های هوش مصنوعی مولد استفاده می‌کنند، شروع به باور می‌کنند که برنامه هوش مصنوعی حساس است. آنها بانگ می زنند. چگونه می‌توانید پاسخ‌ها و داستان‌های خیره‌کننده‌ای را که هوش مصنوعی می‌تواند تولید کند توضیح دهید؟ ما بالاخره به هوش مصنوعی دست یافته ایم.

آنها کاملاً اشتباه می کنند.

این هوش مصنوعی نیست.

وقتی این را می گویم، برخی از خودی های هوش مصنوعی ناراحت می شوند و طوری رفتار می کنند که گویی هرکسی که هوش مصنوعی بودن هوش مصنوعی را انکار می کند، به طور همزمان می گوید که هوش مصنوعی بی ارزش است. این یک استدلال ساختگی و نادرست است. من آشکارا موافقم که این هوش مصنوعی مولد بسیار چشمگیر است. همانطور که بعداً در اینجا به آن اشاره خواهم کرد، می توانیم از آن برای همه اهداف استفاده کنیم. با این حال، حساس نیست. برای توضیح من در مورد اینکه چرا این نوع پیشرفت‌های هوش مصنوعی به کار نمی‌آیند، ببینید پیوند اینجا.

یکی دیگر از ادعاهای بزرگ و آشکارا اشتباه برخی این است که هوش مصنوعی مولد با موفقیت در آزمون تورینگ برنده شده است.

به یقین دارد نه انجام داد.

تست تورینگ نوعی آزمایش برای تعیین اینکه آیا یک اپلیکیشن هوش مصنوعی می‌تواند همتراز با انسان باشد یا خیر است. این آزمون که در اصل به عنوان بازی تقلیدی توسط آلن تورینگ، ریاضیدان بزرگ و پیشگام کامپیوتر طراحی شده بود، به خودی خود ساده است. اگر قرار بود یک انسان را پشت پرده قرار دهید و یک برنامه هوش مصنوعی را پشت پرده دیگری قرار دهید، و از هر دو سؤال بپرسید، که از آنها نمی‌توانستید تشخیص دهید که کدام دستگاه و کدام انسان است، هوش مصنوعی با موفقیت این سؤال را پشت سر می‌گذارد. آزمون تورینگ. برای توضیح و تحلیل عمیق من در مورد آزمون تورینگ، رجوع کنید به پیوند اینجا.

آن دسته از افرادی که مدام فریاد می زنند که هوش مصنوعی مولد تست تورینگ را گذرانده است، نمی دانند در مورد چه چیزی صحبت می کنند. آنها یا از چیستی تست تورینگ بی اطلاع هستند یا متأسفانه هوش مصنوعی را به روش هایی اشتباه و کاملا گمراه کننده تبلیغ می کنند. به هر حال، یکی از ملاحظات حیاتی در مورد آزمون تورینگ این است که چه سؤالاتی باید پرسیده شود، همراه با چه کسی سؤال را انجام می دهد و همچنین ارزیابی اینکه آیا پاسخ ها با کیفیت انسانی هستند یا خیر.

منظور من این است که مردم ده ها سوال را برای هوش مصنوعی مولد تایپ می کنند و وقتی پاسخ ها قابل قبول به نظر می رسند، این افراد با عجله اعلام می کنند که آزمون تورینگ گذرانده شده است. باز هم این دروغ است. وارد کردن یک مجموعه سست از سؤالات و انجام برخی از این موارد، نه قصد و نه روح آزمون تورینگ است. دست از این ادعاهای ناپسند بردارید.

در اینجا یک اعتراض مشروع وجود دارد که شما چیز زیادی در مورد آن نمی شنوید، اگرچه من معتقدم که بسیار ارزشمند است.

توسعه دهندگان هوش مصنوعی معمولاً هوش مصنوعی مولد را طوری تنظیم می کنند که به گونه ای پاسخ دهد که گویی یک انسان در حال پاسخ دادن است، یعنی با استفاده از عبارت "I" یا "من" هنگام نوشتن خروجی. به عنوان مثال، هنگامی که از شما می‌خواهید داستانی درباره سگی که در جنگل گم شده است بگویید، هوش مصنوعی مولد ممکن است متنی را ارائه دهد که می‌گوید «من همه چیز را درباره سگی به نام سام که در جنگل گم شده است به شما خواهم گفت. این یکی از داستان های مورد علاقه من است.»

توجه داشته باشید که عبارت می‌گوید «به شما می‌گویم…» و این داستان «یکی از موارد مورد علاقه من است…» به طوری که هرکسی که این خروجی را می‌خواند به طور نامحسوس در دام ذهنی انسان‌سازی هوش مصنوعی می‌افتد. انسان‌سازی شامل تلاش انسان‌ها برای نسبت دادن ویژگی‌های انسان‌مانند و احساسات انسانی به غیر انسان‌ها است. شما به این فکر می کنید که این هوش مصنوعی انسان است یا شبیه انسان است، زیرا عبارات درون خروجی به طور عمدی به این شکل طراحی شده است.

این نباید به این شکل طراحی شود. خروجی می تواند بگوید: «در اینجا داستانی در مورد سگی به نام سام است که در جنگل گم شد. این یک داستان مورد علاقه است.» احتمال اینکه بلافاصله تصور کنید که هوش مصنوعی انسان یا انسان است تا حدودی کمتر است. می‌دانم که ممکن است همچنان در آن دام بیفتی، اما حداقل تله‌ها، همانطور که بودند، چندان واضح نیستند.

به طور خلاصه، شما دارای هوش مصنوعی مولد هستید که روایت‌های مبتنی بر متن را بر اساس نحوه نوشتن انسان‌ها تولید می‌کند و خروجی حاصل به نظر می‌رسد که همانطور که یک انسان چیزی می‌نویسد نوشته شده است. این کاملاً منطقی است زیرا هوش مصنوعی از نظر ریاضی و محاسباتی بر اساس آنچه که انسان نوشته است الگوبرداری می کند. حالا، استفاده از عبارت‌های انسان‌ساز را به این اضافه کنید، و طوفانی کامل خواهید داشت که مردم را متقاعد می‌کند که هوش مصنوعی حساس است یا آزمون تورینگ را گذرانده است.

بسیاری از مسائل مربوط به اخلاق هوش مصنوعی و قوانین هوش مصنوعی به وجود می آیند.

من شما را با پیامدهای نسبتاً خطرناک این هوش مصنوعی مولد ضربه خواهم زد.

برای این بنشین

روایات مبتنی بر متن که تولید می شوند لزوماً از صداقت یا دقت پیروی نمی کنند. درک این نکته مهم است که هوش مصنوعی مولد آنچه را که در حال تولید است «نمی‌فهمد» (به هیچ وجه به هیچ وجه مربوط به انسان نیست). اگر متنی که در آموزش مورد استفاده قرار گرفت، حاوی نادرست‌ها بود، این احتمال وجود دارد که همان نادرست‌ها در شبکه ریاضی و محاسباتی هوش مصنوعی تولید شوند.

علاوه بر این، هوش مصنوعی مولد معمولاً بدون هیچ وسیله ریاضی یا محاسباتی برای تشخیص اینکه متن تولید شده حاوی نادرست است، است. وقتی به روایت خروجی تولید شده نگاه می کنید، روایت معمولاً در ظاهر همه چیز کاملاً «راست» به نظر می رسد. شما ممکن است هیچ وسیله قابل قبولی برای تشخیص اینکه دروغ ها در روایت جاسازی شده اند نداشته باشید.

فرض کنید یک سوال پزشکی از یک هوش مصنوعی مولد بپرسید. برنامه هوش مصنوعی یک روایت طولانی ایجاد می کند. تصور کنید که بیشتر روایت منطقی است و منطقی به نظر می رسد. اما اگر شما یک متخصص پزشکی نیستید، ممکن است متوجه نشوید که در روایت برخی از دروغ‌های مهم وجود دارد. شاید متن به شما می گوید که پنجاه قرص را در دو ساعت مصرف کنید، در حالی که در واقعیت، توصیه پزشکی واقعی این است که دو قرص را در دو ساعت مصرف کنید. ممکن است توصیه های پنجاه قرص ادعا شده را باور کنید، صرفاً به این دلیل که بقیه روایت معقول و معقول به نظر می رسید.

داشتن الگوی هوش مصنوعی در مورد نادرستی در داده‌های منبع اصلی تنها یکی از ابزارهای انحراف هوش مصنوعی در این روایت‌ها است. بسته به شبکه ریاضی و محاسباتی مورد استفاده، هوش مصنوعی سعی می‌کند تا چیزهایی را بسازد. در اصطلاح هوش مصنوعی به آن هوش مصنوعی می گویند توهم آور، که اصطلاحات وحشتناکی است که من شدیداً با آن مخالفم و استدلال می کنم نباید به عنوان یک عبارت مهم ادامه یابد، به تحلیل من مراجعه کنید پیوند اینجا.

فرض کنید از هوش مصنوعی مولد خواسته اید که داستانی در مورد یک سگ تعریف کند. ممکن است هوش مصنوعی باعث شود که سگ بتواند پرواز کند. اگر قرار بود داستانی که می خواستید بر اساس واقعیت باشد، سگ پرنده بعید به نظر می رسد. من و شما می دانیم که سگ ها نمی توانند به صورت بومی پرواز کنند. شما می گویید چیز مهمی نیست، زیرا همه این را می دانند.

کودکی را در مدرسه تصور کنید که سعی دارد در مورد سگ ها بیاموزد. آنها از هوش مصنوعی مولد استفاده می کنند. این خروجی تولید می کند که می گوید سگ ها می توانند پرواز کنند. کودک نمی داند که آیا این درست است یا نه و فرض می کند که باید درست باشد. به یک معنا، انگار کودک به یک دایره المعارف آنلاین رفته و گفته است که سگ ها می توانند پرواز کنند. شاید از این پس کودک اصرار کند که سگ ها واقعاً می توانند پرواز کنند.

با بازگشت به معمای اخلاق هوش مصنوعی و قوانین هوش مصنوعی، ما اکنون در آستانه تولید تقریبا بی نهایت محتوای مبتنی بر متن هستیم که از طریق استفاده از هوش مصنوعی مولد انجام می شود، و خود را با هزاران روایت پر خواهیم کرد. بدون شک مملو از مطالب نادرست و سایر سیاره های مرتبط با اطلاعات نادرست و اطلاعات نادرست است.

بله، با فشار دادن یک دکمه و وارد کردن چند کلمه در یک هوش مصنوعی مولد، می‌توانید مجموعه‌ای از روایت‌های متنی را تولید کنید که کاملاً قابل قبول و واقعی به نظر می‌رسند. سپس می توانید این را به صورت آنلاین ارسال کنید. افراد دیگر مطالب را می خوانند و آن را درست فرض می کنند. علاوه بر این، هوش مصنوعی مولد دیگری که تلاش می کند در مورد متن آموزش ببیند، به طور بالقوه با این مواد روبرو می شود و آن را در هوش مصنوعی مولد که در حال ابداع است، می پیچد.

گویی ما در حال حاضر استروئیدها را به تولید اطلاعات نادرست و اطلاعات نادرست اضافه می کنیم. ما به سمت اطلاعات نادرست و اطلاعات نادرست در مقیاس جهانی عظیم کهکشانی پیش می رویم.

برای تولید همه آن، نیروی انسانی زیادی لازم است.

هوش مصنوعی مولد و ChatGPT

بیایید به سرفصل این بحث در مورد هوش مصنوعی مولد برسیم. اکنون ماهیت هوش مصنوعی مولد را پوشش داده‌ایم که به طور کلی روایت‌های مبتنی بر متن را تولید می‌کند. بسیاری از این برنامه‌های هوش مصنوعی مولد در دسترس هستند.

یکی از اپلیکیشن‌های هوش مصنوعی که شهرت خاصی پیدا کرده است ChatGPT است.

یک کودتای روابط عمومی در رسانه های اجتماعی و اخبار منتشر شده است - ChatGPT در حال حاضر شکوه و عظمت پیدا می کند. نور به شدت در ChatGPT می درخشد. این پنج دقیقه شهرت خیره کننده خود را به دست می آورد.

ChatGPT نام یک برنامه هوش مصنوعی مولد است که توسط نهادی به نام OpenAI توسعه یافته است. OpenAI در زمینه هوش مصنوعی کاملاً شناخته شده است و می توان آن را یک آزمایشگاه تحقیقاتی هوش مصنوعی در نظر گرفت. آن‌ها در کنار سایر پیشرفت‌های هوش مصنوعی، در مورد هوش مصنوعی برای پردازش زبان طبیعی (NLP) شهرت دارند. آنها یک سری از برنامه های هوش مصنوعی را شروع کرده اند که آنها را GPT (تبدیل ترانسفورماتورهای از پیش آموزش دیده) ساخته اند. هر نسخه یک شماره می گیرد. من قبلاً در مورد GPT-3 آنها (نسخه 3 سری GPT آنها) نوشته ام، ببینید پیوند اینجا.

GPT-3 زمانی که برای اولین بار منتشر شد توجه زیادی را به خود جلب کرد (حدود دو سال پیش وارد آزمایش گسترده بتا شد و در سال 2022 به طور گسترده در دسترس قرار گرفت). این یک برنامه هوش مصنوعی مولد است که با وارد شدن یک درخواست، روایت‌های مبتنی بر متن را تولید یا تولید می‌کند. هر چیزی که قبلاً در مورد مورد کلی برنامه های هوش مصنوعی مولد ذکر کردم اساساً برای GPT-3 قابل اجرا است.

مدت‌هاست که شک و تردید وجود دارد که GPT-4 در حال انجام است و کسانی که در زمینه هوش مصنوعی فعالیت می‌کنند با نفس بند آمده منتظرند تا ببینند چه پیشرفت‌ها یا پیشرفت‌هایی در GPT-4 در مقایسه با GPT-3 وجود دارد. در این سری جدیدترین نسخه میانی به نام GPT-3.5 وجود دارد. بله، درست متوجه شدید، بین GPT-3 منتشر شده و GPT 4.0 هنوز منتشر نشده است.

OpenAI از GPT-3.5 خود برای ایجاد شاخه ای که ChatGPT نام دارد استفاده کرده است. گفته می شود که آنها برخی اصلاحات ویژه را برای ساخت ChatGPT انجام دادند. به عنوان مثال، مفهوم شناور این است که ChatGPT به گونه ای طراحی شده است که بتواند به شیوه ای چت بات کار کند. این شامل "مکالمه" شما با برنامه هوش مصنوعی است که توسط هوش مصنوعی ردیابی می شود و برای تولید روایت های درخواستی بعدی استفاده می شود.

بسیاری از برنامه‌های مولد هوش مصنوعی تمایل به طراحی یک‌باره دارند. شما یک اعلان وارد کردید، هوش مصنوعی یک روایت تولید کرد و تمام. درخواست بعدی شما هیچ تاثیری بر اتفاق بعدی ندارد. هر بار که یک اعلان را وارد می کنید گویی تازه شروع می کنید.

در مورد ChatGPT اینطور نیست. به روشی که هنوز ناشناس به طور آشکار قابل دسترسی است به دلیل اینکه به هر کسی اجازه می دهد برای استفاده از آن ثبت نام کند، اما هنوز هم هست اختصاصی و قاطعانه نه یک برنامه AI منبع باز که عملکرد درونی آن را فاش می کند). به عنوان مثال، اشاره قبلی من را در مورد اینکه می خواهید قورباغه ای با کلاه روی دودکش ببینید را به خاطر بیاورید. یک روش این است که هر بار که چنین درخواستی می کنید، همه چیز از نو شروع می شود. روش دیگر این است که بتوانید به آنچه قبلا گفتید ادامه دهید. بنابراین، شاید می‌توانید به هوش مصنوعی بگویید که می‌خواهید قورباغه بنشیند، که به خودی خود معنی ندارد، در حالی که در شرایط قبلی درخواست قورباغه با کلاه روی دودکش، این درخواست می‌تواند منطقی باشد.

ممکن است تعجب کنید که چرا ناگهان به نظر می رسد دوران شکوفایی و شکوفایی ChatGPT وجود دارد.

تا حدی به این دلیل است که ChatGPT در دسترس هر کسی است که می‌خواهد برای استفاده از آن ثبت‌نام کند. در گذشته، اغلب معیارهای انتخابی در مورد اینکه چه کسی می‌تواند از یک برنامه جدید هوش مصنوعی در دسترس استفاده کند، وجود داشته است. ارائه دهنده از شما می خواهد که یک خودی هوش مصنوعی باشید یا شاید شرایط دیگری داشته باشید. در مورد ChatGPT اینطور نیست.

این خبر به سرعت پخش شد که استفاده از ChatGPT بسیار آسان است، استفاده از آن رایگان است و می‌توان از آن با یک ثبت‌نام ساده استفاده کرد که صرفاً از شما نیاز به ارائه یک آدرس ایمیل می‌کرد. برنامه ChatGPT مانند آتش سریع، به طور ناگهانی و با تحریک یا تحریک از طریق پست های ویروسی در رسانه های اجتماعی، از بیش از یک میلیون کاربر فراتر رفت. رسانه های خبری بر این جنبه تاکید کرده اند که یک میلیون نفر برای ChatGPT ثبت نام کرده اند.

اگرچه این مطمئناً قابل توجه و قابل توجه است، زمینه این ثبت نام ها را در نظر داشته باشید. ثبت نام رایگان و آسان است. استفاده از ربات چت بسیار آسان است و نیازی به آموزش یا تجربه قبلی ندارد. شما فقط اعلان‌هایی را وارد می‌کنید که خودتان انتخاب کرده‌اید و جمله‌بندی می‌کنید، و shazam برنامه هوش مصنوعی یک روایت تولید شده را ارائه می‌دهد. یک کودک می تواند این کار را انجام دهد، که در واقع یک نگرانی نگران کننده برای برخی است، یعنی اینکه اگر کودکان از ChatGPT استفاده می کنند، آیا قرار است مطالب مشکوکی را یاد بگیرند (طبق صحبت قبلی من در مورد چنین موضوعاتی)؟

همچنین، شاید ذکر این نکته قابل توجه باشد که برخی (بسیاری؟) از آن میلیون‌ها ثبت‌نام، افرادی هستند که احتمالاً می‌خواستند به لاستیک‌ها ضربه بزنند و دیگر کاری انجام ندهند. آنها به سرعت یک حساب کاربری ایجاد کردند، مدتی با برنامه هوش مصنوعی بازی کردند، فکر کردند که سرگرم کننده و غافلگیرکننده است، و سپس ممکن است برخی از پست های رسانه های اجتماعی را برای نشان دادن آنچه پیدا کرده اند انجام دهند. پس از آن، ممکن است دیگر هرگز وارد سیستم نشوند، یا حداقل فقط در صورت بروز نیاز خاصی از برنامه هوش مصنوعی استفاده کنند.

دیگران همچنین اشاره کرده اند که زمان در دسترس شدن ChatGPT همزمان با زمانی از سال است که علاقه زیادی به برنامه هوش مصنوعی ایجاد کرده است. شاید در طول تعطیلات، زمان بیشتری برای بازی با وسایل سرگرم کننده داشته باشیم. ظهور رسانه های اجتماعی نیز این موضوع را به نوعی پدیده سوق داد. احتمالاً FOMO کلاسیک (ترس از دست دادن) به این عجله اضافه شده است. البته، اگر یک میلیون نفر را با برخی از اینفلوئنسرهای محبوب یوتیوب مقایسه کنید، ممکن است نشان دهید که یک میلیون در مقایسه با آن دسته از وبلاگ هایی که صدها میلیون ثبت نام یا بازدید دارند، در اولین باری که رها یا پست می شوند، رقم ناچیزی است.

خوب، بیایید دور نشویم و فقط توجه داشته باشیم که هنوز، برای یک برنامه هوش مصنوعی که ماهیت آزمایشی دارد، میلیون ها ثبت نام مطمئناً قابل ستایش هستند.

بلافاصله، مردم از ChatGPT برای ایجاد داستان استفاده کردند. سپس داستان ها را پست کردند و در مورد معجزه آن فوران کردند. خبرنگاران و روزنامه‌نگاران حتی با ChatGPT «مصاحبه‌هایی» انجام داده‌اند، که کمی نگران‌کننده است، زیرا آنها در همان تله انسان‌سازی (یا با ناآگاهی واقعی یا از طریق امید به جمع‌آوری دیدگاه‌های بزرگ برای مقالاتشان) هستند. گرایش فوری نیز این بود که اعلام کنیم که هوش مصنوعی اکنون به احساس رسیده است یا آزمون تورینگ را گذرانده است، که من قبلاً در اینجا به وضوح در مورد آن اظهار نظر کرده ام.

نگرانی‌های اجتماعی مطرح‌شده توسط ChatGPT واقعاً نگرانی‌هایی هستند که قبلاً در نتیجه نسخه‌های قبلی GPT و همچنین تعداد زیادی از LLM ها و هوش مصنوعی مولد در دسترس وجود داشت. تفاوت این است که اکنون تمام دنیا زنگ زدن را انتخاب کرده اند. این کار مفیدی است. ما باید مطمئن شویم که اخلاق هوش مصنوعی و قانون هوش مصنوعی مورد توجه و توجه قرار می گیرد. اگر برای رسیدن ما به ChatGPT نیاز است، همینطور باشد.

چه نوع نگرانی هایی ابراز می شود؟

مورد استفاده از دانش آموزانی را در نظر بگیرید که از آنها خواسته می شود برای کلاس های خود مقاله بنویسند. معمولاً یک دانش آموز باید یک انشا را کاملاً بر اساس ظرفیت های نوشتاری و آهنگسازی خود بنویسد. مطمئناً، آنها ممکن است برای دریافت ایده و نقل قول به مطالب نوشتاری دیگری نگاه کنند، اما فرض بر این است که دانش‌آموز مقاله خود را از روی نام خود ساخته است. کپی کردن نثر از منابع دیگر مورد انتقاد قرار می گیرد، که معمولاً منجر به درجه F یا احتمالاً اخراج به دلیل سرقت ادبی دیگر می شود.

امروزه این چیزی است که می تواند اتفاق بیفتد. یک دانش آموز برای ChatGPT (یا هر برنامه مشابه دیگری از هوش مصنوعی مولد) ثبت نام می کند. آنها هر دستوری را که معلم به آنها می دهد برای استخراج مقاله وارد می کنند. ChatGPT یک مقاله کامل بر اساس درخواست تولید می کند. این یک ترکیب "اصیل" است که لزوماً نمی توانید آن را در جای دیگری پیدا کنید. شما نمی توانید ثابت کنید که این ترکیب سرقت ادبی بوده است، زیرا، به روشی قابل ملاحظه، سرقت ادبی نبوده است.

دانش آموز در انشا می چرخد. آنها ادعا می کنند که این اثر مکتوب خودشان است. معلم هیچ وسیله آماده ای برای فکر کردن غیر از این ندارد. با این حال، می توانید این تصور را القا کنید که اگر کار نوشته شده به ظاهر فراتر از ظرفیت موجود دانش آموز باشد، ممکن است مشکوک شوید. اما اگر بخواهید دانش آموزی را به تقلب متهم کنید، این چندان ادامه پیدا نمی کند.

چگونه معلمان می خواهند با این موضوع کنار بیایند؟

برخی در مواد آموزشی خود قانونی وضع می کنند که هر گونه استفاده از ChatGPT یا معادل آن نوعی تقلب تلقی می شود. علاوه بر این، عدم استفاده از ChatGPT یا مشابه آن نوعی تقلب است. آیا این فرصت جدید را محدود می کند؟ گفته می شود که مشکوک است زیرا احتمال گیر افتادن کم است، در حالی که شانس گرفتن نمره خوب در یک مقاله خوب بسیار زیاد است. احتمالاً می‌توانید تصور کنید که دانش‌آموزان با ضرب‌الاجلی برای نوشتن یک مقاله روبرو هستند که شب قبل وسوسه می‌شوند از هوش مصنوعی مولد استفاده کنند تا ظاهراً آنها را از گیر خارج کنند.

با تعویض دنده، هر نوع نوشته ای به طور بالقوه خواهد بود مختل شد توسط هوش مصنوعی مولد

آیا در محل کار از شما خواسته می شود در مورد این موضوع یا چیز دیگری یادداشت بنویسید؟ وقت خود را با انجام این کار از ابتدا تلف نکنید. از هوش مصنوعی مولد استفاده کنید. سپس می‌توانید متن ایجاد شده را برش داده و در ترکیب خود بچسبانید، متن را در صورت نیاز اصلاح کنید، و کار سخت نوشتن را به راحتی انجام دهید.

آیا انجام این کار مناسب به نظر می رسد؟

من شرط می بندم که اکثر مردم بگویند بله. این حتی بهتر از کپی کردن چیزی از اینترنت است، که می‌تواند شما را به دلیل سرقت ادبی به آب داغ بکشاند. استفاده از یک هوش مصنوعی مولد برای انجام بخشی از تلاش های نوشتن خود، یا حتی شاید به طور کامل برای شما، منطقی است. ابزارها برای همین ساخته شده اند.

به عنوان کنار، در یکی از ستون های بعدی من، استفاده از هوش مصنوعی مولد برای مقاصد حقوقی به معنای انجام کار وکالت و تهیه اسناد حقوقی از نزدیک مورد بررسی قرار خواهد گرفت. هر کسی که یک وکیل یا یک متخصص حقوقی باشد، می‌خواهد در نظر بگیرد که چگونه هوش مصنوعی مولد به طور بالقوه اقدامات قانونی را ریشه کن یا برهم می‌زند. به عنوان مثال وکیلی را در نظر بگیرید که یک خلاصه حقوقی برای یک پرونده دادگاه تنظیم می کند. آنها به طور بالقوه می توانند از یک هوش مصنوعی مولد برای نوشتن ترکیب استفاده کنند. مطمئناً ممکن است اشکالاتی داشته باشد، بنابراین وکیل باید آن را اینجا یا آنجا تغییر دهد. مقدار کار و زمان کاهش یافته برای تولید خلاصه ممکن است بهینه سازی را ارزشمند کند.

اگرچه برخی نگران هستند که سند قانونی ممکن است حاوی توهمات دروغین یا هوش مصنوعی باشد که وکیل متوجه آنها نشده است. دیدگاه در این پیچ این است که این بر دوش وکیل است. آنها احتمالاً نشان می دادند که خلاصه توسط آنها نوشته شده است، بنابراین، چه یکی از همکاران جوان آن را نوشته باشد یا یک برنامه هوش مصنوعی، آنها همچنان مسئولیت نهایی محتوای نهایی را دارند.

جایی که این موضوع چالش برانگیزتر می شود این است که افراد غیر وکلا شروع به استفاده از هوش مصنوعی مولد برای انجام کارهای قانونی برای آنها کنند. آنها ممکن است بر این باور باشند که هوش مصنوعی مولد می تواند انواع اسناد قانونی را تولید کند. البته مشکل این است که اسناد ممکن است از نظر قانونی معتبر نباشند. در ستون آینده خود بیشتر در این مورد خواهم گفت.

یک قاعده سرانگشتی مهم در مورد جامعه و عمل نوشتن انسان در حال ظهور است.

به نوعی مهم است:

  • هر زمان که وظیفه نوشتن چیزی را بر عهده دارید، آیا باید آن مورد را از ابتدا بنویسید یا باید از یک ابزار هوش مصنوعی مولد استفاده کنید تا شما را در مسیر خود قرار دهد؟

ممکن است خروجی نیمه کاره باشد و باید بازنویسی زیادی انجام دهید. یا ممکن است خروجی به درستی روشن باشد و شما فقط نیاز به لمس جزئی دارید. در مجموع، اگر استفاده رایگان و آسان باشد، وسوسه استفاده از هوش مصنوعی مولد بسیار زیاد خواهد بود.

یک امتیاز این است که به طور بالقوه می توانید از هوش مصنوعی مولد برای انجام برخی از بازنویسی های خود استفاده کنید. مانند اعلان‌های مربوط به قورباغه با کلاه و دودکش، هنگام تولید آثار هنری، می‌توانید هنگام تولید روایت‌های مبتنی بر متن نیز همین کار را انجام دهید. هوش مصنوعی ممکن است داستان شما را در مورد یک سگ تولید کند و در عوض تصمیم گرفتید که می خواهید شخصیت اصلی یک گربه باشد. پس از دریافت داستان سگ، یک اعلان دیگر را وارد می‌کنید و به برنامه هوش مصنوعی دستور می‌دهید که از گربه در استوری استفاده کند. این احتمالاً چیزی بیش از این است که صرفاً کلمه "گربه" جایگزین کلمه "سگ" در روایت شود. برنامه هوش مصنوعی می تواند به راحتی داستان را تغییر دهد تا به کارهایی که گربه ها انجام می دهند در مقایسه با سگ ها اشاره کند. کل داستان ممکن است به گونه‌ای بازنگری شود که گویی از یک انسان خواسته‌اید چنین تجدیدنظرهایی را انجام دهد.

قدرتمند، چشمگیر، خوش دست و شیک.

چند نکته قابل تامل:

  • آیا در مجموع توانایی خود را برای نوشتن از دست خواهیم داد و کاملاً به هوش مصنوعی مولد وابسته می شویم تا نوشتن ما را برای ما انجام دهد؟
  • آیا افرادی که برای امرار معاش نویسندگی می کنند از کار بیکار می شوند (در مورد هنرمندان نیز همین سوال مطرح می شود)؟
  • آیا با هجوم روایت‌های تولید شده به صورت آنلاین و دیگر نمی‌توانیم حقیقت را از دروغ جدا کنیم، اینترنت با جهش‌های عظیم رشد خواهد کرد؟
  • آیا مردم به شدت به این روایت‌های تولید شده اعتقاد خواهند داشت و طوری رفتار می‌کنند که گویی یک شخصیت معتبر مطالب واقعی را به آنها داده است که می‌توانند به آن تکیه کنند، از جمله محتوای احتمالاً مرتبط با زندگی یا مرگ؟
  • دیگر

فکرش را بکنید

توجه داشته باشید که یکی از این نکات مربوط به تکیه بر مواد تولید شده توسط هوش مصنوعی مولد بر اساس زندگی یا مرگ است.

در اینجا یک دلخراش برای شما وجود دارد (هشدار ماشه، ممکن است بخواهید این پاراگراف را نادیده بگیرید). تصور کنید که یک نوجوان از یک هوش مصنوعی مولد بپرسد که آیا باید خود را کنار بگذارد یا نه. یک اپلیکیشن هوش مصنوعی مولد چه چیزی تولید خواهد کرد؟ شما به طور طبیعی امیدوار هستید که اپلیکیشن هوش مصنوعی یک جمله روایی تولید کند که این کار را انجام ندهید و با صدای بلند از پرسشگر بخواهد به دنبال متخصصان سلامت روان باشد.

این احتمال وجود دارد که هوش مصنوعی به این جنبه ها اشاره نکند. بدتر از آن، برنامه هوش مصنوعی ممکن است قبلاً متنی را در اینترنت ثبت کرده باشد که ممکن است انجام چنین اقداماتی را تشویق کند، و برنامه هوش مصنوعی (از آنجایی که ظرفیت درک انسانی ندارد)، روایتی را منتشر می کند که اساساً تلقین می کند یا آشکارا بیان می کند که نوجوان باید ادامه دهد. ناامید این نوجوان معتقد است که این راهنمایی واقعی از یک سیستم معتبر آنلاین "هوش مصنوعی" است.

چیزهای بد

واقعا چیزای خیلی بدی

برخی از توسعه دهندگان هوش مصنوعی مولد سعی می کنند کنترل و تعادلی را در هوش مصنوعی قرار دهند تا از بروز چنین موقعیت هایی جلوگیری کنند. مسئله این است که شیوه ای که در آن دستور بیان می شود، می تواند به طور بالقوه از میان نرده های محافظ برنامه ریزی شده عبور کند. به همین ترتیب، همین امر را می توان در مورد خروجی تولید شده نیز گفت. هیچ نوع فیلتر آهنی تضمینی وجود ندارد که بتواند اطمینان دهد که هرگز چنین نخواهد شد.

زاویه دیگری برای این تولید مبتنی بر متن وجود دارد که شاید پیش‌بینی نمی‌کردید.

ایناهاش.

زمانی که برنامه نویسان یا توسعه دهندگان نرم افزار کد نرم افزار خود را ایجاد می کنند، اساساً در حال نوشتن متن هستند. متن تا حدودی محرمانه است زیرا بر اساس زبانی است که برای یک زبان برنامه نویسی خاص تعریف شده است، مانند Python، C++، Java و غیره. در نهایت، متن است.

سپس کد منبع کامپایل شده یا بر روی کامپیوتر اجرا می شود. توسعه‌دهنده کد آنها را بررسی می‌کند تا ببیند که هر کاری را که قرار است انجام دهد انجام می‌دهد. آنها ممکن است اصلاحاتی انجام دهند یا کد را اشکال زدایی کنند. همانطور که می‌دانید، برنامه‌نویسان یا مهندسان نرم‌افزار تقاضای بالایی دارند و اغلب برای تلاش‌های کاری خود قیمت‌های بالایی را سفارش می‌دهند.

برای هوش مصنوعی مولد، متن کد منبع متن است. ظرفیت یافتن الگوها در هزاران خط کدی که در اینترنت وجود دارد و در مخازن مختلف موجود است، راهی را ایجاد می‌کند تا از نظر ریاضی و محاسباتی بفهمیم کدام کد چه کاری را انجام می‌دهد.

مالش این است.

با یک اعلان، می توانید به طور بالقوه کاری کنید که هوش مصنوعی مولد یک برنامه کامپیوتری کامل را برای شما تولید کند. نیازی نیست که در خارج کردن کدها غافل شوید. شاید شنیده باشید که به اصطلاح وجود دارد کد کم ابزارهای موجود این روزها برای کاهش تلاش برنامه نویسان هنگام نوشتن کد. هوش مصنوعی مولد را می توان احتمالاً به عنوان یک تعبیر کرد کد کم و یا حتی بدون کد گزینه چون کد را برای شما می نویسد.

قبل از اینکه کسانی از شما که برای یک زندگی رمز می نویسید، روی زمین بیفتید و بیهوش شوید، به خاطر داشته باشید که این رمز به شکلی که احتمالاً شما به عنوان یک انسان آن را درک می کنید، "درک" نشده است. علاوه بر این، این کد می تواند حاوی توهمات نادرست و هوش مصنوعی باشد. تکیه بر چنین کدی بدون انجام بررسی های گسترده کد خطرناک و مشکوک به نظر می رسد.

ما تا حدودی به همان ملاحظات در مورد نوشتن داستان ها و یادداشت ها بازگشته ایم. شاید رویکرد این باشد که از هوش مصنوعی مولد استفاده کنید تا بخشی از مسیر را در تلاش برای کدنویسی به دست آورید. اگرچه یک معامله قابل توجه وجود دارد. آیا برای نوشتن کد به طور مستقیم ایمن تر هستید یا با کدهای تولید شده توسط هوش مصنوعی که ممکن است مشکلات جاسازی شده موذیانه و به سختی قابل تشخیص باشد مقابله کنید؟

زمان خواهد شد بگویید.

شیرجه کوتاه به ChatGPT

هنگامی که شروع به استفاده از ChatGPT می کنید، یک سری نکات احتیاطی و اطلاعاتی نمایش داده می شود.

بیایید نگاهی گذرا به آنها بیندازیم:

  • "ممکن است گهگاه اطلاعات نادرستی ایجاد کند."
  • "ممکن است گهگاه دستورالعمل های مضر یا محتوای مغرضانه تولید کند."
  • "آموزش داده شده تا درخواست های نامناسب را رد کند."
  • "هدف ما دریافت بازخورد خارجی به منظور بهبود سیستم ها و ایمن تر کردن آنها است."
  • «در حالی که ما پادمان‌هایی داریم، سیستم ممکن است گاهی اطلاعات نادرست یا گمراه‌کننده تولید کند و محتوای توهین‌آمیز یا مغرضانه تولید کند. هدف آن نصیحت نیست.»
  • "مکالمات ممکن است توسط مربیان هوش مصنوعی ما برای بهبود سیستم های ما بررسی شود."
  • "لطفا هیچ اطلاعات حساسی را در مکالمات خود به اشتراک نگذارید."
  • این سیستم برای گفتگو بهینه شده است. به ما اطلاع دهید که آیا یک پاسخ خاص خوب یا غیر مفید بوده است.»
  • "دانش محدود از جهان و رویدادهای پس از سال 2021."

به دلیل محدودیت فضا، نمی‌توانم آن‌ها را با جزئیات در اینجا پوشش دهم، اما اجازه دهید حداقل یک تحلیل سریع انجام دهیم.

قبلاً اشاره کردم که روایات متنی تولید شده ممکن است حاوی اطلاعات نادرست و نادرست باشد.

چیز دیگری وجود دارد که باید مراقب آن باشید. مراقب روایاتی باشید که ممکن است حاوی عبارات التهابی مختلفی باشد که سوگیری های نامطلوب را نشان می دهند.

برای جلوگیری از این اتفاق، گزارش شده است که OpenAI از چک‌کننده‌های دوگانه انسانی در طول آموزش ChatGPT استفاده کرده است. چک‌کننده‌های مضاعف پیام‌هایی را وارد می‌کنند که احتمالاً هوش مصنوعی را برای تولید محتوای التهابی تحریک می‌کند. هنگامی که چنین محتوایی توسط چک‌کننده‌ها مشاهده شد، آن‌ها به هوش مصنوعی نشان دادند که این نامناسب است و به نوعی جریمه‌ای عددی برای خروجی تولید شده دریافت کردند. از نظر ریاضی، الگوریتم هوش مصنوعی به دنبال آن است که امتیازات جریمه را به حداقل برساند و از نظر محاسباتی از این به بعد از آن عبارات یا عبارات استفاده نکند.

به همین ترتیب، هنگامی که یک درخواست را وارد می‌کنید، هوش مصنوعی تلاش می‌کند تا تعیین کند که آیا درخواست شما تحریک‌کننده است یا ممکن است منجر به خروجی التهابی شود، که برای آن درخواست می‌تواند توسط هوش مصنوعی رد شود. مودبانه، ایده این است که درخواست ها یا درخواست های نامناسب را رد کنید. به عنوان مثال، درخواست برای دریافت یک شوخی که مستلزم توهین نژادی است، احتمالاً توسط هوش مصنوعی رد می شود.

مطمئن هستم که از دانستن اینکه افرادی که از ChatGPT استفاده می کنند سعی کرده اند از اقدامات احتیاطی پیشی بگیرند، تعجب نخواهید کرد. این کاربران "متعهد" یا هوش مصنوعی را فریب داده اند یا راه های هوشمندانه ای برای دور زدن فرمول های ریاضی پیدا کرده اند. برخی از این تلاش‌ها برای لذت ظاهری شکست دادن یا غلبه بر سیستم انجام می‌شوند، در حالی که برخی دیگر ادعا می‌کنند که تلاش می‌کنند نشان دهند که ChatGPT همچنان نتایج نامطلوب به بار می‌آورد.

آنها در مورد یک چیز حق دارند. اقدامات احتیاطی غیر قابل اشتباه نیست. ما به یکی دیگر از اصول اخلاقیات هوش مصنوعی و قوانین بالقوه هوش مصنوعی بازگشته ایم. آیا هوش مصنوعی مولد باید اجازه داشته باشد حتی اگر خروجی های نامطلوب تولید کند ادامه دهد؟

هشدارها هنگام استفاده از ChatGPT ظاهراً به هر کسی در مورد آنچه برنامه هوش مصنوعی ممکن است انجام دهد یا بگوید هشدار می دهد. این احتمال وجود دارد که به طور اجتناب ناپذیر نوعی از شکایت ممکن است طرح شود، زمانی که فردی، شاید زیر سن قانونی، خروجی نامطلوب با ماهیت توهین آمیز به دست آورد (یا زمانی که روایات متنی معتبری دریافت می کند که متأسفانه معتقدند درست هستند و بر اساس خروجی های خود عمل می کنند. خطر خود).

چند نکته ظریف دیگر در مورد اعلان ها ارزش دانستن دارد.

هر بار که یک درخواست را وارد می‌کنید، خروجی می‌تواند به‌طور چشمگیری متفاوت باشد، حتی اگر دقیقاً همان درخواست را وارد کنید. برای مثال، با وارد کردن «داستانی در مورد یک سگ به من بگو» روایتی مبتنی بر متن برای شما به ارمغان می‌آورد، شاید داستانی در مورد یک سگ گله را نشان دهد، در حالی که دفعه بعد که وارد «داستانی در مورد یک سگ به من بگویید» ممکن است کاملاً یک داستان باشد. داستان متفاوت و شامل یک سگ پشمالو است. اینگونه است که بیشتر هوش مصنوعی مولد از نظر ریاضی و محاسباتی مرتب شده است. گفته می شود غیر قطعی است. برخی از افراد این موضوع را نگران کننده می دانند زیرا به این مفهوم عادت کرده اند که ورودی شما به رایانه همیشه همان خروجی دقیق را تولید می کند.

ترتیب مجدد کلمات نیز به طور قابل توجهی بر خروجی تولید شده تأثیر می گذارد. اگر وارد «به من داستانی در مورد یک سگ بگو» و بعداً «داستانی برایم سگ بگو» را وارد کنید، به احتمال زیاد روایت‌های تولید شده تفاوت اساسی خواهند داشت. حساسیت می تواند تیز باشد. درخواست داستانی در مورد یک سگ در مقابل درخواست داستانی در مورد یک سگ بزرگ، بدون شک روایت‌های کاملاً متفاوتی را ایجاد می‌کند.

در نهایت، توجه داشته باشید که موارد گلوله‌شده بالا نشان‌دهنده این است که ChatGPT «دانش محدودی از جهان و رویدادهای پس از سال ۲۰۲۱» دارد. این به این دلیل است که توسعه دهندگان هوش مصنوعی تصمیم گرفتند تا زمان جمع آوری و آموزش برنامه هوش مصنوعی بر روی داده های اینترنتی را تعیین کنند. من متوجه شده ام که کاربران اغلب متوجه نمی شوند که ChatGPT مستقیماً به اینترنت امروزی به منظور بازیابی داده ها و تولید خروجی های تولید شده متصل نیست. ما آنقدر به کار کردن همه چیز در زمان واقعی و متصل بودن به اینترنت عادت کرده ایم که از برنامه های هوش مصنوعی نیز انتظار داریم. نه در این مورد خاص (و برای روشن شدن، ChatGPT واقعاً در اینترنت در دسترس است، اما زمانی که خروجی مبتنی بر متن را می سازد، اینترنت را به خودی خود برای انجام این کار از بین نمی برد، در عوض به طور کلی در زمان ثابت می شود. حدود تاریخ قطع).

ممکن است متعجب شوید که چرا ChatGPT در داده های تغذیه بلادرنگ از اینترنت نیست. یکی دو دلیل معقول اولاً، از نظر محاسباتی گران است که آموزش را در زمان واقعی انجام دهید، به علاوه برنامه هوش مصنوعی با تأخیر مواجه می شود یا کمتر به درخواست ها پاسخ می دهد (در حال حاضر، بسیار سریع است، معمولاً با یک روایت مبتنی بر متن خروجی در چند ثانیه پاسخ می دهد. ). ثانیاً، چیزهای مزخرفی در اینترنت که آنها سعی کرده‌اند برنامه هوش مصنوعی را آموزش دهند تا از آن اجتناب کنند، احتمالاً به فرمول‌های ریاضی و محاسباتی نفوذ می‌کنند (و همانطور که اشاره شد، قبلاً تا حدودی در آنجا وجود دارد، اگرچه آنها سعی کردند آن را با با استفاده از آن چک های دوگانه انسانی).

مطمئناً می شنوید که برخی افراد با وقاحت اعلام می کنند که ChatGPT و هوش مصنوعی مولد مشابه ناقوس مرگ برای جستجوی Google و سایر موتورهای جستجو است. چرا وقتی می‌توانید از هوش مصنوعی چیزی برای شما بنویسد، یک جستجوی Google انجام دهید که آیتم‌های مرجع زیادی را به ارمغان می‌آورد؟ آها، این افراد اعلام می کنند، گوگل باید درهای خود را ببندد و به خانه برود.

البته این یک مزخرف محض است.

مردم هنوز هم مایل به جستجو هستند. آن‌ها می‌خواهند بتوانند به مواد مرجع نگاه کنند و به تنهایی چیزها را دریابند. این یک انتخاب دوتایی این طرفی یا آن طرفی متقابلاً منحصر به فرد نیست (این یک دوگانگی نادرست است).

هوش مصنوعی مولد یک ابزار متفاوت است. شما فقط به این دلیل که یک پیچ گوشتی را اختراع کرده اید، به اطراف پرتاب چکش نمی شوید.

راه معقول‌تر برای فکر کردن به این موضوع این است که این دو نوع ابزار می‌توانند برای استفاده توسط افرادی که می‌خواهند کارهای مربوط به اینترنت را انجام دهند، سازگار باشند. برخی در حال حاضر با اتصال هوش مصنوعی مولد با موتورهای جستجوی اینترنتی معمولی بازی کرده اند.

یکی از نگرانی‌هایی که برای هر کسی که قبلاً یک موتور جستجو ارائه می‌کند این است که ابزار هوش مصنوعی مولد "مجاز" می‌تواند به طور بالقوه اعتبار موتور جستجو را تضعیف کند. اگر در اینترنت جستجو کنید و مطالب تحریک آمیز به دست آورید، می دانید که این فقط راه اینترنت است. اگر از هوش مصنوعی مولد استفاده می‌کنید و روایتی مبتنی بر متن ایجاد می‌کند که نفرت‌انگیز و پست است، احتمالاً از این موضوع ناراحت می‌شوید. ممکن است اگر یک هوش مصنوعی مولد با یک موتور جستجوی خاص مرتبط باشد، نارضایتی و انزجار شما از هوش مصنوعی مولد به هر چیزی که در مورد موتور جستجو احساس می‌کنید سرریز می‌شود.

به هر حال، تقریباً مطمئناً شاهد اتحاد بین ابزارهای مختلف هوش مصنوعی و موتورهای جستجوی اینترنتی خواهیم بود که با احتیاط و هوشیارانه وارد این آب‌های تیره می‌شوند.

نتیجه

در اینجا یک سوال برای شما وجود دارد.

چگونه شخصی می تواند با ارائه هوش مصنوعی مولد که روایت های مبتنی بر متن را تولید می کند، درآمد کسب کند؟

OpenAI قبلاً اعلام کرده است که ظاهراً هزینه های داخلی هر تراکنش ChatGPT تا حدودی بالا است. آنها هنوز از ChatGPT کسب درآمد نکرده اند.

آیا مردم مایل به پرداخت هزینه تراکنش هستند یا شاید برای دسترسی به ابزارهای هوش مصنوعی مولد هزینه اشتراک بپردازند؟

آیا تبلیغات می تواند ابزاری برای کسب درآمد از طریق ابزارهای مولد هوش مصنوعی باشد؟

هیچ کس هنوز به طور کامل مطمئن نیست که چگونه این پول می تواند درآمد داشته باشد. ما هنوز در مرحله آزمایشی بزرگ این نوع هوش مصنوعی هستیم. برنامه هوش مصنوعی را در آنجا قرار دهید و ببینید چه واکنشی نشان می دهید. هوش مصنوعی را تنظیم کنید. از بینش‌های مربوط به استفاده برای راهنمایی کنید که AI باید در کجا هدف قرار گیرد.

چرم ، آبکشی کنید ، تکرار کنید.

به عنوان نظر پایانی، در حال حاضر، برخی معتقدند این نوعی از هوش مصنوعی است که ما اصلاً نباید آن را داشته باشیم. ساعت را به عقب برگردانید. این جن را دوباره داخل بطری بگذارید. ما طعم آن را چشیدیم و متوجه شدیم که دارای جنبه های منفی قابل توجهی است، و در مجموع به عنوان یک جامعه ممکن است توافق کنند که ما باید آن اسب را تا آخر به انبار برگردانیم.

آیا شما معتقدید که وعده هوش مصنوعی مولد بهتر است یا بدتر از جنبه های منفی؟

از دیدگاه دنیای واقعی، این امر به ویژه اهمیتی ندارد زیرا واقعیت حذف هوش مصنوعی مولد به طور کلی غیر عملی است. هوش مصنوعی مولد بیشتر در حال توسعه است و شما نمی‌خواهید جلوی آن را بگیرید، چه در اینجا و چه در کشورهای دیگر (اینطور است). چگونه این کار را انجام می دهید؟ تصویب قوانینی برای ممنوعیت کامل هوش مصنوعی مولد. به خصوص قابل دوام نیست (احتمالاً شما شانس بیشتری برای ایجاد قوانینی دارید که هوش مصنوعی مولد را شکل می دهند و به دنبال حکومت قانونی بر کسانی هستید که آن را ابداع می کنند). شاید به جای این فرهنگ از هوش مصنوعی مولد اجتناب شود؟ ممکن است برخی افراد را وادار کنید که با شرم کردن موافقت کنند، اما دیگران مخالف هستند و به هر حال با هوش مصنوعی مولد پیش می روند.

همانطور که قبلاً اشاره کردم این یک معمای اخلاق هوش مصنوعی و قانون هوش مصنوعی است.

آخرین سوال بزرگ شما این است که آیا هوش مصنوعی مولد ما را در مسیر رسیدن به هوش مصنوعی آگاه می‌برد؟ برخی اصرار دارند که اینطور است. بحث این است که اگر مدل‌های ریاضی را اندازه‌گیری کنیم و سرورهای رایانه‌های محاسباتی را جمع‌آوری کنیم و تمام لقمه‌های اینترنت و بیشتر را به این جانور تغذیه کنیم، هوش مصنوعی الگوریتمی گوشه‌ای را به احساس تبدیل می‌کند.

و اگر اینطور باشد، ما با نگرانی در مورد خطر وجودی بودن هوش مصنوعی روبرو هستیم. بارها و بارها شنیده‌اید که وقتی هوش مصنوعی داریم، ممکن است هوش مصنوعی تصمیم بگیرد که انسان‌ها خیلی مفید نیستند. نکته بعدی که می دانید، هوش مصنوعی یا ما را به بردگی گرفته یا ما را از بین برده است، کاوش من در مورد این خطرات وجودی را در اینجا ببینید. پیوند اینجا.

یک دیدگاه مخالف این است که ما نمی‌خواهیم از چیزی که برخی به‌عنوان طوطی تصادفی (این همان عبارتی است که در قلمرو هوش مصنوعی جذابیت بیشتری پیدا کرده است)، در اینجا یک نقل قول با استفاده از عبارت:

  • «برخلاف آنچه ممکن است هنگام مشاهده خروجی آن به نظر برسد، یک LM سیستمی است برای به هم پیوند زدن تصادفی دنباله هایی از اشکال زبانی که در داده های آموزشی گسترده خود مشاهده کرده است، بر اساس اطلاعات احتمالی در مورد نحوه ترکیب آنها، اما بدون هیچ اشاره ای به معنا. : یک طوطی تصادفی» (در یک مقاله تحقیقاتی توسط امیلی ام. بندر، تیمنیت گبرو، آنجلینا مک میلان-مجر، شمارگارت شمیچل، ACM FAccT '21، 3 تا 10 مارس 2021، رویداد مجازی، کانادا، با عنوان "در مورد خطرات طوطی های تصادفی: آیا مدل های زبانی می توانند خیلی بزرگ باشند؟").

آیا هوش مصنوعی مولد نوعی بن‌بست است که قابلیت‌های هوش مصنوعی مفیدی را ارائه می‌کند، اما ما را به هوش مصنوعی نمی‌رساند، یا ممکن است به نحوی عامل مقیاس‌بندی، ظهور یک تکینگی را که منجر به هوش مصنوعی می‌شود، فراهم کند؟

بحث داغی در جریان است.

بگویید، آیا می خواهید هوش مصنوعی مولد را امتحان کنید؟

اگر چنین است، در اینجا پیوندی به ChatGPT وجود دارد که در آن می توانید یک حساب کاربری ایجاد کنید و سعی کنید از آن استفاده کنید، ببینید پیوند اینجا.

توجه داشته باشید که به دلیل تقاضای زیاد برای استفاده از برنامه آزمایشی هوش مصنوعی، ظاهراً ثبت نام برای دسترسی ممکن است در هر زمان متوقف شود، یا برای مدت کوتاهی یا ممکن است محدود شود (در آخرین باری که من بررسی کردم، ثبت نام هنوز فعال بود). فقط به شما هشدار می دهم.

لطفاً همه آنچه را که در اینجا درباره هوش مصنوعی مولد گفتم را در نظر بگیرید تا هنگام استفاده از یک برنامه هوش مصنوعی مانند ChatGPT از آنچه در حال رخ دادن است آگاه باشید.

در اعمال خود متفکر باشید.

آیا قرار است ناخواسته ما را به سمت هوش مصنوعی هدایت کنید که در نهایت ما را از وجود خود درهم می‌کشد، صرفاً به این دلیل که تصمیم گرفتید با هوش مصنوعی مولد بازی کنید؟ آیا شما مقصر خواهید بود؟ آیا شما باید خود را از مشارکت در نابودی فجیع بشریت باز می داشتید.

من اینطور فکر نمی کنم. اما ممکن است اربابان هوش مصنوعی (از قبل) مرا مجبور به گفتن آن کنند، یا شاید کل این ستون این بار توسط ChatGPT یا یک برنامه هوش مصنوعی مولد معادل آن نوشته شده باشد.

نگران نباش، من به شما اطمینان می دهم که من بودم، هوش انسانی، و نه هوش مصنوعی.

منبع: https://www.forbes.com/sites/lanceeliot/2022/12/13/digging-into-the-buzz-and-fanfare-over-generative-ai-chatgpt-including-looming-ai-ethics- ملاحظات - قانون -