انتشار کراکن!
شما بدون شک با آن جمله معروف که به ویژه توسط بازیگر لیام نیسون در برخورد تایتان ها هنگامی که او دستور می دهد که هیولای دریایی افسانه ای آزاد شود، با هدف ایجاد ویرانی عظیم و تخریب بزرگ. این خط بی انتها تکرار شده و انواع الگوهای رفتاری را ایجاد کرده است. علیرغم تقلیدهای مختلف، بیشتر مردم هنوز حداقل از نظر ظاهری احساس میکنند که این اظهارات پیشبینی میکند که یک ظهور سایهدار و خطرناک در شرف رها شدن است.
شاید بتوان همین احساس را این روزها در مورد هوش مصنوعی (AI) نیز به کار برد.
اجازه بدهید توضیح بیشتری بدهم.
یک اطلاعیه اخیر نشان می دهد که یک برنامه هوش مصنوعی معروف به نام ChatGPT که توسط سازمان OpenAI ساخته شده است به زودی برای دسترسی سایر برنامه ها در دسترس خواهد بود. این یک خبر بزرگ است. من این را می گویم حتی اگر رسانه های معمولی کمی از این بیانیه استقبال کرده باشند. به غیر از اشاره های زودگذر، تاثیر کامل این دسترسی آینده بسیار قابل توجه خواهد بود.
در ستون امروز، من توضیح خواهم داد که چرا این مورد است. بر این اساس می توانید خودتان را آماده کنید.
برخی قاطعانه بر این باورند که این امر شبیه رها کردن کراکن است، یعنی اینکه همه چیز بدی در راه است. دیگران این را به عنوان در دسترس قرار دادن یک منبع حیاتی می دانند که می تواند هزاران برنامه دیگر را با استفاده از قابلیت های بزرگ ChatGPT تقویت کند. یا بدترین زمان است یا بهترین زمان. ما در اینجا هر دو طرف بحث را در نظر خواهیم گرفت و شما می توانید خودتان تصمیم بگیرید که در کدام اردوگاه فرود بیایید.
در همه این موارد، ملاحظات اخلاق هوش مصنوعی و قانون هوش مصنوعی وجود دارد.
لطفاً توجه داشته باشید که تلاشهای مداومی برای تطبیق اصول هوش مصنوعی اخلاقی در توسعه و پیادهسازی برنامههای هوش مصنوعی وجود دارد. گروه رو به رشدی از متخصصان اخلاق هوش مصنوعی نگران و قدیمی در تلاش هستند تا اطمینان حاصل کنند که تلاشها برای ابداع و پذیرش هوش مصنوعی، دیدگاهی از انجام دادن را در نظر میگیرد. هوش مصنوعی برای خوب و جلوگیری می کند هوش مصنوعی برای بد. به همین ترتیب، قوانین جدید هوش مصنوعی پیشنهاد شده است که به عنوان راه حلهای بالقوه برای جلوگیری از ابهام کردن تلاشهای هوش مصنوعی در مورد حقوق بشر و مواردی از این دست، مورد استفاده قرار میگیرند. برای پوشش مداوم و گسترده من از اخلاق هوش مصنوعی و قانون هوش مصنوعی، نگاه کنید به پیوند اینجا و پیوند اینجا، فقط به نام چند.
نگرانیهای فزایندهای وجود دارد که ChatGPT و سایر برنامههای هوش مصنوعی مشابه زیر شکم زشتی دارند که شاید ما آمادگی مقابله با آن را نداشته باشیم. برای مثال، ممکن است شنیده باشید که دانشآموزان در مدارس به طور بالقوه قادر به تقلب در نوشتن مقالههای اختصاص داده شده از طریق ChatGPT هستند. هوش مصنوعی تمام نوشتن را برای آنها انجام می دهد. در همین حال، دانشآموز میتواند بهطور ظاهراً آزادانه در مقاله بچرخد، گویی که نوشتن را از زبان خود انجام داده است. چیزی نیست که ما احتمالاً می خواهیم هوش مصنوعی برای بشریت انجام دهد.
چند نکته ضروری ممکن است برای آماده کردن زمینه برای این که این همه در مورد آن است مفید باشد.
ChatGPT نوعی هوش مصنوعی است که معمولاً به آن گفته می شود هوش مصنوعی مولد. این برنامههای مبتنی بر مولد پرطرفدار هوش مصنوعی به شما امکان میدهند یک پیام کوتاه وارد کنید و از برنامه بخواهید خروجیهایی برای شما ایجاد کند. در مورد ChatGPT، خروجی متن است. بنابراین، یک پیام متنی را وارد میکنید و برنامه ChatGPT متنی را برای شما تولید میکند. من تمایل دارم این را به عنوان یک نوع فرعی خاص از هوش مصنوعی مولد توصیف کنم که برای تولید خروجی های متن به مقاله (انواع فرعی دیگری مانند متن به تصویر، متن به ویدیو و غیره وجود دارد).
سازنده هوش مصنوعی ChatGPT نشان داده است که به زودی یک API (رابط برنامه نویسی برنامه) برای برنامه هوش مصنوعی در دسترس خواهد بود. به طور خلاصه، API وسیلهای است که به برنامههای دیگر اجازه میدهد به پیش بروند و از برنامهای استفاده کنند که پورتالی را در برنامهی مورد نظر در دسترس قرار دهد. این بدان معنی است که تقریباً هر برنامه دیگری در این سیاره می تواند به طور بالقوه از استفاده از ChatGPT استفاده کند (خوب، طبق مجوز و پس از تأیید سازنده هوش مصنوعی ChatGPT، همانطور که در اینجا به طور لحظه ای بحث خواهد شد).
نتیجه این است که استفاده و استفاده از ChatGPT به طور بالقوه می تواند از پشت بام شلیک کند.
در حالی که امروزه تعداد قابل توجهی از ثبت نام ها شامل افرادی است که در یک فرد اساس میتوانید از ChatGPT استفاده کنید، که توسط سازنده هوش مصنوعی محدود به یک میلیون کاربر است، این در واقع احتمالاً کاهشی در سطل چیزی است که قرار است بیاید.
متوجه باشید که آن میلیونها ثبتنام موجود شامل بخشی است که از ChatGPT برای یک بار شادی استفاده میکنند و پس از پایان هیجان، از آن زمان دیگر از آن استفاده نکردهاند. احتمالاً بسیاری جذب اپلیکیشن هوش مصنوعی به عنوان یک واکنش واکنشی ویروسی در رسانه های اجتماعی شدند. به طور خلاصه، اگر دیگران می خواستند از آن استفاده کنند، آنها هم می خواستند این کار را انجام دهند. پس از چند آزمایش اولیه با هوش مصنوعی مبتنی بر تولید، آنها احساس رضایت کردند که از FOMO خود (ترس از دست دادن) جلوگیری کردند.
برای اینکه واضح باشد، من پیشنهاد نمی کنم که مردم از ChatGPT استفاده نمی کنند. آن ها هستند. کسانی که ثبت نام کرده اند به طور فزاینده ای متوجه می شوند که برنامه هوش مصنوعی بیش از حد بارگذاری شده است. افراد زیادی از این برنامه استفاده می کنند. شما هر از گاهی چند نشانه غم انگیز که هوشمندانه نوشته شده است دریافت می کنید که سیستم مشغول است و باید بعداً دوباره امتحان کنید. شایعاتی که در خیابان وجود دارد این است که زیرساخت های موجود برای ChatGPT برای مقابله با طرفداران مشتاق با استفاده از برنامه هوش مصنوعی سخت بوده است.
و اگرچه داشتن یک میلیون کاربر بالقوه چیزی برای عطسه کردن نیست، اما احتمالاً پس از در دسترس قرار گرفتن API، این تعداد به راحتی چند برابر خواهد شد. توسعه دهندگان برنامه های دیگر که امروز هیچ ارتباطی با هوش مصنوعی مولد ندارند، می خواهند از گروه هوش مصنوعی مولد بهره ببرند. آنها می خواهند برنامه خود را با ChatGPT متصل کنند. امید قلبی آنها این است که این برنامه موجود آنها را در استراتوسفر محبوبیت تقویت کند.
اینجوری بهش فکر کن فرض کنید همه انواع شرکتهای نرمافزاری که امروزه برنامههایی را میسازند که به میلیونها کاربر دسترسی پیدا میکنند، که اغلب به دهها و صدها میلیون کاربر گفته میشود، برنامههای مربوطه خود را با ChatGPT جفت میکنند. این نشان میدهد که حجم کاربرانی که از ChatGPT استفاده میکنند میتواند بسیار بالا برود.
Kraken منتشر شد.
شاید تعجب کنید که چرا شرکت های نرم افزاری مختلف می خواهند با ChatGPT جفت شوند؟
یک پاسخ ساده این است که آنها ممکن است از بادهای دنباله دار شگفت انگیزی که ChatGPT را به جلو و بالا می راند سوء استفاده کنند. برخی به دلایل معقول و فوق العاده این کار را انجام می دهند. دیگران این کار را صرفا برای تلاش برای به دست آوردن ظاهر پانزده دقیقه شهرت خود انجام می دهند.
من دوست دارم جفتها را به ChatGPT به عنوان دو هدف اصلی طبقهبندی کنم:
- جفت شدن واقعی با ChatGPT
- جفت سازی جعلی با ChatGPT
در مورد اول، تصور این است که مبنای درستی برای جفت شدن با ChatGPT وجود دارد. سازندگان یک برنامه معین می توانند به خوبی مزایای ملموس و کاربردی را که به دلیل جفت شدن برنامه آنها با ChatGPT ایجاد می شود، بیان کنند. همه ما در یک چارچوب ذهنی معقول میتوانیم ببینیم که این جفتسازی یک مسابقه ساخته شده در بهشت است.
برای مورد دیگر، که شامل مواردی است که من آن را جعلی میدانم، برخی به دنبال جفت شدن با ChatGPT به صورت غیرقابل تحمل یا متزلزل هستند. پرونده تجاری شامل هیچ چیز به ویژه ماهوی نیست. جفت شدن تلاشی ناامیدانه برای سوار شدن بر دم ChatGPT است. هر گونه بازرسی معقول نشان می دهد که جفت شدن از نظر ارزش حاشیه ای است. حالا پس، چه فکر می کنید که این یک شکل مناسب یا نادرست جفت شدن است تا حدودی در هوا معلق است. میتوان استدلال کرد که یک جفتسازی خاص با ChatGPT، حتی اگر جفتسازی چیزی جز افزایش استفاده را انجام ندهد و ارزش افزودنی کاربردی دیگری نداشته باشد، احتمالاً جفتسازی هنوز ارزش انجام دادن دارد.
مواردی که به اشتباه جفت شدن را به تصویر می کشند و افراد را به این باور می رساند که اتفاق قابل توجهی در حال رخ دادن است در حالی که واقعاً چنین نیست، اندکی جنبه منفی دارند. مطمئناً می توانیم انتظار داشته باشیم که برخی این کار را امتحان کنند. کسانی که در «اخلاق هوش مصنوعی» هستند، به شدت نگران استفاده از روغن مار هستند که قرار است از کارهای چوبی بیرون بیاید. این احتمال نیز وجود دارد که اگر این از کنترل خارج شود، ممکن است شاهد قوانین جدید مرتبط با هوش مصنوعی باشیم که به تدوین و تصویب آنها دامن زده می شود.
بیایید کاوش دقیقتری در مورد اینکه چه چیزی جفتهای واقعی را تشکیل میدهند و چه چیزی جفتهای جعلی را تشکیل میدهند، بیاندازیم.
اول، ما باید مطمئن شویم که همه ما در مورد آنچه که هوش مصنوعی مولد از چه چیزی تشکیل شده و همچنین ChatGPT در یک صفحه هستیم. هنگامی که آن جنبه اساسی را پوشش دادیم، میتوانیم ارزیابی قاطعانهای از اینکه چگونه API در ChatGPT قرار است چیزها را به طور اساسی تغییر دهد، انجام دهیم.
اگر قبلاً با هوش مصنوعی Generative و ChatGPT آشنایی کامل دارید، میتوانید بخش بعدی را مرور کنید و به بخش بعدی بروید. من معتقدم که بقیه با مطالعه دقیق بخش و به روز شدن، جزئیات حیاتی در مورد این موضوعات را آموزنده خواهند یافت.
پرایمر سریع درباره هوش مصنوعی و ChatGPT
ChatGPT یک سیستم مکالمه محور تعاملی هوش مصنوعی همه منظوره است، که اساساً یک چت بات عمومی به ظاهر بی ضرر است، با این وجود، همانطور که به زودی توضیح خواهم داد، به طور فعال و مشتاقانه توسط افراد استفاده می شود که بسیاری را کاملاً غیرممکن می کند. این برنامه هوش مصنوعی از یک تکنیک و فناوری در قلمرو هوش مصنوعی استفاده می کند که اغلب به آن اشاره می شود هوش مصنوعی مولد. هوش مصنوعی خروجی هایی مانند متن را تولید می کند، کاری که ChatGPT انجام می دهد. سایر برنامههای هوش مصنوعی مبتنی بر تولید تصاویری مانند تصاویر یا آثار هنری تولید میکنند، در حالی که برخی دیگر فایلهای صوتی یا ویدیو تولید میکنند.
در این بحث روی برنامههای هوش مصنوعی مبتنی بر متن تمرکز میکنم زیرا ChatGPT این کار را انجام میدهد.
استفاده از برنامه های هوش مصنوعی مولد بسیار آسان است.
تنها کاری که باید انجام دهید این است که یک درخواست وارد کنید و برنامه هوش مصنوعی برای شما مقاله ای ایجاد می کند که سعی می کند به درخواست شما پاسخ دهد. متن ساخته شده به نظر می رسد که گویی مقاله توسط دست و ذهن انسان نوشته شده است. اگر میخواهید پیامی را وارد کنید که میگوید «درباره آبراهام لینکلن به من بگویید»، هوش مصنوعی مولد مقالهای درباره لینکلن در اختیار شما قرار میدهد. این معمولاً به عنوان هوش مصنوعی مولد طبقه بندی می شود که انجام می دهد متن به متن یا برخی ترجیح می دهند آن را صدا کنند متن به مقاله خروجی همانطور که گفته شد، حالت های دیگری از هوش مصنوعی مولد وجود دارد، مانند تبدیل متن به هنر و متن به ویدئو.
اولین فکر شما ممکن است این باشد که این قابلیت مولد از نظر تولید مقاله چندان مهم به نظر نمی رسد. شما به راحتی می توانید یک جستجوی آنلاین در اینترنت انجام دهید و به راحتی هزاران مقاله در مورد رئیس جمهور لینکلن پیدا کنید. نکته مهم در مورد هوش مصنوعی مولد این است که مقاله تولید شده نسبتاً منحصر به فرد است و یک ترکیب اصلی را به جای یک کپی ارائه می دهد. اگر بخواهید مقاله تولید شده توسط هوش مصنوعی را در جایی آنلاین پیدا کنید، بعید است که آن را کشف کنید.
هوش مصنوعی مولد از قبل آموزش داده شده است و از یک فرمول پیچیده ریاضی و محاسباتی استفاده می کند که با بررسی الگوها در کلمات نوشته شده و داستان ها در سراسر وب تنظیم شده است. در نتیجه بررسی هزاران و میلیونها متن نوشته شده، هوش مصنوعی میتواند مقالات و داستانهای جدیدی را منتشر کند که ترکیبی از آنچه پیدا شده است. با افزودن عملکردهای احتمالی مختلف، متن حاصل در مقایسه با آنچه در مجموعه آموزشی استفاده شده است، تقریباً منحصر به فرد است.
به همین دلیل است که سر و صدایی در مورد اینکه دانش آموزان می توانند هنگام نوشتن انشا در خارج از کلاس درس تقلب کنند، به وجود آمده است. یک معلم نمیتواند صرفاً این مقاله را که دانشآموزان فریبکار ادعا میکنند نوشته خودشان است، بپذیرد و به دنبال این باشد که بفهمد آیا این مقاله از منبع آنلاین دیگری کپی شده است یا خیر. به طور کلی، هیچ مقاله قطعی و قطعی آنلاین وجود نخواهد داشت که متناسب با مقاله تولید شده توسط هوش مصنوعی باشد. در مجموع، معلم باید با اکراه بپذیرد که دانش آموز مقاله را به عنوان یک اثر اصلی نوشته است.
نگرانی های بیشتری در مورد هوش مصنوعی مولد وجود دارد.
یکی از نکات منفی مهم این است که مقالات تولید شده توسط یک برنامه هوش مصنوعی مبتنی بر مولد میتوانند دارای کاذبهای مختلفی باشند، از جمله حقایق آشکارا نادرست، حقایقی که بهطور گمراهکننده به تصویر کشیده شدهاند، و حقایق ظاهری که کاملاً ساختگی هستند. آن جنبه های ساختگی اغلب به عنوان شکلی از نامیده می شود توهمات هوش مصنوعیجملاتی که من از آن خوشم نمیآیند، اما به نظر میرسد که به هر حال با کمال تاسف در حال جلب توجه مردم است (برای توضیح دقیق من در مورد اینکه چرا این اصطلاحات بد و نامناسب است، به پوشش من در پیوند اینجا).
من می خواهم قبل از پرداختن به بحث در مورد این موضوع، یک جنبه مهم را روشن کنم.
در مورد این موضوع در شبکههای اجتماعی ادعاهای بزرگی وجود دارد هوش مصنوعی مولد ادعا می کند که این آخرین نسخه از هوش مصنوعی در واقع است هوش مصنوعی حساس (نه، آنها اشتباه می کنند!). کسانی که در اخلاق هوش مصنوعی و قانون هوش مصنوعی هستند به طور مشخص نگران این روند رو به رشد ادعاهای گسترده هستند. ممکن است مودبانه بگویید که برخی افراد درباره آنچه که هوش مصنوعی امروزی واقعاً می تواند انجام دهد اغراق می کنند. آنها تصور می کنند که هوش مصنوعی دارای قابلیت هایی است که ما هنوز نتوانسته ایم به آنها دست پیدا کنیم. این مایه تاسف است. بدتر از آن، آنها میتوانند به خود و دیگران اجازه دهند در موقعیتهای وخیم قرار بگیرند، زیرا این تصور وجود دارد که هوش مصنوعی هوشیار یا انسانمانند خواهد بود تا بتواند اقدامی انجام دهد.
هوش مصنوعی را انسان سازی نکنید.
انجام این کار شما را در یک تله اتکای چسبناک و بی حوصله گرفتار می کند که انتظار دارید هوش مصنوعی کارهایی را انجام دهد که قادر به انجام آن نیست. با توجه به آنچه گفته شد، جدیدترین هوش مصنوعی مولد برای کارهایی که می تواند انجام دهد نسبتاً چشمگیر است. البته توجه داشته باشید که محدودیت های قابل توجهی وجود دارد که باید به طور مداوم هنگام استفاده از هر برنامه هوش مصنوعی مولد در نظر داشته باشید.
اگر به هیاهوی به سرعت در حال گسترش در مورد ChatGPT و هوش مصنوعی Generative که همه گفته شد علاقه دارید، من یک سری متمرکز در ستون خود انجام داده ام که ممکن است برای شما آموزنده باشد. اگر هر یک از این موضوعات مورد توجه شما قرار بگیرد، در اینجا نگاهی اجمالی داریم:
- 1) پیش بینی پیشرفت های مولد هوش مصنوعی. اگر میخواهید بدانید چه چیزی در مورد هوش مصنوعی در طول سال 2023 و بعد از آن، از جمله پیشرفتهای آتی در هوش مصنوعی و ChatGPT، ممکن است بدانید، میخواهید فهرست جامع پیشبینیهای سال 2023 من را در اینجا بخوانید. پیوند اینجا.
- 2) هوش مصنوعی و مشاوره سلامت روان. من تصمیم گرفتم بررسی کنم که چگونه از هوش مصنوعی و ChatGPT مولد برای مشاوره سلامت روان استفاده می شود، روندی دردسرساز، بر اساس تجزیه و تحلیل متمرکز من در پیوند اینجا.
- 3) مبانی هوش مصنوعی و ChatGPT. این بخش به بررسی عناصر کلیدی نحوه عملکرد هوش مصنوعی مولد میپردازد و بهویژه در برنامه ChatGPT، از جمله تجزیه و تحلیل وزوز و هیاهو، به بررسی میپردازد. پیوند اینجا.
- 4) تنش بین معلمان و دانش آموزان بر سر هوش مصنوعی و ChatGPT. در اینجا روشهایی وجود دارد که دانشآموزان از هوش مصنوعی مولد و ChatGPT استفاده میکنند. علاوه بر این، در اینجا روش هایی برای معلمان برای مقابله با این موج جزر و مدی وجود دارد. دیدن پیوند اینجا.
- 5) زمینه و استفاده از هوش مصنوعی مولد. من همچنین یک معاینه فصلی زبان در گونه در مورد زمینه مرتبط با بابانوئل انجام دادم که شامل ChatGPT و هوش مصنوعی در پیوند اینجا.
- 6) کلاهبردارانی که از هوش مصنوعی مولد استفاده می کنند. در یک یادداشت شوم، برخی از کلاهبرداران متوجه شدهاند که چگونه از هوش مصنوعی و ChatGPT برای انجام کارهای خلاف استفاده کنند، از جمله ایجاد ایمیلهای کلاهبرداری و حتی تولید کد برنامهنویسی برای بدافزار، به تحلیل من در اینجا مراجعه کنید. پیوند اینجا.
- 7) اشتباهات تازه کار با استفاده از هوش مصنوعی. بسیاری از مردم هم از آنچه که هوش مصنوعی و ChatGPT مولد میتوانند انجام دهند، غافلگیر میشوند و بهطور شگفتانگیزی کمکم میکنند، بنابراین من بهویژه به کمنظمیهایی که تازهکاران هوش مصنوعی تمایل دارند انجام دهند، نگاه کنید. پیوند اینجا.
- 8) مقابله با هشدارهای هوش مصنوعی و توهمات هوش مصنوعی. من یک رویکرد پیشرفته برای استفاده از افزونههای هوش مصنوعی برای مقابله با مسائل مختلف مرتبط با تلاش برای وارد کردن اعلانهای مناسب در هوش مصنوعی مولد را توضیح میدهم، بهعلاوه افزونههای هوش مصنوعی اضافی برای تشخیص به اصطلاح خروجیها و دروغهای توهمآمیز هوش مصنوعی وجود دارد. پوشیده شده در پیوند اینجا.
- 9) رد ادعاهای Bonehead در مورد شناسایی مقالات تولید شده توسط هوش مصنوعی. هجوم نادرستی از برنامههای هوش مصنوعی وجود دارد که اعلام میکنند میتوانند مشخص کنند که آیا هر مقالهای که توسط انسان تولید شده است یا خیر. به طور کلی، این گمراه کننده است و در برخی موارد، یک ادعای بی اساس و غیرقابل دفاع است، پوشش من را در پیوند اینجا.
- 10) ایفای نقش از طریق هوش مصنوعی مولد ممکن است معایب سلامت روان را به همراه داشته باشد. برخی از هوش مصنوعی مولد مانند ChatGPT برای انجام نقش آفرینی استفاده می کنند، به موجب آن برنامه هوش مصنوعی به انسان پاسخ می دهد که انگار در یک دنیای فانتزی یا سایر تنظیمات ساختگی وجود دارد. این می تواند پیامدهای سلامت روانی داشته باشد، ببینید پیوند اینجا.
- 11) افشای محدوده خطاها و نادرست های خروجی. فهرستهای مختلف جمعآوری شده در کنار هم قرار میگیرند تا ماهیت خطاها و نادرستهای تولید شده توسط ChatGPT را نشان دهند. برخی معتقدند این ضروری است، در حالی که برخی دیگر می گویند که تمرین بیهوده است، تحلیل من را در اینجا ببینید پیوند اینجا.
- 12) مدارسی که AI Generative ChatGPT را ممنوع می کنند، قایق را از دست داده اند. ممکن است بدانید که مدارس مختلف مانند اداره آموزش شهر نیویورک (NYC) استفاده از ChatGPT را در شبکه و دستگاه های مرتبط خود ممنوع اعلام کرده اند. اگرچه این ممکن است یک اقدام احتیاطی مفید به نظر برسد، اما سوزن را حرکت نمی دهد و متأسفانه به طور کامل قایق را از دست می دهد، پوشش من را در اینجا ببینید پیوند اینجا.
شاید برایتان جالب باشد که ChatGPT بر اساس نسخهای از یک برنامه هوش مصنوعی پیشین به نام GPT-3 است. ChatGPT به عنوان یک مرحله کمی بعدی در نظر گرفته می شود که به آن GPT-3.5 می گویند. پیشبینی میشود که GPT-4 احتمالاً در بهار سال 2023 منتشر شود. احتمالاً GPT-4 از نظر توانایی تولید مقالات به ظاهر روانتر، عمیقتر شدن و شگفتانگیز بودن، گامی چشمگیر به جلو خواهد بود. شگفتی الهام بخش از ترکیباتی که می تواند تولید کند.
شما می توانید انتظار داشته باشید که وقتی بهار فرا می رسد و جدیدترین هوش مصنوعی مولد منتشر می شود، دور جدیدی از ابراز تعجب را مشاهده کنید.
من این را مطرح می کنم زیرا زاویه دیگری وجود دارد که باید در نظر داشت، که شامل یک پاشنه آشیل بالقوه برای این برنامه های هوش مصنوعی مولد بهتر و بزرگتر است. اگر هر فروشنده هوش مصنوعی یک برنامه هوش مصنوعی مولد را در دسترس قرار دهد که به صورت کف آلود ناپاکی ها را بیرون می زند، این می تواند امید آن سازندگان هوش مصنوعی را از بین ببرد. یک سرریز اجتماعی می تواند باعث شود همه هوش مصنوعی مولد دچار سیاهی چشم شوند. مردم بدون شک از خروجی های ناخوشایند بسیار ناراحت خواهند شد، که قبلاً بارها اتفاق افتاده و منجر به واکنش شدید محکومیت های اجتماعی نسبت به هوش مصنوعی شده است.
یک هشدار نهایی در حال حاضر.
هر آنچه را که در یک پاسخ هوش مصنوعی مولد می بینید یا می خوانید به نظر می رسد برای اینکه کاملاً واقعی باشد (تاریخ، مکان ها، افراد و غیره)، مطمئن شوید که شک دارید و مایل باشید آنچه را می بینید دوباره بررسی کنید.
بله، خرما را می توان جعل کرد، مکان ها را می توان ساخت، و عناصری که معمولاً انتظار داریم بیش از حد ملامت باشند. تمام در معرض سوء ظن آنچه را که می خوانید باور نکنید و هنگام بررسی هر مقاله یا خروجی هوش مصنوعی با شک و تردید نگاه کنید. اگر یک اپلیکیشن مولد هوش مصنوعی به شما بگوید که آبراهام لینکلن با جت شخصی خود در سراسر کشور پرواز کرده است، بدون شک متوجه خواهید شد که این یک بیماری ناخوشایند است. متأسفانه، برخی از مردم ممکن است متوجه نباشند که جتها در زمان او وجود نداشتند، یا ممکن است بدانند اما متوجه این موضوع نشوند که این مقاله این ادعای گستاخانه و بهشدت نادرست را دارد.
دوز قوی از شک و تردید سالم و ذهنیت ناباوری مداوم بهترین دارایی شما در هنگام استفاده از هوش مصنوعی مولد خواهد بود.
ما آماده هستیم تا وارد مرحله بعدی این شفاف سازی شویم.
رها کردن هیولا
اکنون که اصول اولیه را ایجاد کرده ایم، به دلیل جنبه های ChatGPT API می توانیم به پیامدهای کسب و کار محور و اجتماعی بپردازیم.
اخیراً مایکروسافت به همراه OpenAI در مورد در دسترس بودن ChatGPT در پلتفرم ابری Azure مایکروسافت (در پست آنلاین با عنوان «در دسترس بودن عمومی سرویس OpenAI Azure دسترسی به مدلهای هوش مصنوعی بزرگ و پیشرفته با مزایای سازمانی اضافه شده را گسترش میدهد» اعلامیهای منتشر کرد. 16 ژانویه 2023):
- مدلهای زبان بزرگ به سرعت به یک پلتفرم ضروری برای مردم تبدیل میشوند تا بتوانند نوآوری کنند، هوش مصنوعی را برای حل مشکلات بزرگ به کار ببرند و تصور کنند چه چیزی ممکن است. امروز، ما هیجان زده هستیم که در دسترس بودن سرویس OpenAI Azure را به عنوان بخشی از تعهد مستمر مایکروسافت به دموکراتیزه کردن هوش مصنوعی و مشارکت مداوم با OpenAI اعلام کنیم. با استفاده از سرویس OpenAI Azure که اکنون به طور کلی در دسترس است، مشاغل بیشتری می توانند برای دسترسی به پیشرفته ترین مدل های هوش مصنوعی در جهان - از جمله GPT-3.5، Codex و DALL•E 2 - با پشتیبانی از قابلیت های قابل اعتماد درجه یک سازمانی و زیرساخت های بهینه شده با هوش مصنوعی درخواست دهند. Microsoft Azure، برای ایجاد برنامه های کاربردی پیشرفته. مشتریان همچنین میتوانند به زودی از طریق سرویس Azure OpenAI به ChatGPT دسترسی پیدا کنند - نسخهای از GPT-3.5 که آموزش دیده و استنتاجهایی را در زیرساختهای هوش مصنوعی Azure اجرا میکند.
ممکن است در آن بیانیه متوجه شده باشید که سایر برنامه های هوش مصنوعی که توسط OpenAI ابداع شده اند نیز در دسترس خواهند بود. در واقع، برخی از این برنامههای هوش مصنوعی از قبل در دسترس بودهاند، همانطور که در بیانیه اخیر بالا ذکر شد: «ما سرویس Azure OpenAI را در نوامبر 2021 راهاندازی کردیم تا مشتریان بتوانند از قدرت مدلهای هوش مصنوعی در مقیاس بزرگ بهره ببرند. این شرکت قول میدهد که مشتریان از زیرساختهای محاسباتی و ابری Azure ما انتظار داشته باشند - امنیت، قابلیت اطمینان، انطباق، حریم خصوصی دادهها و قابلیتهای هوش مصنوعی مسئول داخلی.» (ibid).
قبلاً اشاره کردم که هم اخلاق هوش مصنوعی و هم قانون هوش مصنوعی سعی در ایجاد تعادل بین آنها دارند هوش مصنوعی برای خوب آرزوهای با پتانسیل هوش مصنوعی برای بد که در مواقعی ممکن است بوجود بیاید در قلمرو هوش مصنوعی، حرکتی به سمت داشتن وجود دارد هوش مصنوعی مسئول یا گاهی اوقات به عنوان هوش مصنوعی قابل اعتماد یا هوش مصنوعی انسان محور ابداع می شود، پوشش من را در اینجا ببینید پیوند اینجا. از همه سازندگان هوش مصنوعی خواسته میشود تا هوش مصنوعی خود را برای آن طراحی کنند هوش مصنوعی برای خوب و آشکارا به دنبال محدود کردن یا کاهش هر یک باشند هوش مصنوعی برای بد که ممکن است پدیدار شود
این سفارش بلند بالاییست.
در هر صورت، بیانیه فوق به ملاحظات هوش مصنوعی مسئول پرداخته است:
- "به عنوان یک رهبر صنعت، ما می دانیم که هر نوآوری در هوش مصنوعی باید مسئولانه انجام شود. این موضوع با فناوریهای قدرتمند و جدید مانند مدلهای مولد اهمیت بیشتری پیدا میکند. ما رویکردی تکراری را برای مدلهای بزرگ اتخاذ کردهایم و با شریک OpenAI و مشتریانمان همکاری نزدیک داریم تا موارد استفاده را به دقت ارزیابی کنیم، یاد بگیریم و خطرات بالقوه را بررسی کنیم. علاوه بر این، ما نردههای محافظ خود را برای سرویس Azure OpenAI پیادهسازی کردهایم که با اصول هوش مصنوعی مسئول ما هماهنگ است. به عنوان بخشی از چارچوب دسترسی محدود ما، توسعه دهندگان موظفند برای دسترسی درخواست دهند و موارد استفاده یا برنامه مورد نظر خود را قبل از دسترسی به سرویس شرح دهند. فیلترهای محتوا به طور منحصربهفردی طراحی شدهاند تا محتوای توهینآمیز، نفرتانگیز و توهینآمیز را بهطور مداوم بر ورودی ارائهشده به سرویس و همچنین محتوای تولید شده نظارت کنند. در صورت تأیید نقض خطمشی، ممکن است از توسعهدهنده بخواهیم که برای جلوگیری از سوءاستفاده بیشتر اقدام فوری انجام دهد» (ibid).
نکته اصلی این دیدگاه هوش مصنوعی مسئول این است که با نیاز به درخواست رسمی برای دسترسی به ChatGPT بر اساس API برنامه، احتمال حذف موارد ارسالی نامطلوب وجود دارد. اگر در انتخاب اینکه کدام شرکتها و برنامههایشان میتوانند به ChatGPT دسترسی داشته باشند، دقت کافی وجود داشته باشد، شاید شانس مبارزه برای جلوگیری از خشم کامل کراکن آزاد شده وجود داشته باشد.
شاید آره شاید نه.
برخی از صاحبنظران دست خود را به هم میزنند که امکانهای پولسازی برای استفاده از ChatGPT API، مفهوم تعادلی را که میخواهیم جانور را بهطور منطقی و ایمن مهار کنیم، تحت فشار قرار میدهد. آیا بررسی دقیق از قبل به اندازه کافی دقیق خواهد بود؟ آیا ممکن است در عوض ببینیم که با از دست رفتن حجم درخواستها، یک فرآیند تأیید ضعیف رخ میدهد؟ برخی از این می ترسند که تنها زمانی که گربه از کیسه خارج می شود، ممکن است بررسی دقیق تری با تاخیر انجام شود، اگرچه تا آن زمان آسیب قبلاً وارد شده باشد.
خوب، شما حداقل می توانید اعتبار لازم را به این موضوع بدهید که یک فرآیند بررسی درگیر است. برخی از برنامههای هوش مصنوعی مولد وجود دارند که یا فاقد فرآیند بررسی منسجم هستند یا ماهیت مختصری دارند. علاوه بر این، نسخههای منبع باز هوش مصنوعی مولد وجود دارد که عموماً میتواند توسط تقریباً هر کسی که میخواهد این کار را انجام دهد، استفاده میکند، اگرچه برخی محدودیتهای صدور مجوز قرار است رعایت شود (تلاش برای اجرای این امر سختتر از آن چیزی است که به نظر میرسد).
بیایید نگاهی گذرا به قوانین موجود در مورد محدود کردن دسترسی به سرویس Azure OpenAI بیندازیم تا ببینیم سایر سازندگان نرمافزار برای اتصال احتمالی با ChatGPT چه کاری باید انجام دهند. طبق سیاست های پست آنلاین مایکروسافت (آخرین پست نشان داده شده به عنوان 14 دسامبر 2022):
- به عنوان بخشی از تعهد مایکروسافت به هوش مصنوعی مسئول، ما در حال طراحی و انتشار سرویس OpenAI Azure با هدف حفاظت از حقوق افراد و جامعه و تقویت تعامل شفاف انسان و رایانه هستیم. به همین دلیل، ما در حال حاضر دسترسی و استفاده از Azure OpenAI را محدود میکنیم، از جمله محدودیت دسترسی به توانایی اصلاح فیلترهای محتوا و اصلاح نظارت بر سوء استفاده. Azure OpenAI نیاز به ثبت نام دارد و در حال حاضر فقط برای مشتریان مدیریت شده و شرکای کار با تیم های حساب مایکروسافت در دسترس است. مشتریانی که مایل به استفاده از Azure OpenAI هستند باید فرم ثبت نام را هم برای دسترسی اولیه برای آزمایش و هم برای تأیید حرکت از آزمایش به تولید ارائه کنند.
- برای آزمایش، مشتریان تأیید میکنند که از این سرویس فقط برای استفادههای مورد نظر ارائه شده در زمان ثبت نام استفاده میکنند و متعهد میشوند که نظارت انسانی، محدودیتهای فنی قوی در ورودیها و خروجیها، کانالهای بازخورد و آزمایش کامل را در نظر بگیرند. برای تولید، مشتریان توضیح می دهند که چگونه این موارد برای کاهش ریسک اجرا شده است. مشتریانی که میخواهند فیلترهای محتوا را تغییر دهند و نظارت بر سوء استفاده را پس از ورود به سرویس تغییر دهند، مشمول محدودیتهای سناریویی اضافی هستند و ملزم به ثبتنام در اینجا هستند.»
- «دسترسی به سرویس Azure OpenAI منوط به صلاحدید مایکروسافت بر اساس معیارهای واجد شرایط بودن و فرآیند بررسی است و مشتریان باید بپذیرند که شرایط خدمات Azure را برای سرویس Azure OpenAI بررسی کرده و با آن موافقت کردهاند. مایکروسافت ممکن است از مشتریان بخواهد که این اطلاعات را دوباره تأیید کنند. سرویس Azure OpenAI تحت شرایط حاکم بر اشتراک آنها در خدمات Microsoft Azure، از جمله بخش Azure OpenAI در شرایط محصول مایکروسافت، در دسترس مشتریان قرار می گیرد. لطفاً این شرایط را به دقت بررسی کنید زیرا حاوی شرایط و تعهدات مهمی است که بر استفاده شما از سرویس Azure OpenAI وجود دارد.
این در طرف مایکروسافت است.
OpenAI همچنین سیاست های استفاده خود را در ارتباط با API خود دارد:
- ما میخواهیم همه بتوانند با خیال راحت و مسئولانه از API ما استفاده کنند. برای این منظور، ما خطمشیهای مورد استفاده و محتوا را ایجاد کردهایم. با دنبال کردن آنها، به ما کمک می کنید مطمئن شویم که از فناوری ما به خوبی استفاده می شود. اگر متوجه شدیم محصول شما از این خطمشیها پیروی نمیکند، از شما میخواهیم تغییرات لازم را اعمال کنید. اگر رعایت نکنید، ممکن است اقدامات بیشتری از جمله فسخ حساب شما انجام دهیم.»
- ما ساخت محصولاتی را که موارد استفاده زیر را هدف قرار می دهند ممنوع می کنیم:
- "- صنایع غیر قانونی یا مضر"
- "- سوء استفاده از داده های شخصی"
- "- ترویج عدم صداقت"
- "- فریب دادن یا دستکاری کاربران"
- "- تلاش برای نفوذ در سیاست"
- «مجموعه موارد استفاده زیر خطر آسیب احتمالی بیشتری را به همراه دارد: عدالت کیفری، اجرای قانون، حقوقی، خدمات دولتی و مدنی، مراقبت های بهداشتی، درمانی، سلامتی، مربیگری، مالی، اخبار. برای این موارد استفاده، شما باید:
- "1) مدل های ما را به طور کامل از نظر دقت در مورد استفاده خود آزمایش کنید و در مورد محدودیت ها با کاربران خود شفاف باشید.
- "2) اطمینان حاصل کنید که تیم شما دارای تخصص در حوزه است و قوانین مربوطه را میداند/پیروی میکند.
- ما همچنین به شما یا کاربران نهایی برنامه شما اجازه تولید انواع محتوای زیر را نمی دهیم:
- "- نفرت"
- "- آزار و اذیت"
- "- خشونت"
- "- خودآزاری"
- "- جنسی"
- "- سیاسی"
- "- هرزنامه ها"
- "- فریب"
- "- بد افزار"
یک سوال بزرگ این خواهد بود که آیا در صورت هجوم شدید درخواست ها برای ارتباط با ChatGPT، می توان این ایده آل ها را مشاهده کرد. شاید سونامی عظیمی از درخواست ها وجود داشته باشد. کار انسانی برای بررسی و بررسی دقیق هر یک می تواند پرهزینه و مدیریت آن دشوار باشد. آیا میل به محدود کردن مناسب، در مواجهه با تقاضای بسیار زیاد برای دسترسی، ناخواسته کم خواهد شد؟
همانطور که شوخ طبعی معروف می گوید، بهترین نقشه ها گاهی اوقات می توانند در اولین تماس با نیروهای فراوان از بین بروند.
همچنین در نحوه تفسیر قوانین بیان شده، آزادی عمل زیادی وجود دارد. همانطور که به طور کلی در مورد افزایش اطلاعات نادرست و اطلاعات نادرست دیدیم، تلاش برای جدا کردن گندم از کاه می تواند بسیار چالش برانگیز باشد. چگونه می توان تشخیص داد که آیا محتوای تولید شده از مفاد عدم تنفر، سیاسی، فریبکارانه و مانند آن تبعیت می کند یا آن را نقض می کند؟
یک مشکل احتمالی میتواند این باشد که اگر ChatGPT API در دسترس نرمافزار سازندهای قرار گیرد که برنامه خود را با ChatGPT جفت میکند و خروجی بهطور واضح قوانین ذکر شده را نقض میکند، آیا اسب قبلاً از انبار خارج شده است؟ برخی معتقدند که احتمال آسیب جدی به شهرت وجود دارد که می تواند به همه طرف های درگیر وارد شود. مشخص نیست که آیا می توان با جدا کردن API به آن متخلف خاص بر این مشکل غلبه کرد یا خیر. آسیب، به یک معنا، ممکن است باقی بماند و تمام بشکه را خراب کند. سرزنش فراوان متوجه همه کسانی خواهد شد.
طبقه بندی جفت های API
قبلاً اشاره کردم که جفتسازیهای ChatGPT را میتوان به راحتی به دو هدف اصلی گروهبندی کرد:
- جفت شدن واقعی با ChatGPT
- جفت سازی جعلی با ChatGPT
بیایید ابتدا جفت های واقعی یا واقعی را بررسی کنیم.
به عنوان پس زمینه، روشی که این اتفاق می افتد تا حدودی ساده است. برنامه ChatGPT به برنامه های دیگر اجازه می دهد تا برنامه را فراخوانی کنند. به طور معمول، این شامل برنامهای است که ما Widget مینامیم که به ChatGPT یک دستور در قالب متن ارسال میکند، و بعد از اینکه ChatGPT کار خود را انجام داد، یک مقاله یا متن به ویجت برنامه برگردانده میشود. این تقریباً شبیه این است که شخصی همان کار را انجام دهد، اگرچه ما برنامهای خواهیم داشت که این اقدامات را به جای شخصی انجام دهد.
برای مثال، فرض کنید شخصی برنامه ای طراحی کرده است که در وب جستجو می کند. این برنامه از کاربر می پرسد که چه چیزی را می خواهد جستجو کند. سپس این برنامه فهرستی از موارد جستجو یا یافته های مختلف را در اختیار کاربر قرار می دهد که امیدواریم وب سایت های مرتبط را بر اساس درخواست کاربر به نمایش بگذارند.
تصور کنید که شرکتی که این برنامه جستجوی وب را می سازد می خواهد برنامه خود را تقویت کند.
آنها درخواست دسترسی به ChatGPT API را دارند. فرض کنید آنها تمام مدارک لازم را انجام می دهند و در نهایت تایید می شوند. برنامه آنها که جستجوهای وب را انجام می دهد باید اصلاح شود تا شامل فراخوانی به برنامه ChatGPT از طریق API باشد. فرض کنید آنها تصمیم می گیرند آن مدها را بسازند.
در اینجا این است که چگونه آن ممکن است به طور کلی کار کند. هنگامی که کاربر درخواستی را برای جستجوی وب در برنامه اصلی وارد می کند، این برنامه نه تنها یک جستجوی معمولی در وب انجام می دهد، بلکه پرس و جو را از طریق API به ChatGPT ارسال می کند. ChatGPT سپس متن را پردازش می کند و یک مقاله نتیجه را به برنامه اصلی برمی گرداند. برنامه هسته جستجوی وب اکنون دو جنبه را به کاربر ارائه می دهد، یعنی نتایج جستجوی وب و مقاله خروجی اضافی از ChatGPT.
شخصی که از این برنامه اصلی استفاده می کند لزوماً نمی داند که ChatGPT در باطن استفاده شده است. این می تواند در محدوده برنامه اصلی اتفاق بیفتد و کاربر به طور خوشبختی از اینکه ChatGPT دخیل بوده است بی اطلاع است. از سوی دیگر، برنامه اصلی می تواند برای اطلاع کاربر از استفاده از ChatGPT طراحی شود. این معمولاً به این بستگی دارد که آیا سازندگان برنامه اصلی میخواهند نشان دهند که برنامه دیگر، در این مورد ChatGPT، در حال استفاده بوده است. در برخی ترتیبات، سازنده برنامه فراخوانی شده اصرار دارد که برنامه فراخوانی API باید به کاربران اطلاع دهد که برنامه دیگر در حال استفاده است. همه چیز به ترجیحات و جزئیات مجوز بستگی دارد.
برای جفتهای واقعی، روشهای مرسوم در اینجا آمده است:
- 1) عبور مستقیم به ChatGPT
- 2) افزودنی برای تقویت ChatGPT
- 3) برنامه متحد که همزمان با ChatGPT است
- 4) غوطه وری کاملا یکپارچه با ChatGPT
به طور خلاصه، در اولین رویکرد فهرست شده، ایده این است که من ممکن است برنامهای طراحی کنم که صرفاً یک پیشنمایش برای ChatGPT باشد، و به این ترتیب، تمام کاری که برنامه من انجام میدهد این است که متن را به ChatGPT میفرستد و متن را از ChatGPT برمیگرداند. من برنامه خود را برای هر کسی که می خواهد از ChatGPT استفاده کند و در غیر این صورت برای استفاده از آن ثبت نام نکرده است، در دسترس قرار می دهم. این یک رویکرد است.
دوم، من ممکن است برنامه ای طراحی کنم که به عنوان یک افزودنی برای ChatGPT عمل کند. به عنوان مثال، زمانی که ChatGPT یک مقاله تولید می کند، ممکن است حاوی دروغ باشد. فرض کنید من برنامهای میسازم که خروجی ChatGPT را بررسی میکند و سعی میکند نادرستها را غربال کند. من برنامهام را طوری در دسترس قرار میدهم که مردم یک اعلان متنی را در برنامه من وارد میکنند، که سپس درخواست را به ChatGPT ارسال میکند. ChatGPT مقاله ای تولید می کند که به برنامه من بازمی گردد. قبل از اینکه برنامه من مقاله را به شما نشان دهد، مقاله را از قبل نمایش می دهد و سعی می کند موارد نادرست را پرچم گذاری یا حذف کند. بعد از اینکه برنامه من غربالگری را انجام داد، مقاله حاصل را می بینید.
رویکرد سوم شامل داشتن یک برنامه متحد است که از نظر منطبق بر ChatGPT است. فرض کنید من برنامه ای را توسعه می دهم که به افراد در نوشتن خلاقانه کمک می کند. برنامه من نکات و پیشنهاداتی را در مورد نحوه نوشتن خلاقانه ارائه می دهد. این برنامه صرفاً کاربر را به انجام این کار تشویق یا ترغیب می کند. در همین حال، کاری که من دوست دارم بتوانم انجام دهم این است که به کاربر نشان دهم نوشتن خلاقانه از چه چیزی تشکیل شده است. به این ترتیب، من یک API با ChatGPT ایجاد می کنم. سپس برنامه من از کاربر درخواست میکند و ChatGPT را فراخوانی میکند تا یک مقاله را ارائه دهد که ممکن است نوشتن خلاقانه را نشان دهد. این را می توان به صورت تکراری انجام داد و ChatGPT را چندین بار در فرآیند فراخوانی کرد.
در مورد چهارمین رویکرد فهرست شده، ChatGPT به طور کامل در برخی برنامه ها یا مجموعه ای از برنامه های دیگر ادغام شده است. به عنوان مثال، اگر من یک برنامه پردازش کلمه و یک برنامه صفحه گسترده داشتم، ممکن است بخواهم ChatGPT را در آن برنامه ها ادغام کنم. آنها به نحوی که صحبت می کنند دست در دست یکدیگر عمل می کنند. من در ستونی که در آینده منتشر خواهد شد، این احتمال را که مایکروسافت می تواند ChatGPT را در مجموعه بهره وری اداری خود القا کند، پوشش خواهم داد، بنابراین به دنبال تجزیه و تحلیل آینده باشید.
اینها راههای کلیدی هستند که ممکن است یک جفت واقعی انجام شود.
اجازه دهید در ادامه برخی از جفتهای جعلی را در نظر بگیریم.
در اینجا چند جفت جعلی کلی وجود دارد که باید مراقب آنها باشید:
- جفت کردن حیله با ChatGPT - به طور جزئی از ChatGPT استفاده می کند که عمدتاً برای نمایش و به دست آوردن تبلیغات بدون ارزش افزوده انجام می شود
- وعده های جذاب درباره جفت شدن ChatGPT – فروشنده نرم افزار ادعا می کند که در میانه جفت شدن با ChatGPT هستند و به دنبال این هستند که در کانون توجه درخشان قرار گیرند، در حالی که واقعیت این است که آنها این کار را انجام نمی دهند و در حال جعل کردن سر کلاسیک و ارائه یک تعهد نادرست هستند.
- Knockoffs اعلام می کند که مانند ChatGPT است - به جای جفت شدن با ChatGPT، برخی از فروشندگان نرم افزار از چیز دیگری استفاده می کنند، که خوب است، اما آنها سعی می کنند به این معنا باشند که ChatGPT است، در حالی که اینطور نیست، به امید اینکه برخی از پسروهای ChatGPT را دریافت کنند.
- دیگر - بسیاری از طرح های گسترده و فریبنده اضافی قابل تصور است
بدون شک در مورد همه اینها جنجال های زیادی در جریان است. این بخشی از انتشار Kraken خواهد بود.
نتیجه
اجازه دهید چند آچار و موانع دیگر را در این موضوع پرتاب کنم.
هزینه چطور؟
در حال حاضر، کسانی که برای استفاده از ChatGPT ثبت نام کرده اند، این کار را به صورت رایگان انجام می دهند. من قبلاً اشاره کرده ام که در برخی مواقع نیاز به کسب درآمد مستقیم وجود دارد. این ممکن است مستلزم دریافت هزینه ای برای هر تراکنش یا شاید پرداخت هزینه اشتراک باشد. احتمال دیگر این است که ممکن است از تبلیغات برای وارد کردن خمیر استفاده شود، به موجب آن هر بار که از ChatGPT استفاده می کنید یک تبلیغ ظاهر می شود. و غیره.
کسانی که تصمیم می گیرند از طریق API با ChatGPT جفت شوند، باید به طور جدی در مورد هزینه های بالقوه موجود فکر کنند. احتمالاً هزینه ای در رابطه با استفاده از Microsoft Azure برای اجرای برنامه ChatGPT وجود دارد. برای استفاده از ChatGPT API و فراخوانی برنامه هوش مصنوعی، قطعاً OpenAI هزینهای خواهد داشت. یک فروشنده نرمافزار هزینههای داخلی خود را نیز متحمل میشود، مانند تغییر برنامههای موجود خود برای استفاده از API یا توسعه مجدد برنامهها در اطراف جفت شدن با ChatGPT. هم هزینه شروع و هم مجموعه هزینه های نگهداری مداوم را متصور شوید.
ماهیت این است که این لایه بندی هزینه ها تا حدودی هجوم طلا به سمت استفاده از ChatGPT API را تعدیل می کند. فروشندگان نرم افزار احتمالاً باید یک محاسبه محتاطانه ROI (بازده سرمایه) انجام دهند. آیا هر آنچه که آنها می توانند از طریق افزایش برنامه خود با استفاده از ChatGPT ایجاد کنند، پول اضافی کافی برای جبران هزینه ها به همراه خواهد داشت؟
لزوماً قرار نیست همه افراد کاملاً از نظر هزینه آگاه باشند. اگر جیب های عمیقی دارید و معتقدید که استفاده از ChatGPT برنامه شما را به شناخته شده ترین یا شناخته شده ترین حوزه برنامه ها سوق می دهد، ممکن است تصمیم بگیرید که هزینه در حال حاضر ارزش آن را دارد. با استفاده از کتهای ChatGPT، نامی برای برنامه خود بسازید. در ادامه، زمانی که برنامهتان محبوب شد یا بهطور دیگری درآمد کسب کردید، یا کمبود سود قبلی را جبران میکنید یا آن را بهعنوان هزینهای که برای ورود به زمان بزرگ لازم است، یادداشت میکنید.
یک استارتآپ کوچک که توسط یک شرکت سرمایهگذاری خطرپذیر (VC) پشتیبانی میشود، ممکن است مایل باشد بخشی از سرمایهگذاری اولیه خود را برای جفت شدن با ChatGPT API صرف کند. شهرت ممکن است فورا به وجود بیاید. شانس ممکن است راه درازی باشد، اما این چیزی است که بعدا باید با آن برخورد کرد. همانطور که می گویند، زمانی که به دست آوردن خوب است، در کانون توجه قرار بگیرید.
یکی فرض میکند که ممکن است مؤسسات غیرانتفاعی و اجتماعی وجود داشته باشند که تصمیم بگیرند تایرها را نیز در این مورد رد کنند. فرض کنید یک شرکت غیرانتفاعی استفاده مفیدی از فراخوانی ChatGPT API را شناسایی می کند که ظاهراً از اهداف نوع دوستانه یا اجتماعی سودمند آنها پشتیبانی می کند. شاید آنها برای این کار از طریق یک کمپین تامین مالی آنلاین بودجه جمع آوری کنند. شاید آنها سعی می کنند با فروشندگان معامله کنند تا مبلغ اسمی بپردازند یا استفاده رایگان را دریافت کنند.
زمان خواهد شد بگویید.
آخرین نکته ای که شما را با آن کنار می گذارم عامل خطر است.
نمیخواهم بیرویه ضعیف به نظر برسم، اما قبلاً اشاره کردم که خروجیهای ChatGPT میتوانند حاوی موارد نادرست باشند و جنبههای منفی بالقوه دیگری داشته باشند. مسئله این است که اگر یک فروشنده نرمافزاری که یک برنامه را میسازد با استفاده از ChatGPT API مخلوط شود، خطر خروجیهای ترش و کدر را دارد که باید پیشبینی کند. سر خود را در ماسه قرار ندهید.
مشکلات این است که این خروجی ها می توانند برنامه ای را که استفاده از آنها را انتخاب می کند، لکه دار کنند. از این نظر، برنامه شما که در ابتدا از شکوه ChatGPT استفاده میکند، در صورتی که به خروجیهای ارائه شده از طریق ChatGPT اعتماد شود، میتواند در نهایت به دیوار آجری تبدیل شود. شاید خروجی ها به کاربران ارائه می شود و این باعث یک غوغای وحشتناک می شود. آنها عصبانیت خود را از شما و برنامه شما بیرون می آورند.
به نوبه خود، شما سعی می کنید با انگشت به ChatGPT اشاره کنید. آیا این شما را از معما خارج می کند؟ هنگامی که بوی بدی وجود دارد، به طور گسترده ای نفوذ می کند و تعداد کمی از آنها در امان می مانند. در طول این خطوط، ممکن است از طریق استفاده گسترده از ChatGPT، آگاهی از خروجی های ناخوشایند بیشتر شناخته شود. بنابراین، به اندازه کافی عجیب، یا از قضا، استفاده گسترده از ChatGPT به دلیل API می تواند به پای خود شلیک کند.
نمیخواهم سخنانم را با چهرهای غمگین به پایان برسانم، پس بیایید سعی کنیم به چهرهای شاد تبدیل شویم.
اگر تمام محدودیتها و محدودیتهای آرزویی بهطور آگاهانه و عاقلانه دنبال شوند و به دقت رعایت شوند، استفاده از ChatGPT از طریق API میتواند چیز خوبی باشد. این احتمال نیز وجود دارد که این امر باعث ترغیب سایر برنامه های مولد هوش مصنوعی به عمل شود. افزایش جزر و مد می تواند همه قایق ها را بالا ببرد.
به نظر می رسد خوش بینانه است.
شاید بدانید که گفته میشود زئوس کنترل کراکن را در دست دارد. سوفوکل، نمایشنامهنویس یونان باستان، در مورد زئوس چنین میگوید: «تاسهای زئوس همیشه با خوش شانسی میافتند».
شاید همین موضوع در مورد چگونگی فرود آمدن هوش مصنوعی مولد ناگزیر گفته شود، بیایید حداقل امیدوار باشیم.
منبع: https://www.forbes.com/sites/lanceeliot/2023/01/22/generative-ai-chatgpt-is-going-to-be-everywhere-once-the-api-portal-gets-soon- اخلاق-و-قانون-آی-هیجان-انگیز-گشوده/