به محض اینکه پورتال API به زودی باز شود، ChatGPT AI مولد همه جا خواهد بود، اخلاق هوش مصنوعی و قانون هوش مصنوعی گیج کننده

انتشار کراکن!

شما بدون شک با آن جمله معروف که به ویژه توسط بازیگر لیام نیسون در برخورد تایتان ها هنگامی که او دستور می دهد که هیولای دریایی افسانه ای آزاد شود، با هدف ایجاد ویرانی عظیم و تخریب بزرگ. این خط بی انتها تکرار شده و انواع الگوهای رفتاری را ایجاد کرده است. علی‌رغم تقلیدهای مختلف، بیشتر مردم هنوز حداقل از نظر ظاهری احساس می‌کنند که این اظهارات پیش‌بینی می‌کند که یک ظهور سایه‌دار و خطرناک در شرف رها شدن است.

شاید بتوان همین احساس را این روزها در مورد هوش مصنوعی (AI) نیز به کار برد.

اجازه بدهید توضیح بیشتری بدهم.

یک اطلاعیه اخیر نشان می دهد که یک برنامه هوش مصنوعی معروف به نام ChatGPT که توسط سازمان OpenAI ساخته شده است به زودی برای دسترسی سایر برنامه ها در دسترس خواهد بود. این یک خبر بزرگ است. من این را می گویم حتی اگر رسانه های معمولی کمی از این بیانیه استقبال کرده باشند. به غیر از اشاره های زودگذر، تاثیر کامل این دسترسی آینده بسیار قابل توجه خواهد بود.

در ستون امروز، من توضیح خواهم داد که چرا این مورد است. بر این اساس می توانید خودتان را آماده کنید.

برخی قاطعانه بر این باورند که این امر شبیه رها کردن کراکن است، یعنی اینکه همه چیز بدی در راه است. دیگران این را به عنوان در دسترس قرار دادن یک منبع حیاتی می دانند که می تواند هزاران برنامه دیگر را با استفاده از قابلیت های بزرگ ChatGPT تقویت کند. یا بدترین زمان است یا بهترین زمان. ما در اینجا هر دو طرف بحث را در نظر خواهیم گرفت و شما می توانید خودتان تصمیم بگیرید که در کدام اردوگاه فرود بیایید.

در همه این موارد، ملاحظات اخلاق هوش مصنوعی و قانون هوش مصنوعی وجود دارد.

لطفاً توجه داشته باشید که تلاش‌های مداومی برای تطبیق اصول هوش مصنوعی اخلاقی در توسعه و پیاده‌سازی برنامه‌های هوش مصنوعی وجود دارد. گروه رو به رشدی از متخصصان اخلاق هوش مصنوعی نگران و قدیمی در تلاش هستند تا اطمینان حاصل کنند که تلاش‌ها برای ابداع و پذیرش هوش مصنوعی، دیدگاهی از انجام دادن را در نظر می‌گیرد. هوش مصنوعی برای خوب و جلوگیری می کند هوش مصنوعی برای بد. به همین ترتیب، قوانین جدید هوش مصنوعی پیشنهاد شده است که به عنوان راه حل‌های بالقوه برای جلوگیری از ابهام کردن تلاش‌های هوش مصنوعی در مورد حقوق بشر و مواردی از این دست، مورد استفاده قرار می‌گیرند. برای پوشش مداوم و گسترده من از اخلاق هوش مصنوعی و قانون هوش مصنوعی، نگاه کنید به پیوند اینجا و پیوند اینجا، فقط به نام چند.

نگرانی‌های فزاینده‌ای وجود دارد که ChatGPT و سایر برنامه‌های هوش مصنوعی مشابه زیر شکم زشتی دارند که شاید ما آمادگی مقابله با آن را نداشته باشیم. برای مثال، ممکن است شنیده باشید که دانش‌آموزان در مدارس به طور بالقوه قادر به تقلب در نوشتن مقاله‌های اختصاص داده شده از طریق ChatGPT هستند. هوش مصنوعی تمام نوشتن را برای آنها انجام می دهد. در همین حال، دانش‌آموز می‌تواند به‌طور ظاهراً آزادانه در مقاله بچرخد، گویی که نوشتن را از زبان خود انجام داده است. چیزی نیست که ما احتمالاً می خواهیم هوش مصنوعی برای بشریت انجام دهد.

چند نکته ضروری ممکن است برای آماده کردن زمینه برای این که این همه در مورد آن است مفید باشد.

ChatGPT نوعی هوش مصنوعی است که معمولاً به آن گفته می شود هوش مصنوعی مولد. این برنامه‌های مبتنی بر مولد پرطرفدار هوش مصنوعی به شما امکان می‌دهند یک پیام کوتاه وارد کنید و از برنامه بخواهید خروجی‌هایی برای شما ایجاد کند. در مورد ChatGPT، خروجی متن است. بنابراین، یک پیام متنی را وارد می‌کنید و برنامه ChatGPT متنی را برای شما تولید می‌کند. من تمایل دارم این را به عنوان یک نوع فرعی خاص از هوش مصنوعی مولد توصیف کنم که برای تولید خروجی های متن به مقاله (انواع فرعی دیگری مانند متن به تصویر، متن به ویدیو و غیره وجود دارد).

سازنده هوش مصنوعی ChatGPT نشان داده است که به زودی یک API (رابط برنامه نویسی برنامه) برای برنامه هوش مصنوعی در دسترس خواهد بود. به طور خلاصه، API وسیله‌ای است که به برنامه‌های دیگر اجازه می‌دهد به پیش بروند و از برنامه‌ای استفاده کنند که پورتالی را در برنامه‌ی مورد نظر در دسترس قرار دهد. این بدان معنی است که تقریباً هر برنامه دیگری در این سیاره می تواند به طور بالقوه از استفاده از ChatGPT استفاده کند (خوب، طبق مجوز و پس از تأیید سازنده هوش مصنوعی ChatGPT، همانطور که در اینجا به طور لحظه ای بحث خواهد شد).

نتیجه این است که استفاده و استفاده از ChatGPT به طور بالقوه می تواند از پشت بام شلیک کند.

در حالی که امروزه تعداد قابل توجهی از ثبت نام ها شامل افرادی است که در یک فرد اساس می‌توانید از ChatGPT استفاده کنید، که توسط سازنده هوش مصنوعی محدود به یک میلیون کاربر است، این در واقع احتمالاً کاهشی در سطل چیزی است که قرار است بیاید.

متوجه باشید که آن میلیون‌ها ثبت‌نام موجود شامل بخشی است که از ChatGPT برای یک بار شادی استفاده می‌کنند و پس از پایان هیجان، از آن زمان دیگر از آن استفاده نکرده‌اند. احتمالاً بسیاری جذب اپلیکیشن هوش مصنوعی به عنوان یک واکنش واکنشی ویروسی در رسانه های اجتماعی شدند. به طور خلاصه، اگر دیگران می خواستند از آن استفاده کنند، آنها هم می خواستند این کار را انجام دهند. پس از چند آزمایش اولیه با هوش مصنوعی مبتنی بر تولید، آنها احساس رضایت کردند که از FOMO خود (ترس از دست دادن) جلوگیری کردند.

برای اینکه واضح باشد، من پیشنهاد نمی کنم که مردم از ChatGPT استفاده نمی کنند. آن ها هستند. کسانی که ثبت نام کرده اند به طور فزاینده ای متوجه می شوند که برنامه هوش مصنوعی بیش از حد بارگذاری شده است. افراد زیادی از این برنامه استفاده می کنند. شما هر از گاهی چند نشانه غم انگیز که هوشمندانه نوشته شده است دریافت می کنید که سیستم مشغول است و باید بعداً دوباره امتحان کنید. شایعاتی که در خیابان وجود دارد این است که زیرساخت های موجود برای ChatGPT برای مقابله با طرفداران مشتاق با استفاده از برنامه هوش مصنوعی سخت بوده است.

و اگرچه داشتن یک میلیون کاربر بالقوه چیزی برای عطسه کردن نیست، اما احتمالاً پس از در دسترس قرار گرفتن API، این تعداد به راحتی چند برابر خواهد شد. توسعه دهندگان برنامه های دیگر که امروز هیچ ارتباطی با هوش مصنوعی مولد ندارند، می خواهند از گروه هوش مصنوعی مولد بهره ببرند. آنها می خواهند برنامه خود را با ChatGPT متصل کنند. امید قلبی آنها این است که این برنامه موجود آنها را در استراتوسفر محبوبیت تقویت کند.

اینجوری بهش فکر کن فرض کنید همه انواع شرکت‌های نرم‌افزاری که امروزه برنامه‌هایی را می‌سازند که به میلیون‌ها کاربر دسترسی پیدا می‌کنند، که اغلب به ده‌ها و صدها میلیون کاربر گفته می‌شود، برنامه‌های مربوطه خود را با ChatGPT جفت می‌کنند. این نشان می‌دهد که حجم کاربرانی که از ChatGPT استفاده می‌کنند می‌تواند بسیار بالا برود.

Kraken منتشر شد.

شاید تعجب کنید که چرا شرکت های نرم افزاری مختلف می خواهند با ChatGPT جفت شوند؟

یک پاسخ ساده این است که آنها ممکن است از بادهای دنباله دار شگفت انگیزی که ChatGPT را به جلو و بالا می راند سوء استفاده کنند. برخی به دلایل معقول و فوق العاده این کار را انجام می دهند. دیگران این کار را صرفا برای تلاش برای به دست آوردن ظاهر پانزده دقیقه شهرت خود انجام می دهند.

من دوست دارم جفت‌ها را به ChatGPT به عنوان دو هدف اصلی طبقه‌بندی کنم:

  • جفت شدن واقعی با ChatGPT
  • جفت سازی جعلی با ChatGPT

در مورد اول، تصور این است که مبنای درستی برای جفت شدن با ChatGPT وجود دارد. سازندگان یک برنامه معین می توانند به خوبی مزایای ملموس و کاربردی را که به دلیل جفت شدن برنامه آنها با ChatGPT ایجاد می شود، بیان کنند. همه ما در یک چارچوب ذهنی معقول می‌توانیم ببینیم که این جفت‌سازی یک مسابقه ساخته شده در بهشت ​​است.

برای مورد دیگر، که شامل مواردی است که من آن را جعلی می‌دانم، برخی به دنبال جفت شدن با ChatGPT به صورت غیرقابل تحمل یا متزلزل هستند. پرونده تجاری شامل هیچ چیز به ویژه ماهوی نیست. جفت شدن تلاشی ناامیدانه برای سوار شدن بر دم ChatGPT است. هر گونه بازرسی معقول نشان می دهد که جفت شدن از نظر ارزش حاشیه ای است. حالا پس، چه فکر می کنید که این یک شکل مناسب یا نادرست جفت شدن است تا حدودی در هوا معلق است. می‌توان استدلال کرد که یک جفت‌سازی خاص با ChatGPT، حتی اگر جفت‌سازی چیزی جز افزایش استفاده را انجام ندهد و ارزش افزودنی کاربردی دیگری نداشته باشد، احتمالاً جفت‌سازی هنوز ارزش انجام دادن دارد.

مواردی که به اشتباه جفت شدن را به تصویر می کشند و افراد را به این باور می رساند که اتفاق قابل توجهی در حال رخ دادن است در حالی که واقعاً چنین نیست، اندکی جنبه منفی دارند. مطمئناً می توانیم انتظار داشته باشیم که برخی این کار را امتحان کنند. کسانی که در «اخلاق هوش مصنوعی» هستند، به شدت نگران استفاده از روغن مار هستند که قرار است از کارهای چوبی بیرون بیاید. این احتمال نیز وجود دارد که اگر این از کنترل خارج شود، ممکن است شاهد قوانین جدید مرتبط با هوش مصنوعی باشیم که به تدوین و تصویب آنها دامن زده می شود.

بیایید کاوش دقیق‌تری در مورد اینکه چه چیزی جفت‌های واقعی را تشکیل می‌دهند و چه چیزی جفت‌های جعلی را تشکیل می‌دهند، بیاندازیم.

اول، ما باید مطمئن شویم که همه ما در مورد آنچه که هوش مصنوعی مولد از چه چیزی تشکیل شده و همچنین ChatGPT در یک صفحه هستیم. هنگامی که آن جنبه اساسی را پوشش دادیم، می‌توانیم ارزیابی قاطعانه‌ای از اینکه چگونه API در ChatGPT قرار است چیزها را به طور اساسی تغییر دهد، انجام دهیم.

اگر قبلاً با هوش مصنوعی Generative و ChatGPT آشنایی کامل دارید، می‌توانید بخش بعدی را مرور کنید و به بخش بعدی بروید. من معتقدم که بقیه با مطالعه دقیق بخش و به روز شدن، جزئیات حیاتی در مورد این موضوعات را آموزنده خواهند یافت.

پرایمر سریع درباره هوش مصنوعی و ChatGPT

ChatGPT یک سیستم مکالمه محور تعاملی هوش مصنوعی همه منظوره است، که اساساً یک چت بات عمومی به ظاهر بی ضرر است، با این وجود، همانطور که به زودی توضیح خواهم داد، به طور فعال و مشتاقانه توسط افراد استفاده می شود که بسیاری را کاملاً غیرممکن می کند. این برنامه هوش مصنوعی از یک تکنیک و فناوری در قلمرو هوش مصنوعی استفاده می کند که اغلب به آن اشاره می شود هوش مصنوعی مولد. هوش مصنوعی خروجی هایی مانند متن را تولید می کند، کاری که ChatGPT انجام می دهد. سایر برنامه‌های هوش مصنوعی مبتنی بر تولید تصاویری مانند تصاویر یا آثار هنری تولید می‌کنند، در حالی که برخی دیگر فایل‌های صوتی یا ویدیو تولید می‌کنند.

در این بحث روی برنامه‌های هوش مصنوعی مبتنی بر متن تمرکز می‌کنم زیرا ChatGPT این کار را انجام می‌دهد.

استفاده از برنامه های هوش مصنوعی مولد بسیار آسان است.

تنها کاری که باید انجام دهید این است که یک درخواست وارد کنید و برنامه هوش مصنوعی برای شما مقاله ای ایجاد می کند که سعی می کند به درخواست شما پاسخ دهد. متن ساخته شده به نظر می رسد که گویی مقاله توسط دست و ذهن انسان نوشته شده است. اگر می‌خواهید پیامی را وارد کنید که می‌گوید «درباره آبراهام لینکلن به من بگویید»، هوش مصنوعی مولد مقاله‌ای درباره لینکلن در اختیار شما قرار می‌دهد. این معمولاً به عنوان هوش مصنوعی مولد طبقه بندی می شود که انجام می دهد متن به متن یا برخی ترجیح می دهند آن را صدا کنند متن به مقاله خروجی همانطور که گفته شد، حالت های دیگری از هوش مصنوعی مولد وجود دارد، مانند تبدیل متن به هنر و متن به ویدئو.

اولین فکر شما ممکن است این باشد که این قابلیت مولد از نظر تولید مقاله چندان مهم به نظر نمی رسد. شما به راحتی می توانید یک جستجوی آنلاین در اینترنت انجام دهید و به راحتی هزاران مقاله در مورد رئیس جمهور لینکلن پیدا کنید. نکته مهم در مورد هوش مصنوعی مولد این است که مقاله تولید شده نسبتاً منحصر به فرد است و یک ترکیب اصلی را به جای یک کپی ارائه می دهد. اگر بخواهید مقاله تولید شده توسط هوش مصنوعی را در جایی آنلاین پیدا کنید، بعید است که آن را کشف کنید.

هوش مصنوعی مولد از قبل آموزش داده شده است و از یک فرمول پیچیده ریاضی و محاسباتی استفاده می کند که با بررسی الگوها در کلمات نوشته شده و داستان ها در سراسر وب تنظیم شده است. در نتیجه بررسی هزاران و میلیون‌ها متن نوشته شده، هوش مصنوعی می‌تواند مقالات و داستان‌های جدیدی را منتشر کند که ترکیبی از آنچه پیدا شده است. با افزودن عملکردهای احتمالی مختلف، متن حاصل در مقایسه با آنچه در مجموعه آموزشی استفاده شده است، تقریباً منحصر به فرد است.

به همین دلیل است که سر و صدایی در مورد اینکه دانش آموزان می توانند هنگام نوشتن انشا در خارج از کلاس درس تقلب کنند، به وجود آمده است. یک معلم نمی‌تواند صرفاً این مقاله را که دانش‌آموزان فریبکار ادعا می‌کنند نوشته خودشان است، بپذیرد و به دنبال این باشد که بفهمد آیا این مقاله از منبع آنلاین دیگری کپی شده است یا خیر. به طور کلی، هیچ مقاله قطعی و قطعی آنلاین وجود نخواهد داشت که متناسب با مقاله تولید شده توسط هوش مصنوعی باشد. در مجموع، معلم باید با اکراه بپذیرد که دانش آموز مقاله را به عنوان یک اثر اصلی نوشته است.

نگرانی های بیشتری در مورد هوش مصنوعی مولد وجود دارد.

یکی از نکات منفی مهم این است که مقالات تولید شده توسط یک برنامه هوش مصنوعی مبتنی بر مولد می‌توانند دارای کاذب‌های مختلفی باشند، از جمله حقایق آشکارا نادرست، حقایقی که به‌طور گمراه‌کننده به تصویر کشیده شده‌اند، و حقایق ظاهری که کاملاً ساختگی هستند. آن جنبه های ساختگی اغلب به عنوان شکلی از نامیده می شود توهمات هوش مصنوعیجملاتی که من از آن خوشم نمی‌آیند، اما به نظر می‌رسد که به هر حال با کمال تاسف در حال جلب توجه مردم است (برای توضیح دقیق من در مورد اینکه چرا این اصطلاحات بد و نامناسب است، به پوشش من در پیوند اینجا).

من می خواهم قبل از پرداختن به بحث در مورد این موضوع، یک جنبه مهم را روشن کنم.

در مورد این موضوع در شبکه‌های اجتماعی ادعاهای بزرگی وجود دارد هوش مصنوعی مولد ادعا می کند که این آخرین نسخه از هوش مصنوعی در واقع است هوش مصنوعی حساس (نه، آنها اشتباه می کنند!). کسانی که در اخلاق هوش مصنوعی و قانون هوش مصنوعی هستند به طور مشخص نگران این روند رو به رشد ادعاهای گسترده هستند. ممکن است مودبانه بگویید که برخی افراد درباره آنچه که هوش مصنوعی امروزی واقعاً می تواند انجام دهد اغراق می کنند. آنها تصور می کنند که هوش مصنوعی دارای قابلیت هایی است که ما هنوز نتوانسته ایم به آنها دست پیدا کنیم. این مایه تاسف است. بدتر از آن، آن‌ها می‌توانند به خود و دیگران اجازه دهند در موقعیت‌های وخیم قرار بگیرند، زیرا این تصور وجود دارد که هوش مصنوعی هوشیار یا انسان‌مانند خواهد بود تا بتواند اقدامی انجام دهد.

هوش مصنوعی را انسان سازی نکنید.

انجام این کار شما را در یک تله اتکای چسبناک و بی حوصله گرفتار می کند که انتظار دارید هوش مصنوعی کارهایی را انجام دهد که قادر به انجام آن نیست. با توجه به آنچه گفته شد، جدیدترین هوش مصنوعی مولد برای کارهایی که می تواند انجام دهد نسبتاً چشمگیر است. البته توجه داشته باشید که محدودیت های قابل توجهی وجود دارد که باید به طور مداوم هنگام استفاده از هر برنامه هوش مصنوعی مولد در نظر داشته باشید.

اگر به هیاهوی به سرعت در حال گسترش در مورد ChatGPT و هوش مصنوعی Generative که همه گفته شد علاقه دارید، من یک سری متمرکز در ستون خود انجام داده ام که ممکن است برای شما آموزنده باشد. اگر هر یک از این موضوعات مورد توجه شما قرار بگیرد، در اینجا نگاهی اجمالی داریم:

  • 1) پیش بینی پیشرفت های مولد هوش مصنوعی. اگر می‌خواهید بدانید چه چیزی در مورد هوش مصنوعی در طول سال 2023 و بعد از آن، از جمله پیشرفت‌های آتی در هوش مصنوعی و ChatGPT، ممکن است بدانید، می‌خواهید فهرست جامع پیش‌بینی‌های سال 2023 من را در اینجا بخوانید. پیوند اینجا.
  • 2) هوش مصنوعی و مشاوره سلامت روان. من تصمیم گرفتم بررسی کنم که چگونه از هوش مصنوعی و ChatGPT مولد برای مشاوره سلامت روان استفاده می شود، روندی دردسرساز، بر اساس تجزیه و تحلیل متمرکز من در پیوند اینجا.
  • 3) مبانی هوش مصنوعی و ChatGPT. این بخش به بررسی عناصر کلیدی نحوه عملکرد هوش مصنوعی مولد می‌پردازد و به‌ویژه در برنامه ChatGPT، از جمله تجزیه و تحلیل وزوز و هیاهو، به بررسی می‌پردازد. پیوند اینجا.
  • 4) تنش بین معلمان و دانش آموزان بر سر هوش مصنوعی و ChatGPT. در اینجا روش‌هایی وجود دارد که دانش‌آموزان از هوش مصنوعی مولد و ChatGPT استفاده می‌کنند. علاوه بر این، در اینجا روش هایی برای معلمان برای مقابله با این موج جزر و مدی وجود دارد. دیدن پیوند اینجا.
  • 5) زمینه و استفاده از هوش مصنوعی مولد. من همچنین یک معاینه فصلی زبان در گونه در مورد زمینه مرتبط با بابانوئل انجام دادم که شامل ChatGPT و هوش مصنوعی در پیوند اینجا.
  • 6) کلاهبردارانی که از هوش مصنوعی مولد استفاده می کنند. در یک یادداشت شوم، برخی از کلاهبرداران متوجه شده‌اند که چگونه از هوش مصنوعی و ChatGPT برای انجام کارهای خلاف استفاده کنند، از جمله ایجاد ایمیل‌های کلاهبرداری و حتی تولید کد برنامه‌نویسی برای بدافزار، به تحلیل من در اینجا مراجعه کنید. پیوند اینجا.
  • 7) اشتباهات تازه کار با استفاده از هوش مصنوعی. بسیاری از مردم هم از آنچه که هوش مصنوعی و ChatGPT مولد می‌توانند انجام دهند، غافلگیر می‌شوند و به‌طور شگفت‌انگیزی کم‌کم می‌کنند، بنابراین من به‌ویژه به کم‌نظمی‌هایی که تازه‌کاران هوش مصنوعی تمایل دارند انجام دهند، نگاه کنید. پیوند اینجا.
  • 8) مقابله با هشدارهای هوش مصنوعی و توهمات هوش مصنوعی. من یک رویکرد پیشرفته برای استفاده از افزونه‌های هوش مصنوعی برای مقابله با مسائل مختلف مرتبط با تلاش برای وارد کردن اعلان‌های مناسب در هوش مصنوعی مولد را توضیح می‌دهم، به‌علاوه افزونه‌های هوش مصنوعی اضافی برای تشخیص به اصطلاح خروجی‌ها و دروغ‌های توهم‌آمیز هوش مصنوعی وجود دارد. پوشیده شده در پیوند اینجا.
  • 9) رد ادعاهای Bonehead در مورد شناسایی مقالات تولید شده توسط هوش مصنوعی. هجوم نادرستی از برنامه‌های هوش مصنوعی وجود دارد که اعلام می‌کنند می‌توانند مشخص کنند که آیا هر مقاله‌ای که توسط انسان تولید شده است یا خیر. به طور کلی، این گمراه کننده است و در برخی موارد، یک ادعای بی اساس و غیرقابل دفاع است، پوشش من را در پیوند اینجا.
  • 10) ایفای نقش از طریق هوش مصنوعی مولد ممکن است معایب سلامت روان را به همراه داشته باشد. برخی از هوش مصنوعی مولد مانند ChatGPT برای انجام نقش آفرینی استفاده می کنند، به موجب آن برنامه هوش مصنوعی به انسان پاسخ می دهد که انگار در یک دنیای فانتزی یا سایر تنظیمات ساختگی وجود دارد. این می تواند پیامدهای سلامت روانی داشته باشد، ببینید پیوند اینجا.
  • 11) افشای محدوده خطاها و نادرست های خروجی. فهرست‌های مختلف جمع‌آوری شده در کنار هم قرار می‌گیرند تا ماهیت خطاها و نادرست‌های تولید شده توسط ChatGPT را نشان دهند. برخی معتقدند این ضروری است، در حالی که برخی دیگر می گویند که تمرین بیهوده است، تحلیل من را در اینجا ببینید پیوند اینجا.
  • 12) مدارسی که AI Generative ChatGPT را ممنوع می کنند، قایق را از دست داده اند. ممکن است بدانید که مدارس مختلف مانند اداره آموزش شهر نیویورک (NYC) استفاده از ChatGPT را در شبکه و دستگاه های مرتبط خود ممنوع اعلام کرده اند. اگرچه این ممکن است یک اقدام احتیاطی مفید به نظر برسد، اما سوزن را حرکت نمی دهد و متأسفانه به طور کامل قایق را از دست می دهد، پوشش من را در اینجا ببینید پیوند اینجا.

شاید برایتان جالب باشد که ChatGPT بر اساس نسخه‌ای از یک برنامه هوش مصنوعی پیشین به نام GPT-3 است. ChatGPT به عنوان یک مرحله کمی بعدی در نظر گرفته می شود که به آن GPT-3.5 می گویند. پیش‌بینی می‌شود که GPT-4 احتمالاً در بهار سال 2023 منتشر شود. احتمالاً GPT-4 از نظر توانایی تولید مقالات به ظاهر روان‌تر، عمیق‌تر شدن و شگفت‌انگیز بودن، گامی چشمگیر به جلو خواهد بود. شگفتی الهام بخش از ترکیباتی که می تواند تولید کند.

شما می توانید انتظار داشته باشید که وقتی بهار فرا می رسد و جدیدترین هوش مصنوعی مولد منتشر می شود، دور جدیدی از ابراز تعجب را مشاهده کنید.

من این را مطرح می کنم زیرا زاویه دیگری وجود دارد که باید در نظر داشت، که شامل یک پاشنه آشیل بالقوه برای این برنامه های هوش مصنوعی مولد بهتر و بزرگتر است. اگر هر فروشنده هوش مصنوعی یک برنامه هوش مصنوعی مولد را در دسترس قرار دهد که به صورت کف آلود ناپاکی ها را بیرون می زند، این می تواند امید آن سازندگان هوش مصنوعی را از بین ببرد. یک سرریز اجتماعی می تواند باعث شود همه هوش مصنوعی مولد دچار سیاهی چشم شوند. مردم بدون شک از خروجی های ناخوشایند بسیار ناراحت خواهند شد، که قبلاً بارها اتفاق افتاده و منجر به واکنش شدید محکومیت های اجتماعی نسبت به هوش مصنوعی شده است.

یک هشدار نهایی در حال حاضر.

هر آنچه را که در یک پاسخ هوش مصنوعی مولد می بینید یا می خوانید به نظر می رسد برای اینکه کاملاً واقعی باشد (تاریخ، مکان ها، افراد و غیره)، مطمئن شوید که شک دارید و مایل باشید آنچه را می بینید دوباره بررسی کنید.

بله، خرما را می توان جعل کرد، مکان ها را می توان ساخت، و عناصری که معمولاً انتظار داریم بیش از حد ملامت باشند. تمام در معرض سوء ظن آنچه را که می خوانید باور نکنید و هنگام بررسی هر مقاله یا خروجی هوش مصنوعی با شک و تردید نگاه کنید. اگر یک اپلیکیشن مولد هوش مصنوعی به شما بگوید که آبراهام لینکلن با جت شخصی خود در سراسر کشور پرواز کرده است، بدون شک متوجه خواهید شد که این یک بیماری ناخوشایند است. متأسفانه، برخی از مردم ممکن است متوجه نباشند که جت‌ها در زمان او وجود نداشتند، یا ممکن است بدانند اما متوجه این موضوع نشوند که این مقاله این ادعای گستاخانه و به‌شدت نادرست را دارد.

دوز قوی از شک و تردید سالم و ذهنیت ناباوری مداوم بهترین دارایی شما در هنگام استفاده از هوش مصنوعی مولد خواهد بود.

ما آماده هستیم تا وارد مرحله بعدی این شفاف سازی شویم.

رها کردن هیولا

اکنون که اصول اولیه را ایجاد کرده ایم، به دلیل جنبه های ChatGPT API می توانیم به پیامدهای کسب و کار محور و اجتماعی بپردازیم.

اخیراً مایکروسافت به همراه OpenAI در مورد در دسترس بودن ChatGPT در پلتفرم ابری Azure مایکروسافت (در پست آنلاین با عنوان «در دسترس بودن عمومی سرویس OpenAI Azure دسترسی به مدل‌های هوش مصنوعی بزرگ و پیشرفته با مزایای سازمانی اضافه شده را گسترش می‌دهد» اعلامیه‌ای منتشر کرد. 16 ژانویه 2023):

  • مدل‌های زبان بزرگ به سرعت به یک پلتفرم ضروری برای مردم تبدیل می‌شوند تا بتوانند نوآوری کنند، هوش مصنوعی را برای حل مشکلات بزرگ به کار ببرند و تصور کنند چه چیزی ممکن است. امروز، ما هیجان زده هستیم که در دسترس بودن سرویس OpenAI Azure را به عنوان بخشی از تعهد مستمر مایکروسافت به دموکراتیزه کردن هوش مصنوعی و مشارکت مداوم با OpenAI اعلام کنیم. با استفاده از سرویس OpenAI Azure که اکنون به طور کلی در دسترس است، مشاغل بیشتری می توانند برای دسترسی به پیشرفته ترین مدل های هوش مصنوعی در جهان - از جمله GPT-3.5، Codex و DALL•E 2 - با پشتیبانی از قابلیت های قابل اعتماد درجه یک سازمانی و زیرساخت های بهینه شده با هوش مصنوعی درخواست دهند. Microsoft Azure، برای ایجاد برنامه های کاربردی پیشرفته. مشتریان همچنین می‌توانند به زودی از طریق سرویس Azure OpenAI به ChatGPT دسترسی پیدا کنند - نسخه‌ای از GPT-3.5 که آموزش دیده و استنتاج‌هایی را در زیرساخت‌های هوش مصنوعی Azure اجرا می‌کند.

ممکن است در آن بیانیه متوجه شده باشید که سایر برنامه های هوش مصنوعی که توسط OpenAI ابداع شده اند نیز در دسترس خواهند بود. در واقع، برخی از این برنامه‌های هوش مصنوعی از قبل در دسترس بوده‌اند، همانطور که در بیانیه اخیر بالا ذکر شد: «ما سرویس Azure OpenAI را در نوامبر 2021 راه‌اندازی کردیم تا مشتریان بتوانند از قدرت مدل‌های هوش مصنوعی در مقیاس بزرگ بهره ببرند. این شرکت قول می‌دهد که مشتریان از زیرساخت‌های محاسباتی و ابری Azure ما انتظار داشته باشند - امنیت، قابلیت اطمینان، انطباق، حریم خصوصی داده‌ها و قابلیت‌های هوش مصنوعی مسئول داخلی.» (ibid).

قبلاً اشاره کردم که هم اخلاق هوش مصنوعی و هم قانون هوش مصنوعی سعی در ایجاد تعادل بین آن‌ها دارند هوش مصنوعی برای خوب آرزوهای با پتانسیل هوش مصنوعی برای بد که در مواقعی ممکن است بوجود بیاید در قلمرو هوش مصنوعی، حرکتی به سمت داشتن وجود دارد هوش مصنوعی مسئول یا گاهی اوقات به عنوان هوش مصنوعی قابل اعتماد یا هوش مصنوعی انسان محور ابداع می شود، پوشش من را در اینجا ببینید پیوند اینجا. از همه سازندگان هوش مصنوعی خواسته می‌شود تا هوش مصنوعی خود را برای آن طراحی کنند هوش مصنوعی برای خوب و آشکارا به دنبال محدود کردن یا کاهش هر یک باشند هوش مصنوعی برای بد که ممکن است پدیدار شود

این سفارش بلند بالاییست.

در هر صورت، بیانیه فوق به ملاحظات هوش مصنوعی مسئول پرداخته است:

  • "به عنوان یک رهبر صنعت، ما می دانیم که هر نوآوری در هوش مصنوعی باید مسئولانه انجام شود. این موضوع با فناوری‌های قدرتمند و جدید مانند مدل‌های مولد اهمیت بیشتری پیدا می‌کند. ما رویکردی تکراری را برای مدل‌های بزرگ اتخاذ کرده‌ایم و با شریک OpenAI و مشتریانمان همکاری نزدیک داریم تا موارد استفاده را به دقت ارزیابی کنیم، یاد بگیریم و خطرات بالقوه را بررسی کنیم. علاوه بر این، ما نرده‌های محافظ خود را برای سرویس Azure OpenAI پیاده‌سازی کرده‌ایم که با اصول هوش مصنوعی مسئول ما هماهنگ است. به عنوان بخشی از چارچوب دسترسی محدود ما، توسعه دهندگان موظفند برای دسترسی درخواست دهند و موارد استفاده یا برنامه مورد نظر خود را قبل از دسترسی به سرویس شرح دهند. فیلترهای محتوا به طور منحصربه‌فردی طراحی شده‌اند تا محتوای توهین‌آمیز، نفرت‌انگیز و توهین‌آمیز را به‌طور مداوم بر ورودی ارائه‌شده به سرویس و همچنین محتوای تولید شده نظارت کنند. در صورت تأیید نقض خط‌مشی، ممکن است از توسعه‌دهنده بخواهیم که برای جلوگیری از سوءاستفاده بیشتر اقدام فوری انجام دهد» (ibid).

نکته اصلی این دیدگاه هوش مصنوعی مسئول این است که با نیاز به درخواست رسمی برای دسترسی به ChatGPT بر اساس API برنامه، احتمال حذف موارد ارسالی نامطلوب وجود دارد. اگر در انتخاب اینکه کدام شرکت‌ها و برنامه‌هایشان می‌توانند به ChatGPT دسترسی داشته باشند، دقت کافی وجود داشته باشد، شاید شانس مبارزه برای جلوگیری از خشم کامل کراکن آزاد شده وجود داشته باشد.

شاید آره شاید نه.

برخی از صاحبنظران دست خود را به هم می‌زنند که امکان‌های پول‌سازی برای استفاده از ChatGPT API، مفهوم تعادلی را که می‌خواهیم جانور را به‌طور منطقی و ایمن مهار کنیم، تحت فشار قرار می‌دهد. آیا بررسی دقیق از قبل به اندازه کافی دقیق خواهد بود؟ آیا ممکن است در عوض ببینیم که با از دست رفتن حجم درخواست‌ها، یک فرآیند تأیید ضعیف رخ می‌دهد؟ برخی از این می ترسند که تنها زمانی که گربه از کیسه خارج می شود، ممکن است بررسی دقیق تری با تاخیر انجام شود، اگرچه تا آن زمان آسیب قبلاً وارد شده باشد.

خوب، شما حداقل می توانید اعتبار لازم را به این موضوع بدهید که یک فرآیند بررسی درگیر است. برخی از برنامه‌های هوش مصنوعی مولد وجود دارند که یا فاقد فرآیند بررسی منسجم هستند یا ماهیت مختصری دارند. علاوه بر این، نسخه‌های منبع باز هوش مصنوعی مولد وجود دارد که عموماً می‌تواند توسط تقریباً هر کسی که می‌خواهد این کار را انجام دهد، استفاده می‌کند، اگرچه برخی محدودیت‌های صدور مجوز قرار است رعایت شود (تلاش برای اجرای این امر سخت‌تر از آن چیزی است که به نظر می‌رسد).

بیایید نگاهی گذرا به قوانین موجود در مورد محدود کردن دسترسی به سرویس Azure OpenAI بیندازیم تا ببینیم سایر سازندگان نرم‌افزار برای اتصال احتمالی با ChatGPT چه کاری باید انجام دهند. طبق سیاست های پست آنلاین مایکروسافت (آخرین پست نشان داده شده به عنوان 14 دسامبر 2022):

  • به عنوان بخشی از تعهد مایکروسافت به هوش مصنوعی مسئول، ما در حال طراحی و انتشار سرویس OpenAI Azure با هدف حفاظت از حقوق افراد و جامعه و تقویت تعامل شفاف انسان و رایانه هستیم. به همین دلیل، ما در حال حاضر دسترسی و استفاده از Azure OpenAI را محدود می‌کنیم، از جمله محدودیت دسترسی به توانایی اصلاح فیلترهای محتوا و اصلاح نظارت بر سوء استفاده. Azure OpenAI نیاز به ثبت نام دارد و در حال حاضر فقط برای مشتریان مدیریت شده و شرکای کار با تیم های حساب مایکروسافت در دسترس است. مشتریانی که مایل به استفاده از Azure OpenAI هستند باید فرم ثبت نام را هم برای دسترسی اولیه برای آزمایش و هم برای تأیید حرکت از آزمایش به تولید ارائه کنند.
  • برای آزمایش، مشتریان تأیید می‌کنند که از این سرویس فقط برای استفاده‌های مورد نظر ارائه شده در زمان ثبت نام استفاده می‌کنند و متعهد می‌شوند که نظارت انسانی، محدودیت‌های فنی قوی در ورودی‌ها و خروجی‌ها، کانال‌های بازخورد و آزمایش کامل را در نظر بگیرند. برای تولید، مشتریان توضیح می دهند که چگونه این موارد برای کاهش ریسک اجرا شده است. مشتریانی که می‌خواهند فیلترهای محتوا را تغییر دهند و نظارت بر سوء استفاده را پس از ورود به سرویس تغییر دهند، مشمول محدودیت‌های سناریویی اضافی هستند و ملزم به ثبت‌نام در اینجا هستند.»
  • «دسترسی به سرویس Azure OpenAI منوط به صلاحدید مایکروسافت بر اساس معیارهای واجد شرایط بودن و فرآیند بررسی است و مشتریان باید بپذیرند که شرایط خدمات Azure را برای سرویس Azure OpenAI بررسی کرده و با آن موافقت کرده‌اند. مایکروسافت ممکن است از مشتریان بخواهد که این اطلاعات را دوباره تأیید کنند. سرویس Azure OpenAI تحت شرایط حاکم بر اشتراک آنها در خدمات Microsoft Azure، از جمله بخش Azure OpenAI در شرایط محصول مایکروسافت، در دسترس مشتریان قرار می گیرد. لطفاً این شرایط را به دقت بررسی کنید زیرا حاوی شرایط و تعهدات مهمی است که بر استفاده شما از سرویس Azure OpenAI وجود دارد.

این در طرف مایکروسافت است.

OpenAI همچنین سیاست های استفاده خود را در ارتباط با API خود دارد:

  • ما می‌خواهیم همه بتوانند با خیال راحت و مسئولانه از API ما استفاده کنند. برای این منظور، ما خط‌مشی‌های مورد استفاده و محتوا را ایجاد کرده‌ایم. با دنبال کردن آنها، به ما کمک می کنید مطمئن شویم که از فناوری ما به خوبی استفاده می شود. اگر متوجه شدیم محصول شما از این خط‌مشی‌ها پیروی نمی‌کند، از شما می‌خواهیم تغییرات لازم را اعمال کنید. اگر رعایت نکنید، ممکن است اقدامات بیشتری از جمله فسخ حساب شما انجام دهیم.»
  • ما ساخت محصولاتی را که موارد استفاده زیر را هدف قرار می دهند ممنوع می کنیم:
  • "- صنایع غیر قانونی یا مضر"
  • "- سوء استفاده از داده های شخصی"
  • "- ترویج عدم صداقت"
  • "- فریب دادن یا دستکاری کاربران"
  • "- تلاش برای نفوذ در سیاست"
  • «مجموعه موارد استفاده زیر خطر آسیب احتمالی بیشتری را به همراه دارد: عدالت کیفری، اجرای قانون، حقوقی، خدمات دولتی و مدنی، مراقبت های بهداشتی، درمانی، سلامتی، مربیگری، مالی، اخبار. برای این موارد استفاده، شما باید:
  • "1) مدل های ما را به طور کامل از نظر دقت در مورد استفاده خود آزمایش کنید و در مورد محدودیت ها با کاربران خود شفاف باشید.
  • "2) اطمینان حاصل کنید که تیم شما دارای تخصص در حوزه است و قوانین مربوطه را می‌داند/پیروی می‌کند.
  • ما همچنین به شما یا کاربران نهایی برنامه شما اجازه تولید انواع محتوای زیر را نمی دهیم:
  • "- نفرت"
  • "- آزار و اذیت"
  • "- خشونت"
  • "- خودآزاری"
  • "- جنسی"
  • "- سیاسی"
  • "- هرزنامه ها"
  • "- فریب"
  • "- بد افزار"

یک سوال بزرگ این خواهد بود که آیا در صورت هجوم شدید درخواست ها برای ارتباط با ChatGPT، می توان این ایده آل ها را مشاهده کرد. شاید سونامی عظیمی از درخواست ها وجود داشته باشد. کار انسانی برای بررسی و بررسی دقیق هر یک می تواند پرهزینه و مدیریت آن دشوار باشد. آیا میل به محدود کردن مناسب، در مواجهه با تقاضای بسیار زیاد برای دسترسی، ناخواسته کم خواهد شد؟

همانطور که شوخ طبعی معروف می گوید، بهترین نقشه ها گاهی اوقات می توانند در اولین تماس با نیروهای فراوان از بین بروند.

همچنین در نحوه تفسیر قوانین بیان شده، آزادی عمل زیادی وجود دارد. همانطور که به طور کلی در مورد افزایش اطلاعات نادرست و اطلاعات نادرست دیدیم، تلاش برای جدا کردن گندم از کاه می تواند بسیار چالش برانگیز باشد. چگونه می توان تشخیص داد که آیا محتوای تولید شده از مفاد عدم تنفر، سیاسی، فریبکارانه و مانند آن تبعیت می کند یا آن را نقض می کند؟

یک مشکل احتمالی می‌تواند این باشد که اگر ChatGPT API در دسترس نرم‌افزار سازنده‌ای قرار گیرد که برنامه خود را با ChatGPT جفت می‌کند و خروجی به‌طور واضح قوانین ذکر شده را نقض می‌کند، آیا اسب قبلاً از انبار خارج شده است؟ برخی معتقدند که احتمال آسیب جدی به شهرت وجود دارد که می تواند به همه طرف های درگیر وارد شود. مشخص نیست که آیا می توان با جدا کردن API به آن متخلف خاص بر این مشکل غلبه کرد یا خیر. آسیب، به یک معنا، ممکن است باقی بماند و تمام بشکه را خراب کند. سرزنش فراوان متوجه همه کسانی خواهد شد.

طبقه بندی جفت های API

قبلاً اشاره کردم که جفت‌سازی‌های ChatGPT را می‌توان به راحتی به دو هدف اصلی گروه‌بندی کرد:

  • جفت شدن واقعی با ChatGPT
  • جفت سازی جعلی با ChatGPT

بیایید ابتدا جفت های واقعی یا واقعی را بررسی کنیم.

به عنوان پس زمینه، روشی که این اتفاق می افتد تا حدودی ساده است. برنامه ChatGPT به برنامه های دیگر اجازه می دهد تا برنامه را فراخوانی کنند. به طور معمول، این شامل برنامه‌ای است که ما Widget می‌نامیم که به ChatGPT یک دستور در قالب متن ارسال می‌کند، و بعد از اینکه ChatGPT کار خود را انجام داد، یک مقاله یا متن به ویجت برنامه برگردانده می‌شود. این تقریباً شبیه این است که شخصی همان کار را انجام دهد، اگرچه ما برنامه‌ای خواهیم داشت که این اقدامات را به جای شخصی انجام دهد.

برای مثال، فرض کنید شخصی برنامه ای طراحی کرده است که در وب جستجو می کند. این برنامه از کاربر می پرسد که چه چیزی را می خواهد جستجو کند. سپس این برنامه فهرستی از موارد جستجو یا یافته های مختلف را در اختیار کاربر قرار می دهد که امیدواریم وب سایت های مرتبط را بر اساس درخواست کاربر به نمایش بگذارند.

تصور کنید که شرکتی که این برنامه جستجوی وب را می سازد می خواهد برنامه خود را تقویت کند.

آنها درخواست دسترسی به ChatGPT API را دارند. فرض کنید آنها تمام مدارک لازم را انجام می دهند و در نهایت تایید می شوند. برنامه آنها که جستجوهای وب را انجام می دهد باید اصلاح شود تا شامل فراخوانی به برنامه ChatGPT از طریق API باشد. فرض کنید آنها تصمیم می گیرند آن مدها را بسازند.

در اینجا این است که چگونه آن ممکن است به طور کلی کار کند. هنگامی که کاربر درخواستی را برای جستجوی وب در برنامه اصلی وارد می کند، این برنامه نه تنها یک جستجوی معمولی در وب انجام می دهد، بلکه پرس و جو را از طریق API به ChatGPT ارسال می کند. ChatGPT سپس متن را پردازش می کند و یک مقاله نتیجه را به برنامه اصلی برمی گرداند. برنامه هسته جستجوی وب اکنون دو جنبه را به کاربر ارائه می دهد، یعنی نتایج جستجوی وب و مقاله خروجی اضافی از ChatGPT.

شخصی که از این برنامه اصلی استفاده می کند لزوماً نمی داند که ChatGPT در باطن استفاده شده است. این می تواند در محدوده برنامه اصلی اتفاق بیفتد و کاربر به طور خوشبختی از اینکه ChatGPT دخیل بوده است بی اطلاع است. از سوی دیگر، برنامه اصلی می تواند برای اطلاع کاربر از استفاده از ChatGPT طراحی شود. این معمولاً به این بستگی دارد که آیا سازندگان برنامه اصلی می‌خواهند نشان دهند که برنامه دیگر، در این مورد ChatGPT، در حال استفاده بوده است. در برخی ترتیبات، سازنده برنامه فراخوانی شده اصرار دارد که برنامه فراخوانی API باید به کاربران اطلاع دهد که برنامه دیگر در حال استفاده است. همه چیز به ترجیحات و جزئیات مجوز بستگی دارد.

برای جفت‌های واقعی، روش‌های مرسوم در اینجا آمده است:

  • 1) عبور مستقیم به ChatGPT
  • 2) افزودنی برای تقویت ChatGPT
  • 3) برنامه متحد که همزمان با ChatGPT است
  • 4) غوطه وری کاملا یکپارچه با ChatGPT

به طور خلاصه، در اولین رویکرد فهرست شده، ایده این است که من ممکن است برنامه‌ای طراحی کنم که صرفاً یک پیش‌نمایش برای ChatGPT باشد، و به این ترتیب، تمام کاری که برنامه من انجام می‌دهد این است که متن را به ChatGPT می‌فرستد و متن را از ChatGPT برمی‌گرداند. من برنامه خود را برای هر کسی که می خواهد از ChatGPT استفاده کند و در غیر این صورت برای استفاده از آن ثبت نام نکرده است، در دسترس قرار می دهم. این یک رویکرد است.

دوم، من ممکن است برنامه ای طراحی کنم که به عنوان یک افزودنی برای ChatGPT عمل کند. به عنوان مثال، زمانی که ChatGPT یک مقاله تولید می کند، ممکن است حاوی دروغ باشد. فرض کنید من برنامه‌ای می‌سازم که خروجی ChatGPT را بررسی می‌کند و سعی می‌کند نادرست‌ها را غربال کند. من برنامه‌ام را طوری در دسترس قرار می‌دهم که مردم یک اعلان متنی را در برنامه من وارد می‌کنند، که سپس درخواست را به ChatGPT ارسال می‌کند. ChatGPT مقاله ای تولید می کند که به برنامه من بازمی گردد. قبل از اینکه برنامه من مقاله را به شما نشان دهد، مقاله را از قبل نمایش می دهد و سعی می کند موارد نادرست را پرچم گذاری یا حذف کند. بعد از اینکه برنامه من غربالگری را انجام داد، مقاله حاصل را می بینید.

رویکرد سوم شامل داشتن یک برنامه متحد است که از نظر منطبق بر ChatGPT است. فرض کنید من برنامه ای را توسعه می دهم که به افراد در نوشتن خلاقانه کمک می کند. برنامه من نکات و پیشنهاداتی را در مورد نحوه نوشتن خلاقانه ارائه می دهد. این برنامه صرفاً کاربر را به انجام این کار تشویق یا ترغیب می کند. در همین حال، کاری که من دوست دارم بتوانم انجام دهم این است که به کاربر نشان دهم نوشتن خلاقانه از چه چیزی تشکیل شده است. به این ترتیب، من یک API با ChatGPT ایجاد می کنم. سپس برنامه من از کاربر درخواست می‌کند و ChatGPT را فراخوانی می‌کند تا یک مقاله را ارائه دهد که ممکن است نوشتن خلاقانه را نشان دهد. این را می توان به صورت تکراری انجام داد و ChatGPT را چندین بار در فرآیند فراخوانی کرد.

در مورد چهارمین رویکرد فهرست شده، ChatGPT به طور کامل در برخی برنامه ها یا مجموعه ای از برنامه های دیگر ادغام شده است. به عنوان مثال، اگر من یک برنامه پردازش کلمه و یک برنامه صفحه گسترده داشتم، ممکن است بخواهم ChatGPT را در آن برنامه ها ادغام کنم. آنها به نحوی که صحبت می کنند دست در دست یکدیگر عمل می کنند. من در ستونی که در آینده منتشر خواهد شد، این احتمال را که مایکروسافت می تواند ChatGPT را در مجموعه بهره وری اداری خود القا کند، پوشش خواهم داد، بنابراین به دنبال تجزیه و تحلیل آینده باشید.

اینها راههای کلیدی هستند که ممکن است یک جفت واقعی انجام شود.

اجازه دهید در ادامه برخی از جفت‌های جعلی را در نظر بگیریم.

در اینجا چند جفت جعلی کلی وجود دارد که باید مراقب آنها باشید:

  • جفت کردن حیله با ChatGPT - به طور جزئی از ChatGPT استفاده می کند که عمدتاً برای نمایش و به دست آوردن تبلیغات بدون ارزش افزوده انجام می شود
  • وعده های جذاب درباره جفت شدن ChatGPT – فروشنده نرم افزار ادعا می کند که در میانه جفت شدن با ChatGPT هستند و به دنبال این هستند که در کانون توجه درخشان قرار گیرند، در حالی که واقعیت این است که آنها این کار را انجام نمی دهند و در حال جعل کردن سر کلاسیک و ارائه یک تعهد نادرست هستند.
  • Knockoffs اعلام می کند که مانند ChatGPT است - به جای جفت شدن با ChatGPT، برخی از فروشندگان نرم افزار از چیز دیگری استفاده می کنند، که خوب است، اما آنها سعی می کنند به این معنا باشند که ChatGPT است، در حالی که اینطور نیست، به امید اینکه برخی از پسروهای ChatGPT را دریافت کنند.
  • دیگر - بسیاری از طرح های گسترده و فریبنده اضافی قابل تصور است

بدون شک در مورد همه اینها جنجال های زیادی در جریان است. این بخشی از انتشار Kraken خواهد بود.

نتیجه

اجازه دهید چند آچار و موانع دیگر را در این موضوع پرتاب کنم.

هزینه چطور؟

در حال حاضر، کسانی که برای استفاده از ChatGPT ثبت نام کرده اند، این کار را به صورت رایگان انجام می دهند. من قبلاً اشاره کرده ام که در برخی مواقع نیاز به کسب درآمد مستقیم وجود دارد. این ممکن است مستلزم دریافت هزینه ای برای هر تراکنش یا شاید پرداخت هزینه اشتراک باشد. احتمال دیگر این است که ممکن است از تبلیغات برای وارد کردن خمیر استفاده شود، به موجب آن هر بار که از ChatGPT استفاده می کنید یک تبلیغ ظاهر می شود. و غیره.

کسانی که تصمیم می گیرند از طریق API با ChatGPT جفت شوند، باید به طور جدی در مورد هزینه های بالقوه موجود فکر کنند. احتمالاً هزینه ای در رابطه با استفاده از Microsoft Azure برای اجرای برنامه ChatGPT وجود دارد. برای استفاده از ChatGPT API و فراخوانی برنامه هوش مصنوعی، قطعاً OpenAI هزینه‌ای خواهد داشت. یک فروشنده نرم‌افزار هزینه‌های داخلی خود را نیز متحمل می‌شود، مانند تغییر برنامه‌های موجود خود برای استفاده از API یا توسعه مجدد برنامه‌ها در اطراف جفت شدن با ChatGPT. هم هزینه شروع و هم مجموعه هزینه های نگهداری مداوم را متصور شوید.

ماهیت این است که این لایه بندی هزینه ها تا حدودی هجوم طلا به سمت استفاده از ChatGPT API را تعدیل می کند. فروشندگان نرم افزار احتمالاً باید یک محاسبه محتاطانه ROI (بازده سرمایه) انجام دهند. آیا هر آنچه که آنها می توانند از طریق افزایش برنامه خود با استفاده از ChatGPT ایجاد کنند، پول اضافی کافی برای جبران هزینه ها به همراه خواهد داشت؟

لزوماً قرار نیست همه افراد کاملاً از نظر هزینه آگاه باشند. اگر جیب های عمیقی دارید و معتقدید که استفاده از ChatGPT برنامه شما را به شناخته شده ترین یا شناخته شده ترین حوزه برنامه ها سوق می دهد، ممکن است تصمیم بگیرید که هزینه در حال حاضر ارزش آن را دارد. با استفاده از کت‌های ChatGPT، نامی برای برنامه خود بسازید. در ادامه، زمانی که برنامه‌تان محبوب شد یا به‌طور دیگری درآمد کسب کردید، یا کمبود سود قبلی را جبران می‌کنید یا آن را به‌عنوان هزینه‌ای که برای ورود به زمان بزرگ لازم است، یادداشت می‌کنید.

یک استارت‌آپ کوچک که توسط یک شرکت سرمایه‌گذاری خطرپذیر (VC) پشتیبانی می‌شود، ممکن است مایل باشد بخشی از سرمایه‌گذاری اولیه خود را برای جفت شدن با ChatGPT API صرف کند. شهرت ممکن است فورا به وجود بیاید. شانس ممکن است راه درازی باشد، اما این چیزی است که بعدا باید با آن برخورد کرد. همانطور که می گویند، زمانی که به دست آوردن خوب است، در کانون توجه قرار بگیرید.

یکی فرض می‌کند که ممکن است مؤسسات غیرانتفاعی و اجتماعی وجود داشته باشند که تصمیم بگیرند تایرها را نیز در این مورد رد کنند. فرض کنید یک شرکت غیرانتفاعی استفاده مفیدی از فراخوانی ChatGPT API را شناسایی می کند که ظاهراً از اهداف نوع دوستانه یا اجتماعی سودمند آنها پشتیبانی می کند. شاید آنها برای این کار از طریق یک کمپین تامین مالی آنلاین بودجه جمع آوری کنند. شاید آنها سعی می کنند با فروشندگان معامله کنند تا مبلغ اسمی بپردازند یا استفاده رایگان را دریافت کنند.

زمان خواهد شد بگویید.

آخرین نکته ای که شما را با آن کنار می گذارم عامل خطر است.

نمی‌خواهم بی‌رویه ضعیف به نظر برسم، اما قبلاً اشاره کردم که خروجی‌های ChatGPT می‌توانند حاوی موارد نادرست باشند و جنبه‌های منفی بالقوه دیگری داشته باشند. مسئله این است که اگر یک فروشنده نرم‌افزاری که یک برنامه را می‌سازد با استفاده از ChatGPT API مخلوط شود، خطر خروجی‌های ترش و کدر را دارد که باید پیش‌بینی کند. سر خود را در ماسه قرار ندهید.

مشکلات این است که این خروجی ها می توانند برنامه ای را که استفاده از آنها را انتخاب می کند، لکه دار کنند. از این نظر، برنامه شما که در ابتدا از شکوه ChatGPT استفاده می‌کند، در صورتی که به خروجی‌های ارائه شده از طریق ChatGPT اعتماد شود، می‌تواند در نهایت به دیوار آجری تبدیل شود. شاید خروجی ها به کاربران ارائه می شود و این باعث یک غوغای وحشتناک می شود. آنها عصبانیت خود را از شما و برنامه شما بیرون می آورند.

به نوبه خود، شما سعی می کنید با انگشت به ChatGPT اشاره کنید. آیا این شما را از معما خارج می کند؟ هنگامی که بوی بدی وجود دارد، به طور گسترده ای نفوذ می کند و تعداد کمی از آنها در امان می مانند. در طول این خطوط، ممکن است از طریق استفاده گسترده از ChatGPT، آگاهی از خروجی های ناخوشایند بیشتر شناخته شود. بنابراین، به اندازه کافی عجیب، یا از قضا، استفاده گسترده از ChatGPT به دلیل API می تواند به پای خود شلیک کند.

نمی‌خواهم سخنانم را با چهره‌ای غمگین به پایان برسانم، پس بیایید سعی کنیم به چهره‌ای شاد تبدیل شویم.

اگر تمام محدودیت‌ها و محدودیت‌های آرزویی به‌طور آگاهانه و عاقلانه دنبال شوند و به دقت رعایت شوند، استفاده از ChatGPT از طریق API می‌تواند چیز خوبی باشد. این احتمال نیز وجود دارد که این امر باعث ترغیب سایر برنامه های مولد هوش مصنوعی به عمل شود. افزایش جزر و مد می تواند همه قایق ها را بالا ببرد.

به نظر می رسد خوش بینانه است.

شاید بدانید که گفته می‌شود زئوس کنترل کراکن را در دست دارد. سوفوکل، نمایشنامه‌نویس یونان باستان، در مورد زئوس چنین می‌گوید: «تاس‌های زئوس همیشه با خوش شانسی می‌افتند».

شاید همین موضوع در مورد چگونگی فرود آمدن هوش مصنوعی مولد ناگزیر گفته شود، بیایید حداقل امیدوار باشیم.

منبع: https://www.forbes.com/sites/lanceeliot/2023/01/22/generative-ai-chatgpt-is-going-to-be-everywhere-once-the-api-portal-gets-soon- اخلاق-و-قانون-آی-هیجان-انگیز-گشوده/