AI Generative ChatGPT می تواند به طور آزاردهنده ای داده های خصوصی و محرمانه شما را از بین ببرد، اخلاق هوش مصنوعی و قانون هوش مصنوعی را از قبل هشدار می دهد

اکنون داده های خود را می بینید، اکنون نمی بینید.

در همین حال، داده های گرانبهای شما به عنوان بخشی از مجموعه تبدیل شده است.

من به جنبه ای اشاره می کنم که ممکن است برای کسانی از شما که مشتاقانه و با جدیت از جدیدترین هوش مصنوعی (AI) استفاده می کنند، شگفت آور باشد. داده‌هایی که در یک برنامه هوش مصنوعی وارد می‌کنید به طور بالقوه برای شما و تنها شما کاملاً خصوصی نیستند. ممکن است داده های شما توسط سازنده هوش مصنوعی استفاده شود تا احتمالاً به دنبال بهبود خدمات هوش مصنوعی خود باشد یا ممکن است توسط آنها و/یا حتی شرکای متحد آنها برای اهداف مختلف استفاده شود.

اکنون به شما هشدار داده شده است.

این تحویل داده های شما به بی ضررترین راه ها و به طور بالقوه هزاران نفر یا به ترتیب میلیون ها نفر انجام می شود. چطور؟ نوعی از هوش مصنوعی وجود دارد که به عنوان هوش مصنوعی مولد شناخته می شود که اخیراً سرفصل های بزرگی را به خود جلب کرده و توجه عموم را به خود جلب کرده است. قابل توجه ترین برنامه های هوش مصنوعی مولد موجود، برنامه ای به نام ChatGPT است که توسط شرکت OpenAI ابداع شده است.

ظاهراً حدود یک میلیون کاربر ثبت نام شده برای ChatGPT وجود دارد. به نظر می رسد بسیاری از این کاربران از امتحان این داغ ترین و جدیدترین برنامه هوش مصنوعی مولد لذت می برند. فرآیند فوق العاده ساده است. مقداری متن را به‌عنوان یک درخواست وارد می‌کنید و برنامه ChatGPT یک خروجی متنی تولید می‌کند که معمولاً به شکل مقاله است. برخی از آن به عنوان متن به متن یاد می‌کنند، اگرچه من ترجیح می‌دهم آن را متن به مقاله نشان دهم، زیرا این حرف معنایی روزمره دارد.

در ابتدا، یک کاربر تازه کار احتمالاً چیزی سرگرم کننده و بی دغدغه وارد می کند. در مورد زندگی و زمان جورج واشنگتن به من بگویید، ممکن است کسی به عنوان یک درخواست وارد شود. سپس ChatGPT مقاله ای درباره اولین رئیس جمهور افسانه ای ما تولید می کند. این مقاله کاملاً روان خواهد بود و شما به سختی متوجه خواهید شد که توسط یک برنامه هوش مصنوعی تولید شده است. یک اتفاق هیجان انگیز برای دیدن رخ می دهد.

احتمال این وجود دارد که پس از مدتی بازی کردن، بخشی از کاربران تازه کار پر شده باشند و به طور بالقوه تصمیم بگیرند که با ChatGPT بازی نکنند. آنها اکنون بر FOMO خود (ترس از دست دادن) غلبه کرده اند و این کار را پس از آزمایش با برنامه هوش مصنوعی انجام دادند که به نظر می رسد تقریباً همه درباره آن صحبت می کنند. عمل انجام شده

اگرچه برخی شروع به فکر کردن در مورد راه های دیگر و جدی تر برای استفاده از هوش مصنوعی مولد خواهند کرد.

شاید از ChatGPT برای نوشتن آن یادداشتی استفاده کنید که رئیستان شما را برای نوشتن آن اذیت کرده است. تنها کاری که باید انجام دهید این است که نکات مهمی را که در ذهن دارید ارائه دهید، و نکته بعدی که می دانید یک یادداشت کامل توسط ChatGPT ایجاد شده است که باعث می شود رئیس شما به شما افتخار کند. شما مقاله خروجی را از ChatGPT کپی می کنید، آن را در قالب رسمی شرکت در بسته پردازش کلمه خود جایگذاری می کنید و یادداشت درجه یک را برای مدیر خود ایمیل می کنید. شما یک میلیون دلار ارزش دارید. و شما از مغز خود برای یافتن ابزاری مفید برای انجام کارهای سخت برای شما استفاده کردید. آهسته به پشتتون دست بزنید.

این همش نیست.

بله، بیشتر وجود دارد.

به خاطر داشته باشید که هوش مصنوعی مولد می تواند تعداد زیادی از کارهای مرتبط با نوشتن را انجام دهد.

به عنوان مثال، فرض کنید یک نوع روایت برای یک مشتری ارزشمند نوشته‌اید و می‌خواهید قبل از بیرون آمدن مطالب، مروری بر آن داشته باشید.

آسان هلال

شما متن روایت خود را در یک اعلان ChatGPT می‌چسبانید و سپس به ChatGPT دستور می‌دهید تا متنی را که نوشته‌اید تجزیه و تحلیل کند. مقاله خروجی حاصل ممکن است عمیقاً در جمله بندی شما نفوذ کند، و در کمال تعجب شما تلاش خواهد کرد تا به ظاهر معنای آنچه شما گفته اید را بررسی کند (به مراتب فراتر از عمل به عنوان یک غلط یاب یا یک تحلیل گر دستور زبان). برنامه هوش مصنوعی ممکن است ایراداتی را در منطق روایت شما تشخیص دهد یا ممکن است تناقضاتی را که شما نمی‌دانستید در نوشته خودتان وجود دارد را کشف کند. تقریباً به نظر می رسد که شما یک ویرایشگر انسانی حیله گر استخدام کرده اید تا پیش نویس خود را به چشم بیاورد و مجموعه ای از پیشنهادات مفید و نگرانی های ذکر شده را ارائه دهد (خب، من می خواهم به طور قاطع بگویم که من سعی نمی کنم برنامه هوش مصنوعی را انسان سازی کنم، به ویژه اینکه یک ویرایشگر انسانی یک انسان در حالی که برنامه هوش مصنوعی صرفا یک برنامه کامپیوتری است).

خدا را شکر که از برنامه هوش مصنوعی مولد برای بررسی دقیق روایت نوشتاری ارزشمند خود استفاده کردید. شما بدون شک ترجیح می دهید که هوش مصنوعی به جای ارسال سند به مشتری ارزشمند شما، آن مسائل نوشتاری نگران کننده را پیدا کند. تصور کنید که شما روایت را برای کسی نوشته اید که شما را استخدام کرده است تا تصویری کاملاً حیاتی طراحی کنید. اگر نسخه اصلی را به مشتری داده بودید، قبل از انجام بررسی برنامه هوش مصنوعی، ممکن است از شرمندگی بزرگ رنج ببرید. مشتری تقریباً مطمئناً در مورد مهارت های شما برای انجام کاری که درخواست شده است شک و تردید جدی دارد.

بیایید بالا برویم.

ایجاد اسناد قانونی را در نظر بگیرید. این بدیهی است که یک موضوع بسیار جدی است. کلمات و نحوه تشکیل آنها می تواند یک دفاع حقوقی روحیه یا یک فاجعه حقوقی ناگوار باشد.

در تحقیقات و مشاوره مداوم خود، من به طور منظم با بسیاری از وکلای دادگستری که علاقه زیادی به استفاده از هوش مصنوعی در زمینه حقوق دارند، تعامل دارم. برنامه های مختلف LegalTech به قابلیت های هوش مصنوعی متصل می شوند. یک وکیل می تواند از هوش مصنوعی برای تنظیم پیش نویس یک قرارداد یا تنظیم سایر اسناد قانونی استفاده کند. علاوه بر این، اگر وکیل پیش‌نویس اولیه را خودش تهیه کند، می‌تواند متن را به یک برنامه هوش مصنوعی تولیدی مانند ChatGPT بدهد تا نگاهی بیندازد و ببیند چه حفره‌ها یا شکاف‌هایی ممکن است شناسایی شوند. برای اطلاعات بیشتر در مورد نحوه انتخاب وکلا و حوزه حقوقی برای استفاده از هوش مصنوعی، به بحث من در اینجا مراجعه کنید پیوند اینجا.

هر چند ما برای این کار آماده هستیم.

یک وکیل پیش نویس قرارداد را می گیرد و متن را در یک درخواست برای ChatGPT کپی می کند. برنامه هوش مصنوعی یک بررسی برای وکیل ایجاد می کند. معلوم شد که چندین گوچا توسط ChatGPT پیدا شده است. وکیل قرارداد را اصلاح می کند. آنها همچنین ممکن است از ChatGPT بخواهند که یک بازنویسی یا تکرار متن ساخته شده را برای آنها پیشنهاد کند. سپس یک نسخه جدید و بهتر از قرارداد توسط برنامه هوش مصنوعی مولد تولید می شود. وکیل متن خروجی را برداشته و آن را در یک فایل پردازش کلمه قرار می دهد. پیام به مشتری آنها می رود. ماموریت انجام شد.

آیا می توانید حدس بزنید که چه اتفاقی افتاده است؟

در پشت صحنه و زیر کاپوت، قرارداد ممکن است مانند ماهی در دهان نهنگ فرو رود. اگرچه این وکیل استفاده کننده از هوش مصنوعی ممکن است متوجه این موضوع نشود، متن قرارداد، همانطور که به عنوان یک درخواست در ChatGPT قرار داده شده است، ممکن است به طور بالقوه توسط برنامه هوش مصنوعی بلعیده شود. اکنون خوراکی برای تطبیق الگو و سایر پیچیدگی های محاسباتی برنامه هوش مصنوعی است. این به نوبه خود می تواند به طرق مختلف مورد استفاده قرار گیرد. اگر داده‌های محرمانه در پیش‌نویس وجود داشته باشد، آن هم اکنون به طور بالقوه در محدوده ChatGPT است. درخواست شما همانطور که در برنامه هوش مصنوعی ارائه شده است، اکنون ظاهراً بخشی از مجموعه است.

علاوه بر این، مقاله خروجی نیز بخشی از مجموعه در نظر گرفته می شود. اگر از ChatGPT خواسته بودید که پیش نویس را برای شما اصلاح کند و نسخه جدید قرارداد را ارائه کند، این به عنوان یک مقاله خروجی تعبیر می شود. خروجی‌های ChatGPT نیز نوعی محتوا هستند که می‌توانند توسط برنامه هوش مصنوعی حفظ یا تغییر داده شوند.

بله، شما ممکن است بی گناه اطلاعات خصوصی یا محرمانه را در اختیار شما قرار داده باشید. خوب نیست. به علاوه، شما حتی نمی‌دانستید که این کار را کرده‌اید. هیچ پرچمی برافراشته نشد. بوق نمی زد هیچ چراغ چشمک زن خاموش نشد تا شما را در واقعیت شوکه کند.

ما ممکن است پیش بینی کنیم که غیر وکلا به راحتی چنین اشتباهی را مرتکب شوند، اما برای یک وکیل خبره انجام همان اشتباه تازه کار تقریبا غیرقابل تصور است. با این وجود، احتمالاً متخصصان حقوقی در حال حاضر همین اشتباه احتمالی را انجام می دهند. آنها خطر نقض یک عنصر قابل توجه از امتیاز وکیل-موکل و احتمالاً نقض الگوی قوانین رفتار حرفه ای انجمن وکلای آمریکا (ABA) را دارند. به ویژه: «وکیل نباید اطلاعات مربوط به وکالت موکل را فاش کند، مگر اینکه موکل رضایت آگاهانه بدهد، افشا به طور ضمنی به منظور انجام وکالت مجاز باشد یا افشای آن توسط بند (ب) مجاز باشد» (نقل از MRPC، و به نظر نمی رسد که استثنائات مربوط به بخش b شامل استفاده از یک برنامه هوش مصنوعی مولد به روشی غیر ایمن باشد).

برخی از وکلای دادگستری ممکن است به دنبال توجیه تخلف خود با این ادعا باشند که آنها جادوگر فناوری نیستند و هیچ وسیله آماده ای برای دانستن اینکه وارد کردن اطلاعات محرمانه آنها به یک برنامه هوش مصنوعی مولد ممکن است نوعی نقض باشد، نداشته اند. ABA تصریح کرده است که وظیفه وکلا شامل به روز بودن هوش مصنوعی و فناوری از منظر حقوقی است: «برای حفظ دانش و مهارت لازم، یک وکیل باید از تغییرات در قانون و عملکرد آن، از جمله، مطلع باشد. مزایا و خطرات مرتبط با فناوری مربوطه، درگیر ادامه تحصیل و آموزش باشید و با تمام الزامات آموزش حقوقی مستمری که وکیل مشمول آن است مطابقت داشته باشد.» (بر اساس MRPC).

مقررات متعددی در این ظاهر وظیفه قانونی آمده است، از جمله حفظ اطلاعات محرمانه مشتری (قانون 1.6)، حفاظت از دارایی مشتری مانند داده ها (قانون 1.15)، برقراری ارتباط صحیح با مشتری (قانون 1.4)، کسب رضایت آگاهانه مشتری (قانون 1.6). و اطمینان از نمایندگی شایسته از طرف مشتری (قانون 1.1). و همچنین قطعنامه کمتر شناخته شده اما بسیار قابل توجه متمرکز بر هوش مصنوعی توسط ABA وجود دارد: "اینکه انجمن وکلای آمریکا از دادگاه ها و وکلا می خواهد به مسائل اخلاقی و حقوقی نوظهور مربوط به استفاده از هوش مصنوعی ("AI") رسیدگی کنند. در اجرای قانون شامل: (1) تعصب، توضیح پذیری و شفافیت تصمیمات خودکار اتخاذ شده توسط هوش مصنوعی. (2) استفاده اخلاقی و سودمند از هوش مصنوعی؛ و (3) کنترل و نظارت بر هوش مصنوعی و فروشندگانی که هوش مصنوعی را ارائه می کنند.

سخنانی به خردمندان برای دوستان و همکاران حقوقی ام.

نکته اصلی این است که تقریباً هر کسی می تواند هنگام استفاده از هوش مصنوعی مولد خود را درگیر کند. غیر وکلا می توانند این کار را با عدم تدبیر قانونی خود انجام دهند. وکلا نیز می توانند این کار را انجام دهند، شاید شیفته هوش مصنوعی باشند یا نفس عمیقی نکشند و در مورد عواقب قانونی استفاده از هوش مصنوعی مولد فکر کنند.

همه ما به طور بالقوه در یک قایق هستیم.

همچنین باید بدانید که ChatGPT تنها برنامه هوش مصنوعی مولد در بلوک نیست. برنامه های مولد دیگری برای هوش مصنوعی وجود دارد که می توانید از آنها استفاده کنید. آنها نیز احتمالاً از همان پارچه بریده شده اند، یعنی ورودی هایی که به عنوان درخواست وارد می کنید و خروجی هایی که به عنوان مقالات خروجی تولید شده دریافت می کنید، بخشی از مجموعه در نظر گرفته می شوند و می توانند توسط سازنده هوش مصنوعی استفاده شوند.

در ستون امروز، من می‌خواهم ماهیت اینکه چگونه داده‌هایی که وارد می‌کنید و داده‌هایی که از هوش مصنوعی مولد دریافت می‌کنید می‌توانند به طور بالقوه با توجه به حریم خصوصی و محرمانگی به خطر بیفتند را باز کنم. سازندگان هوش مصنوعی الزامات مجوز خود را در دسترس قرار می دهند و عاقلانه است که قبل از شروع به استفاده فعال از یک برنامه هوش مصنوعی با هر شباهتی از داده های واقعی، این شرایط حیاتی را مطالعه کنید. من شما را با نمونه ای از چنین مجوزهایی آشنا می کنم، این کار را برای برنامه ChatGPT AI انجام می دهم.

در همه این موارد، ملاحظات اخلاق هوش مصنوعی و قانون هوش مصنوعی وجود دارد.

لطفاً توجه داشته باشید که تلاش‌های مداومی برای تطبیق اصول هوش مصنوعی اخلاقی در توسعه و پیاده‌سازی برنامه‌های هوش مصنوعی وجود دارد. گروه رو به رشدی از متخصصان اخلاق هوش مصنوعی نگران و قدیمی در تلاش هستند تا اطمینان حاصل کنند که تلاش‌ها برای ابداع و پذیرش هوش مصنوعی، دیدگاهی از انجام دادن را در نظر می‌گیرد. هوش مصنوعی برای خوب و جلوگیری می کند هوش مصنوعی برای بد. به همین ترتیب، قوانین جدید هوش مصنوعی پیشنهاد شده است که به عنوان راه حل‌های بالقوه برای جلوگیری از ابهام کردن تلاش‌های هوش مصنوعی در مورد حقوق بشر و مواردی از این دست، مورد استفاده قرار می‌گیرند. برای پوشش مداوم و گسترده من از اخلاق هوش مصنوعی و قانون هوش مصنوعی، نگاه کنید به پیوند اینجا و پیوند اینجا، فقط به نام چند.

نکات ظریف اخلاقی و مقررات مهمی در ارتباط با نحوه برخورد سازندگان هوش مصنوعی با داده ها یا اطلاعاتی که برای کاربرانشان خصوصی یا محرمانه به نظر می رسد، وجود دارد. احتمالاً شما هم می‌دانید که مجموعه‌ای از قوانین موجود به هسته اصلی نحوه مدیریت داده‌ها توسط نهادهای فناوری ضربه می‌زند. این احتمال نیز وجود دارد که قوانین جدید پیشنهادی هوش مصنوعی نیز در همان قلمرو متقاطع شوند. به عنوان مثال پوشش من در مورد را ببینید منشور حقوق هوش مصنوعی و سایر دعواهای حقوقی که در مورد هوش مصنوعی در جریان است، در پیوند اینجا.

نکته کلیدی این بحث در اینجا آمده است:

  • هنگام استفاده از هوش مصنوعی مولد، در مورد اینکه چه داده‌ها یا اطلاعاتی را در دستورات خود قرار می‌دهید بسیار، بسیار، بسیار مراقب باشید، و به طور مشابه بسیار مراقب باشید و پیش‌بینی کنید که چه نوع مقاله‌های خروجی ممکن است دریافت کنید، زیرا خروجی‌ها نیز می‌توانند جذب شوند.

آیا این به این معنی است که شما نباید از هوش مصنوعی مولد استفاده کنید؟

نه، اصلاً این چیزی نیست که من می گویم.

از هوش مصنوعی مولد برای دلخواه خود استفاده کنید. نکته اصلی این است که شما باید مراقب نحوه استفاده از آن باشید. دریابید که چه نوع شرایط صدور مجوز با استفاده مرتبط است. تصمیم بگیرید که آیا می توانید با آن شرایط زندگی کنید یا خیر. اگر راه‌هایی برای اطلاع دادن به سازنده هوش مصنوعی وجود دارد که می‌خواهید از انواع خاصی از محافظت‌ها یا کمک‌های اضافی استفاده کنید، مطمئن شوید که این کار را انجام می‌دهید.

من همچنین به یک جنبه دیگر اشاره خواهم کرد که متوجه شدم برخی افراد را دیوانه خواهد کرد. اینجا می رود. علیرغم هر شرایطی که برای صدور مجوز وجود دارد، باید فرض کنید که این شرایط ممکن است به طور کامل رعایت نشود. همه چیز ممکن است خراب شود. مواد ممکن است بین ترک ها بلغزند. در پایان، مطمئناً، ممکن است علیه یک سازنده هوش مصنوعی به دلیل عدم انطباق با شرایط آنها یک پرونده قانونی داشته باشید، اما این تا حدودی پس از خروج اسب از انبار است.

یک راه بالقوه بسیار ایمن برای ادامه، راه‌اندازی نمونه خود در سیستم‌های خود، چه در فضای ابری یا داخلی (و با فرض اینکه به اقدامات احتیاطی مناسب امنیت سایبری پایبند هستید، که مسلماً برخی از آنها پیروی نمی‌کنند و بدتر هستند، خواهد بود. در ابر خودشان نسبت به استفاده از ابر فروشنده نرم افزار). البته کمی مشکل آزاردهنده این است که تعداد کمی از برنامه های مولد هوش مصنوعی در مقیاس بزرگ در حال حاضر این اجازه را می دهند. همه آنها تقریباً بر اساس ما فقط ابری کار می کنند. تعداد کمی این گزینه را در دسترس قرار داده اند که یک نمونه کامل را فقط برای شما حک شده است. من پیش‌بینی کرده‌ام که به تدریج شاهد ظهور این گزینه خواهیم بود، اگرچه در ابتدا بسیار پرهزینه و تا حدودی پیچیده خواهد بود، پیش‌بینی‌های من را در اینجا ببینید پیوند اینجا.

در غیر این صورت، افراد به ویژه باهوش و به ویژه زیرک چگونه خود را در باتلاق فرسایش محرمانه بودن داده ها یا اطلاعات قرار می دهند؟

جذابیت این برنامه های هوش مصنوعی مولد هنگامی که شروع به استفاده از یکی می کنید کاملاً مغناطیسی است. گام به گام، خود را مسحور می‌کنید و تصمیم می‌گیرید انگشتان پای خود را بیشتر و بیشتر در آب‌های مولد هوش مصنوعی قرار دهید. نکته بعدی که می دانید این است که به راحتی محتوای اختصاصی را که قرار است خصوصی و محرمانه نگه داشته شود را به یک برنامه هوش مصنوعی مولد تحویل می دهید.

در برابر هوس مقاومت کنید و لطفاً از افتادن مرحله‌به‌گام در دام ناخوشایند خودداری کنید.

برای رهبران کسب و کار و مدیران سطح بالا، همان هشدار به شما و همه افراد در سراسر شرکت شما می رسد. مدیران ارشد نیز گرفتار اشتیاق و شگفتی استفاده از هوش مصنوعی مولد می شوند. آنها واقعاً می توانند به هم ریخته و به طور بالقوه اطلاعات مخفی سطح بالایی را در یک برنامه هوش مصنوعی وارد کنند.

علاوه بر این، آنها ممکن است لیگ های گسترده ای از کارمندان خود داشته باشند که با هوش مصنوعی مولد بازی می کنند. بسیاری از کارکنانی که در غیر این صورت آگاه هستند، بدون فکر و با خوشحالی اطلاعات خصوصی و محرمانه شرکت را در این برنامه های هوش مصنوعی وارد می کنند. طبق گزارش‌های اخیر، آمازون ظاهراً کشف کرده است که برخی از کارمندان اطلاعات اختصاصی مختلفی را به ChatGPT وارد می‌کنند. گفته شده است که یک هشدار قانونی در داخل ارسال شده است تا در استفاده از برنامه غیرقابل مقاومت هوش مصنوعی احتیاط کنید.

به طور کلی، کمی طعنه آمیز به پدیده رو به افزایش کارمندانی که خواسته یا ناخواسته داده های محرمانه را به ChatGPT و سایر هوش مصنوعی مولد وارد می کنند، وارد می شود. اجازه بدهید توضیح بیشتری بدهم. شرکت‌های مدرن امروزی معمولاً سیاست‌های امنیتی سایبری سخت‌گیرانه‌ای دارند که به سختی آن‌ها را طراحی و اجرا کرده‌اند. حفاظت های تکنولوژیکی متعددی وجود دارد. امید این است که از انتشار تصادفی موارد حیاتی جلوگیری شود. ضربات طبل مداوم این است که هنگام بازدید از وب سایت ها مراقب باشید، هنگام استفاده از برنامه های غیرمجاز و غیره مراقب باشید.

در کنار آن، اپلیکیشن‌های هوش مصنوعی مانند ChatGPT وجود دارد. اخبار مربوط به برنامه هوش مصنوعی از پشت بام می گذرد و توجه گسترده ای را به خود جلب می کند. دیوانگی به وجود می آید. افرادی در این شرکت‌ها که از تمام این حفاظت‌های امنیت سایبری برخوردار هستند، تصمیم می‌گیرند از یک برنامه هوش مصنوعی مولد استفاده کنند. آنها در ابتدا بیهوده با آن بازی می کنند. سپس آنها شروع به وارد کردن داده های شرکت می کنند. وام، آنها اکنون به طور بالقوه اطلاعاتی را افشا کرده اند که نباید فاش می شد.

اسباب‌بازی جدید براق که میلیون‌ها دلار از هزینه‌های حفاظت از امنیت سایبری و آموزش مداوم در مورد کارهایی که نباید انجام داد را به‌طور جادویی دور می‌زند. اما، هی، استفاده از هوش مصنوعی مولد و حضور در جمع "در" هیجان انگیز است. این چیزی است که اهمیت دارد، ظاهرا.

من اطمینان دارم که شما درمورد محتاط بودن من متوجه می شوید.

بیایید در ادامه نگاهی نزدیک بیندازیم به اینکه چگونه هوش مصنوعی مولد از نظر فنی با متن درخواست‌ها و مقالات خروجی سروکار دارد. ما همچنین برخی از شرایط صدور مجوز را با استفاده از ChatGPT به عنوان مثال بررسی خواهیم کرد. لطفاً توجه داشته باشید که من قصد ندارم دامنه کامل آن عناصر مجوز را پوشش دهم. مطمئن شوید که مشاور حقوقی خود را برای هر کدام از برنامه های هوش مصنوعی مولد که ممکن است تصمیم به استفاده از آن داشته باشید، درگیر کنید. همچنین، صدور مجوز از سازنده هوش مصنوعی به سازنده هوش مصنوعی متفاوت است، به علاوه یک سازنده هوش مصنوعی می‌تواند مجوز خود را تغییر دهد، بنابراین مطمئن شوید که در مورد آخرین نسخه مجوز که تصریح می‌کند، مراقب باشید.

ما باید در مورد این موضوع پرهیجان باز کردن بسته بندی هیجان انگیزی انجام دهیم.

اول، ما باید مطمئن شویم که همه ما در مورد آنچه که هوش مصنوعی مولد از چه چیزی تشکیل شده و همچنین ChatGPT در یک صفحه هستیم. هنگامی که آن جنبه اساسی را پوشش دادیم، می‌توانیم یک ارزیابی قانع کننده از استعاره آینه‌ای مرتبط با این نوع هوش مصنوعی انجام دهیم.

اگر قبلاً با هوش مصنوعی Generative و ChatGPT آشنایی کامل دارید، می‌توانید بخش بعدی را مرور کنید و به بخش بعدی بروید. من معتقدم که بقیه با مطالعه دقیق بخش و به روز شدن، جزئیات حیاتی در مورد این موضوعات را آموزنده خواهند یافت.

پرایمر سریع درباره هوش مصنوعی و ChatGPT

ChatGPT یک سیستم مکالمه محور تعاملی هوش مصنوعی همه منظوره است، که اساساً یک چت بات عمومی به ظاهر بی ضرر است، با این وجود، همانطور که به زودی توضیح خواهم داد، به طور فعال و مشتاقانه توسط افراد استفاده می شود که بسیاری را کاملاً غیرممکن می کند. این برنامه هوش مصنوعی از یک تکنیک و فناوری در قلمرو هوش مصنوعی استفاده می کند که اغلب به آن اشاره می شود هوش مصنوعی مولد. هوش مصنوعی خروجی هایی مانند متن را تولید می کند، کاری که ChatGPT انجام می دهد. سایر برنامه‌های هوش مصنوعی مبتنی بر تولید تصاویری مانند تصاویر یا آثار هنری تولید می‌کنند، در حالی که برخی دیگر فایل‌های صوتی یا ویدیو تولید می‌کنند.

در این بحث روی برنامه‌های هوش مصنوعی مبتنی بر متن تمرکز می‌کنم زیرا ChatGPT این کار را انجام می‌دهد.

استفاده از برنامه های هوش مصنوعی مولد بسیار آسان است.

تنها کاری که باید انجام دهید این است که یک درخواست وارد کنید و برنامه هوش مصنوعی برای شما مقاله ای ایجاد می کند که سعی می کند به درخواست شما پاسخ دهد. متن ساخته شده به نظر می رسد که گویی مقاله توسط دست و ذهن انسان نوشته شده است. اگر می‌خواهید پیامی را وارد کنید که می‌گوید «درباره آبراهام لینکلن به من بگویید»، هوش مصنوعی مولد مقاله‌ای درباره لینکلن در اختیار شما قرار می‌دهد. این معمولاً به عنوان هوش مصنوعی مولد طبقه بندی می شود که انجام می دهد متن به متن یا برخی ترجیح می دهند آن را صدا کنند متن به مقاله خروجی همانطور که گفته شد، حالت های دیگری از هوش مصنوعی مولد وجود دارد، مانند تبدیل متن به هنر و متن به ویدئو.

اولین فکر شما ممکن است این باشد که این قابلیت مولد از نظر تولید مقاله چندان مهم به نظر نمی رسد. شما به راحتی می توانید یک جستجوی آنلاین در اینترنت انجام دهید و به راحتی هزاران مقاله در مورد رئیس جمهور لینکلن پیدا کنید. نکته مهم در مورد هوش مصنوعی مولد این است که مقاله تولید شده نسبتاً منحصر به فرد است و یک ترکیب اصلی را به جای یک کپی ارائه می دهد. اگر بخواهید مقاله تولید شده توسط هوش مصنوعی را در جایی آنلاین پیدا کنید، بعید است که آن را کشف کنید.

هوش مصنوعی مولد از قبل آموزش داده شده است و از یک فرمول پیچیده ریاضی و محاسباتی استفاده می کند که با بررسی الگوها در کلمات نوشته شده و داستان ها در سراسر وب تنظیم شده است. در نتیجه بررسی هزاران و میلیون‌ها متن نوشته شده، هوش مصنوعی می‌تواند مقالات و داستان‌های جدیدی را منتشر کند که ترکیبی از آنچه پیدا شده است. با افزودن عملکردهای احتمالی مختلف، متن حاصل در مقایسه با آنچه در مجموعه آموزشی استفاده شده است، تقریباً منحصر به فرد است.

به همین دلیل است که سر و صدایی در مورد اینکه دانش آموزان می توانند هنگام نوشتن انشا در خارج از کلاس درس تقلب کنند، به وجود آمده است. یک معلم نمی‌تواند صرفاً این مقاله را که دانش‌آموزان فریبکار ادعا می‌کنند نوشته خودشان است، بپذیرد و به دنبال این باشد که بفهمد آیا این مقاله از منبع آنلاین دیگری کپی شده است یا خیر. به طور کلی، هیچ مقاله قطعی و قطعی آنلاین وجود نخواهد داشت که متناسب با مقاله تولید شده توسط هوش مصنوعی باشد. در مجموع، معلم باید با اکراه بپذیرد که دانش آموز مقاله را به عنوان یک اثر اصلی نوشته است.

نگرانی های بیشتری در مورد هوش مصنوعی مولد وجود دارد.

یکی از نکات منفی مهم این است که مقالات تولید شده توسط یک برنامه هوش مصنوعی مبتنی بر مولد می‌توانند دارای کاذب‌های مختلفی باشند، از جمله حقایق آشکارا نادرست، حقایقی که به‌طور گمراه‌کننده به تصویر کشیده شده‌اند، و حقایق ظاهری که کاملاً ساختگی هستند. آن جنبه های ساختگی اغلب به عنوان شکلی از نامیده می شود توهمات هوش مصنوعیجملاتی که من از آن خوشم نمی‌آیند، اما به نظر می‌رسد که به هر حال با کمال تاسف در حال جلب توجه مردم است (برای توضیح دقیق من در مورد اینکه چرا این اصطلاحات بد و نامناسب است، به پوشش من در پیوند اینجا).

من می خواهم قبل از پرداختن به بحث در مورد این موضوع، یک جنبه مهم را روشن کنم.

در مورد این موضوع در شبکه‌های اجتماعی ادعاهای بزرگی وجود دارد هوش مصنوعی مولد ادعا می کند که این آخرین نسخه از هوش مصنوعی در واقع است هوش مصنوعی حساس (نه، آنها اشتباه می کنند!). کسانی که در اخلاق هوش مصنوعی و قانون هوش مصنوعی هستند به طور مشخص نگران این روند رو به رشد ادعاهای گسترده هستند. ممکن است مودبانه بگویید که برخی افراد درباره آنچه که هوش مصنوعی امروزی واقعاً می تواند انجام دهد اغراق می کنند. آنها تصور می کنند که هوش مصنوعی دارای قابلیت هایی است که ما هنوز نتوانسته ایم به آنها دست پیدا کنیم. این مایه تاسف است. بدتر از آن، آن‌ها می‌توانند به خود و دیگران اجازه دهند در موقعیت‌های وخیم قرار بگیرند، زیرا این تصور وجود دارد که هوش مصنوعی هوشیار یا انسان‌مانند خواهد بود تا بتواند اقدامی انجام دهد.

هوش مصنوعی را انسان سازی نکنید.

انجام این کار شما را در یک تله اتکای چسبناک و بی حوصله گرفتار می کند که انتظار دارید هوش مصنوعی کارهایی را انجام دهد که قادر به انجام آن نیست. با توجه به آنچه گفته شد، جدیدترین هوش مصنوعی مولد برای کارهایی که می تواند انجام دهد نسبتاً چشمگیر است. البته توجه داشته باشید که محدودیت های قابل توجهی وجود دارد که باید به طور مداوم هنگام استفاده از هر برنامه هوش مصنوعی مولد در نظر داشته باشید.

اگر به هیاهوی به سرعت در حال گسترش در مورد ChatGPT و هوش مصنوعی Generative که همه گفته شد علاقه دارید، من یک سری متمرکز در ستون خود انجام داده ام که ممکن است برای شما آموزنده باشد. اگر هر یک از این موضوعات مورد توجه شما قرار بگیرد، در اینجا نگاهی اجمالی داریم:

  • 1) پیش بینی پیشرفت های مولد هوش مصنوعی. اگر می‌خواهید بدانید چه چیزی در مورد هوش مصنوعی در طول سال 2023 و بعد از آن، از جمله پیشرفت‌های آتی در هوش مصنوعی و ChatGPT، ممکن است بدانید، می‌خواهید فهرست جامع پیش‌بینی‌های سال 2023 من را در اینجا بخوانید. پیوند اینجا.
  • 2) هوش مصنوعی و مشاوره سلامت روان. من تصمیم گرفتم بررسی کنم که چگونه از هوش مصنوعی و ChatGPT مولد برای مشاوره سلامت روان استفاده می شود، روندی دردسرساز، بر اساس تجزیه و تحلیل متمرکز من در پیوند اینجا.
  • 3) مبانی هوش مصنوعی و ChatGPT. این بخش به بررسی عناصر کلیدی نحوه عملکرد هوش مصنوعی مولد می‌پردازد و به‌ویژه در برنامه ChatGPT، از جمله تجزیه و تحلیل وزوز و هیاهو، به بررسی می‌پردازد. پیوند اینجا.
  • 4) تنش بین معلمان و دانش آموزان بر سر هوش مصنوعی و ChatGPT. در اینجا روش‌هایی وجود دارد که دانش‌آموزان از هوش مصنوعی مولد و ChatGPT استفاده می‌کنند. علاوه بر این، راه های مختلفی برای معلمان وجود دارد تا با این موج جزر و مدی مقابله کنند. دیدن پیوند اینجا.
  • 5) زمینه و استفاده از هوش مصنوعی مولد. من همچنین یک معاینه فصلی زبان در گونه در مورد زمینه مرتبط با بابانوئل انجام دادم که شامل ChatGPT و هوش مصنوعی در پیوند اینجا.
  • 6) کلاهبردارانی که از هوش مصنوعی مولد استفاده می کنند. در یک یادداشت شوم، برخی از کلاهبرداران متوجه شده‌اند که چگونه از هوش مصنوعی و ChatGPT برای انجام کارهای خلاف استفاده کنند، از جمله ایجاد ایمیل‌های کلاهبرداری و حتی تولید کد برنامه‌نویسی برای بدافزار، به تحلیل من در اینجا مراجعه کنید. پیوند اینجا.
  • 7) اشتباهات تازه کار با استفاده از هوش مصنوعی. بسیاری از مردم هم از آنچه که هوش مصنوعی و ChatGPT مولد می‌توانند انجام دهند، غافلگیر می‌شوند و به‌طور شگفت‌انگیزی کم‌کم می‌کنند، بنابراین من به‌ویژه به کم‌نظمی‌هایی که تازه‌کاران هوش مصنوعی تمایل دارند انجام دهند، نگاه کنید. پیوند اینجا.
  • 8) مقابله با هشدارهای هوش مصنوعی و توهمات هوش مصنوعی. من یک رویکرد پیشرفته برای استفاده از افزونه‌های هوش مصنوعی برای مقابله با مسائل مختلف مرتبط با تلاش برای وارد کردن اعلان‌های مناسب در هوش مصنوعی مولد را توضیح می‌دهم، به‌علاوه افزونه‌های هوش مصنوعی اضافی برای تشخیص به اصطلاح خروجی‌ها و دروغ‌های توهم‌آمیز هوش مصنوعی وجود دارد. پوشیده شده در پیوند اینجا.
  • 9) رد ادعاهای Bonehead در مورد شناسایی مقالات تولید شده توسط هوش مصنوعی. هجوم نادرستی از برنامه‌های هوش مصنوعی وجود دارد که اعلام می‌کنند می‌توانند مشخص کنند که آیا هر مقاله‌ای که توسط انسان تولید شده است یا خیر. به طور کلی، این گمراه کننده است و در برخی موارد، یک ادعای بی اساس و غیرقابل دفاع است، پوشش من را در پیوند اینجا.
  • 10) ایفای نقش از طریق هوش مصنوعی مولد ممکن است معایب سلامت روان را به همراه داشته باشد. برخی از هوش مصنوعی مولد مانند ChatGPT برای انجام نقش آفرینی استفاده می کنند، به موجب آن برنامه هوش مصنوعی به انسان پاسخ می دهد که انگار در یک دنیای فانتزی یا سایر تنظیمات ساختگی وجود دارد. این می تواند پیامدهای سلامت روانی داشته باشد، ببینید پیوند اینجا.
  • 11) افشای محدوده خطاها و نادرست های خروجی. فهرست‌های مختلف جمع‌آوری شده در کنار هم قرار می‌گیرند تا ماهیت خطاها و نادرست‌های تولید شده توسط ChatGPT را نشان دهند. برخی معتقدند این ضروری است، در حالی که برخی دیگر می گویند که تمرین بیهوده است، تحلیل من را در اینجا ببینید پیوند اینجا.
  • 12) مدارسی که AI Generative ChatGPT را ممنوع می کنند، قایق را از دست داده اند. ممکن است بدانید که مدارس مختلف مانند اداره آموزش شهر نیویورک (NYC) استفاده از ChatGPT را در شبکه و دستگاه های مرتبط خود ممنوع اعلام کرده اند. اگرچه این ممکن است یک اقدام احتیاطی مفید به نظر برسد، اما سوزن را حرکت نمی دهد و متأسفانه به طور کامل قایق را از دست می دهد، پوشش من را در اینجا ببینید پیوند اینجا.
  • 13) ChatGPT AI مولد به دلیل API آینده در همه جا خواهد بود. یک پیچ مهم در مورد استفاده از ChatGPT وجود دارد، یعنی از طریق استفاده از یک پورتال API در این برنامه هوش مصنوعی خاص، سایر برنامه های نرم افزاری می توانند ChatGPT را فراخوانی و استفاده کنند. این به طور چشمگیری استفاده از هوش مصنوعی مولد را گسترش خواهد داد و عواقب قابل توجهی در پی خواهد داشت، به توضیح من در پیوند اینجا.
  • 14) راه هایی که ChatGPT ممکن است از بین برود یا از بین برود. چندین مشکل آزاردهنده بالقوه پیش روی ChatGPT قرار دارد که از ستایش فوق‌العاده‌ای که تاکنون دریافت کرده است، کم کرده است. این تجزیه و تحلیل از نزدیک هشت مشکل احتمالی را بررسی می کند که می تواند باعث شود ChatGPT قدرت خود را از دست بدهد و حتی به خانه سگ ختم شود. پیوند اینجا.

شاید برایتان جالب باشد که ChatGPT بر اساس نسخه‌ای از یک برنامه هوش مصنوعی پیشین به نام GPT-3 است. ChatGPT به عنوان یک مرحله کمی بعدی در نظر گرفته می شود که به آن GPT-3.5 می گویند. پیش‌بینی می‌شود که GPT-4 احتمالاً در بهار سال 2023 منتشر شود. احتمالاً GPT-4 از نظر توانایی تولید مقالات به ظاهر روان‌تر، عمیق‌تر شدن و شگفت‌انگیز بودن، گامی چشمگیر به جلو خواهد بود. شگفتی الهام بخش از ترکیباتی که می تواند تولید کند.

شما می توانید انتظار داشته باشید که وقتی بهار فرا می رسد و جدیدترین هوش مصنوعی مولد منتشر می شود، دور جدیدی از ابراز تعجب را مشاهده کنید.

من این را مطرح می کنم زیرا زاویه دیگری وجود دارد که باید در نظر داشت، که شامل یک پاشنه آشیل بالقوه برای این برنامه های هوش مصنوعی مولد بهتر و بزرگتر است. اگر هر فروشنده هوش مصنوعی یک برنامه هوش مصنوعی مولد را در دسترس قرار دهد که به صورت کف آلود ناپاکی ها را بیرون می زند، این می تواند امید آن سازندگان هوش مصنوعی را از بین ببرد. یک سرریز اجتماعی می تواند باعث شود همه هوش مصنوعی مولد دچار سیاهی چشم شوند. مردم بدون شک از خروجی های ناخوشایند بسیار ناراحت خواهند شد، که قبلاً بارها اتفاق افتاده و منجر به واکنش شدید محکومیت های اجتماعی نسبت به هوش مصنوعی شده است.

یک هشدار نهایی در حال حاضر.

هر آنچه را که در یک پاسخ هوش مصنوعی مولد می بینید یا می خوانید به نظر می رسد برای اینکه کاملاً واقعی باشد (تاریخ، مکان ها، افراد و غیره)، مطمئن شوید که شک دارید و مایل باشید آنچه را می بینید دوباره بررسی کنید.

بله، خرما را می توان جعل کرد، مکان ها را می توان ساخت، و عناصری که معمولاً انتظار داریم بیش از حد ملامت باشند. تمام در معرض سوء ظن آنچه را که می خوانید باور نکنید و هنگام بررسی هر مقاله یا خروجی هوش مصنوعی با شک و تردید نگاه کنید. اگر یک اپلیکیشن مولد هوش مصنوعی به شما بگوید که آبراهام لینکلن با جت شخصی خود در سراسر کشور پرواز کرده است، بدون شک متوجه خواهید شد که این یک بیماری ناخوشایند است. متأسفانه، برخی از مردم ممکن است متوجه نباشند که جت‌ها در زمان او وجود نداشتند، یا ممکن است بدانند اما متوجه این موضوع نشوند که این مقاله این ادعای گستاخانه و به‌شدت نادرست را دارد.

دوز قوی از شک و تردید سالم و ذهنیت ناباوری مداوم بهترین دارایی شما در هنگام استفاده از هوش مصنوعی مولد خواهد بود.

ما آماده هستیم تا وارد مرحله بعدی این شفاف سازی شویم.

دانستن اینکه شیطان با آن متن چه خواهد شد

اکنون که اصول اولیه را مشخص کرده‌ایم، می‌توانیم در هنگام استفاده از هوش مصنوعی مولد به بررسی داده‌ها و ملاحظات اطلاعاتی بپردازیم.

ابتدا، اجازه دهید به طور خلاصه در نظر بگیریم که چه اتفاقی می‌افتد وقتی متنی را در یک درخواست ChatGPT وارد می‌کنید. ما به طور قطع نمی دانیم که در ChatGPT چه اتفاقی می افتد زیرا برنامه اختصاصی در نظر گرفته می شود. برخی اشاره کرده‌اند که این امر حس شفافیت را در مورد برنامه هوش مصنوعی کاهش می‌دهد. یک اظهار نظر تا حدی خنده دار این است که برای شرکتی که OpenAI نام دارد، هوش مصنوعی آنها در واقع برای دسترسی عمومی بسته است و به عنوان منبع باز در دسترس نیست.

بیایید در مورد توکن سازی بحث کنیم.

وقتی متن ساده را در یک درخواست وارد می‌کنید و بازگشت را فشار می‌دهید، احتمالاً تبدیلی وجود دارد که بلافاصله اتفاق می‌افتد. متن به قالبی متشکل از نشانه ها تبدیل می شود. نشانه ها زیر بخش های کلمات هستند. به عنوان مثال، کلمه "همبرگر" به طور معمول به سه نشانه متشکل از بخش "هام"، "بور" و "گر" تقسیم می شود. یک قانون سرانگشتی این است که نشانه‌ها معمولاً حدود چهار کاراکتر را نشان می‌دهند یا تقریباً 75٪ از یک کلمه انگلیسی معمولی در نظر گرفته می‌شوند.

سپس هر نشانه به عنوان یک عدد مجدداً فرموله می شود. جداول داخلی مختلف مشخص می کنند که کدام نشانه به کدام عدد خاص اختصاص داده شده است. برداشت در این مورد این است که متنی که وارد کردید اکنون کاملاً مجموعه ای از اعداد است. این اعداد برای تحلیل محاسباتی اعلان استفاده می شوند. علاوه بر این، شبکه تطبیق الگو که قبلاً ذکر کردم نیز بر اساس مقادیر نشانه گذاری شده است. در نهایت، هنگام نوشتن یا تولید مقاله خروجی، ابتدا از این نشانه های عددی استفاده می شود و سپس قبل از نمایش، نشانه ها دوباره به مجموعه ای از حروف و کلمات تبدیل می شوند.

درباره اش لحظه ای فکر کن.

وقتی به مردم می گویم که مکانیک پردازش اینگونه است، اغلب مبهوت می شوند. آنها فرض کردند که یک برنامه هوش مصنوعی مولد مانند ChatGPT باید از کلمات کاملاً یکپارچه استفاده کند. ما منطقاً فرض می کنیم که کلمات به عنوان سنگ اصلی برای شناسایی آماری روابط در روایت ها و ترکیبات نوشتاری عمل می کنند. معلوم می شود که پردازش در واقع تمایل به استفاده از نشانه ها دارد. شاید این موضوع به شگفتی اضافه کند که چگونه به نظر می رسد فرآیند محاسباتی کار کاملاً قانع کننده ای در تقلید از زبان انسان انجام می دهد.

من شما را از طریق این فرآیند به دلیل یک تصور غلط رایج که به نظر می رسد در حال گسترش است، راهنمایی کردم. به نظر می‌رسد برخی افراد معتقدند که چون متن درخواستی شما به نشانه‌های عددی تبدیل می‌شود، مطمئن هستید که قسمت‌های داخلی برنامه هوش مصنوعی دیگر متن اصلی وارد شده شما را ندارد. بنابراین، این ادعا ادامه می‌یابد، حتی اگر اطلاعات محرمانه‌ای را در درخواست خود وارد کرده باشید، هیچ نگرانی ندارید زیرا همه آنها به ظاهر توکن شده‌اند.

این تصور یک اشتباه است. من فقط به این نکته اشاره کردم که نشانه های عددی را می توان به آسانی به قالب متنی حروف و کلمات بازگرداند. همین کار را می توان با دستور تبدیل شده که توکنیزه شده انجام داد. هیچ چیز محافظ جادویی در مورد توکن شدن وجود ندارد. همانطور که گفته شد، پس از تبدیل به توکن، اگر یک فرآیند اضافی وجود داشته باشد که بخواهد توکن‌ها را کنار بگذارد، آنها را جابه‌جا کند، و در غیر این صورت چیزها را به هم بزنید یا خرد کنید، در این صورت، واقعاً این احتمال وجود دارد که برخی از بخش‌های اصلی اعلان‌ها دیگر دست نخورده نیستند (و با این فرض که یک کپی اصلی در جای دیگری حفظ یا ذخیره نشده است).

می‌خواهم در ادامه نگاهی به اعلان‌های مختلف و مقررات مجوز ChatGPT بیندازم.

هنگامی که وارد ChatGPT می شوید، یک سری هشدارها و نظرات اطلاعاتی نمایش داده می شود.

اینجا اند:

  • "ممکن است گهگاه اطلاعات نادرستی ایجاد کند."
  • "ممکن است گهگاه دستورالعمل های مضر یا محتوای مغرضانه تولید کند."
  • "آموزش داده شده تا درخواست های نامناسب را رد کند."
  • "هدف ما دریافت بازخورد خارجی به منظور بهبود سیستم ها و ایمن تر کردن آنها است."
  • «در حالی که ما پادمان‌هایی داریم، سیستم ممکن است گاهی اطلاعات نادرست یا گمراه‌کننده تولید کند و محتوای توهین‌آمیز یا مغرضانه تولید کند. هدف آن نصیحت نیست.»
  • "مکالمات ممکن است توسط مربیان هوش مصنوعی ما برای بهبود سیستم های ما بررسی شود."
  • "لطفا هیچ اطلاعات حساسی را در مکالمات خود به اشتراک نگذارید."
  • این سیستم برای گفتگو بهینه شده است. به ما اطلاع دهید که آیا یک پاسخ خاص خوب یا غیر مفید بوده است.»
  • "دانش محدود از جهان و رویدادهای پس از سال 2021."

دو مورد از آن احتیاط های بیان شده به ویژه به این بحث مربوط می شود. به نقطه گلوله ششم و نقطه گلوله هفتم نگاه کنید.

بیایید این دو را باز کنیم:

"مکالمات ممکن است توسط مربیان هوش مصنوعی ما برای بهبود سیستم های ما بررسی شود."

این ششمین نقطه گلوله توضیح می‌دهد که مکالمات متنی هنگام استفاده از ChatGPT ممکن است توسط ChatGPT از طریق "آموزش‌دهنده‌های هوش مصنوعی" که برای بهبود سیستم آنها انجام می‌شود، بررسی شود. این به اطلاع شما می‌رساند که برای هر یک و همه پیام‌های متنی وارد شده و مقاله‌های خروجی مربوطه، که همگی بخشی از «مکالمه‌ای» هستند که با ChatGPT انجام می‌دهید، کاملاً توسط افراد آن‌ها قابل مشاهده است. منطق ارائه شده این است که این کار برای بهبود برنامه هوش مصنوعی انجام می شود، و همچنین به ما گفته می شود که این یک نوع کار است که توسط مربیان هوش مصنوعی آنها انجام می شود. شاید اینطور باشد، اما نتیجه این است که آنها به شما هشدار داده اند که می توانند به متن شما نگاه کنند. دوره، نقطه پایان.

اگر بخواهند کار دیگری با متن شما انجام دهند، احتمالاً به دنبال مشاوره حقوقی در مورد اینکه آیا آنها به شدت فراتر از محدودیت های پیشنهادی صرفاً بازبینی متن برای اهداف بهبود سیستم بوده اند (با فرض اینکه شما موفق شده باشید متوجه شوید که آنها این کار را انجام داده اند، کمک می کنید. خود شاید بعید به نظر می رسد). به هر حال، می‌توانید کشمکش‌های حقوقی تلاش برای شناسایی آن‌ها در این مورد، و تلاش‌های آن‌ها برای پیدا کردن راه‌های رهایی از دستگیری به دلیل نقض محدودیت‌های سلب مسئولیت خود را تصور کنید.

"لطفا هیچ اطلاعات حساسی را در مکالمات خود به اشتراک نگذارید."

نقطه گلوله هفتم نشان می دهد که شما نباید هیچ اطلاعات حساسی را در مکالمات خود به اشتراک بگذارید. این نسبتاً ساده به نظر می رسد. فکر می‌کنم ممکن است در مورد اینکه تعریف اطلاعات حساس از چه چیزی تشکیل شده است بحث کنید. همچنین، نقطه گلوله به شما نمی گوید که چرا نباید هیچ اطلاعات حساسی را به اشتراک بگذارید. اگر روزی مجبور شدید تلاش کنید و با عرق شدید توضیح دهید که چرا داده‌های محرمانه را احمقانه وارد کرده‌اید، ممکن است این ادعای ابروی برجسته را امتحان کنید که هشدار غیراختصاصی بوده است، بنابراین، اهمیت آن را درک نکرده‌اید. نفست رو روی اون یکی نگه دار

در مجموع، به جرأت می‌توانم بگویم که اکثر افرادی که از ChatGPT استفاده می‌کنند تمایل دارند نقاط گلوله‌شده را نخوانند، یا از اقدامات احتیاطی گلوله‌ای دوری می‌کنند و فقط سرشان را تکان می‌دهند که گویی این یک قانون مزخرف معمولی است که همه موارد را می‌بینید. زمان. به نظر می رسد تعداد کمی از هشدارها را جدی بگیرند. آیا این تقصیر فروشنده است که اقدامات احتیاطی را بیشتر انجام نمی دهد؟ یا باید فرض کنیم که کاربران باید مسئولیت پذیر باشند و بر اساس اخطارها آگاهانه خوانده، درک کرده و متعاقباً عاقلانه عمل کنند؟

برخی حتی ادعا می کنند که برنامه هوش مصنوعی باید مکرراً به شما هشدار دهد. هر بار که درخواستی را وارد می‌کنید، نرم‌افزار باید یک هشدار ظاهر شود و از شما بپرسد که آیا می‌خواهید بازگشت را بزنید یا خیر. دوباره و دوباره. اگرچه ممکن است این یک اقدام احتیاطی مفید به نظر برسد، مسلماً باعث ناراحتی کاربران خواهد شد. یک معامله خاردار درگیر است.

بسیار خوب، پس اینها احتیاط های آشکاری هستند که برای همه کاربران ارائه شده است تا به راحتی آن را ببینند.

کاربرانی که ممکن است کنجکاوتر باشند، می توانند برخی از مقررات مجوز دقیق را که به صورت آنلاین نیز ارسال شده است، دنبال کنند. من شک دارم که بسیاری این کار را انجام دهند. تصور من این است که تعداد کمی از افراد هنگام ورود به سیستم به طور جدی به نقاط گلوله‌ای نگاه می‌کنند، و حتی تعداد کمی از آنها با اختلاف زیادی به جزئیات مجوز نگاه می‌کنند. باز هم این روزها همه ما تا حدودی نسبت به چنین چیزهایی بی حس شده ایم. من این رفتار را توجیه نمی کنم، فقط به دلیل وقوع آن اشاره می کنم.

من چند گزیده از شرایط صدور مجوز را بررسی خواهم کرد.

ابتدا، در اینجا تعریفی از آنچه که آنها "محتوا" مرتبط با استفاده از ChatGPT را در نظر می گیرند آورده شده است:

  • «محتوای شما. شما می توانید ورودی به سرویس ها ("ورودی") ارائه دهید و خروجی های تولید شده و برگردانده شده توسط سرویس ها را بر اساس ورودی ("خروجی") دریافت کنید. ورودی و خروجی در مجموع «محتوا» هستند. بین طرفین و تا حدی که قانون قابل اجرا اجازه می دهد، شما مالک تمام ورودی ها هستید و با توجه به رعایت این شرایط، OpenAI بدینوسیله تمام حقوق، عنوان و منافع خود را در و به خروجی به شما واگذار می کند. OpenAI ممکن است در صورت لزوم از محتوا برای ارائه و نگهداری سرویس ها، پیروی از قوانین قابل اجرا و اجرای خط مشی های ما استفاده کند. شما مسئول محتوا هستید، از جمله اینکه اطمینان حاصل کنید که قوانین قابل اجرا یا این شرایط را نقض نمی کند."

اگر این تعریف را به دقت بررسی کنید، متوجه خواهید شد که OpenAI اعلام می‌کند که می‌تواند برای حفظ خدماتش، از جمله پیروی از قوانین قابل اجرا و اجرای خط‌مشی‌هایش، از محتوا آن‌طور که لازم می‌داند استفاده کند. این یک ابزار مفید برای آنها است. در یکی از ستون‌های آینده‌ام، درباره موضوعی متفاوت اما مرتبط بحث خواهم کرد، به‌ویژه در مورد حقوق مالکیت معنوی (IP) که شما در رابطه با پیام‌های متنی وارد شده و مقالات خروجی دارید (من در اینجا از زمان تعریف محتوا مربوط به آن موضوع است).

در بخش دیگری از اصطلاحات که با عنوان بخش c برچسب گذاری شده است، آنها به این جنبه اشاره می کنند: "یکی از مزایای اصلی مدل های یادگیری ماشینی این است که می توان آنها را در طول زمان بهبود بخشید. برای کمک به OpenAI در ارائه و حفظ سرویس‌ها، موافقت می‌کنید و دستور می‌دهید که ما ممکن است از محتوا برای توسعه و بهبود خدمات استفاده کنیم.» این شبیه به احتیاط یک خطی قبلی است که هنگام ورود به ChatGPT ظاهر می شود.

یک سند جداگانه که به این موضوع مرتبط است، برخی از جنبه های اضافی را در مورد این موضوعات مهم ارائه می دهد:

  • «به عنوان بخشی از این بهبود مستمر، وقتی از مدل‌های OpenAI از طریق API ما استفاده می‌کنید، ممکن است از داده‌هایی که به ما ارائه می‌دهید برای بهبود مدل‌هایمان استفاده کنیم. این نه تنها به مدل های ما کمک می کند تا در حل مشکل خاص شما دقیق تر و بهتر شوند، بلکه به بهبود قابلیت های عمومی و ایمنی آنها نیز کمک می کند. ما می دانیم که حفظ حریم خصوصی و امنیت داده ها برای مشتریان ما حیاتی است. ما بسیار مراقب هستیم که از کنترل های فنی و فرآیندی مناسب برای ایمن سازی داده های شما استفاده کنیم. ما هر گونه اطلاعات قابل شناسایی شخصی را از داده هایی که قصد استفاده از آنها برای بهبود عملکرد مدل را داریم حذف می کنیم. ما همچنین تنها از نمونه کوچکی از داده ها برای هر مشتری برای تلاش های خود برای بهبود عملکرد مدل استفاده می کنیم. به عنوان مثال، برای یک کار، حداکثر تعداد درخواست‌های API که به ازای هر مشتری نمونه‌برداری می‌کنیم، 200 درخواست در هر 6 ماه محدود می‌شود» (برگرفته از سندی با عنوان «چگونه از داده‌های شما برای بهبود عملکرد مدل استفاده می‌شود»).

توجه داشته باشید که شرط بیانگر آن است که این حکم در مورد استفاده از API به عنوان وسیله ای برای اتصال و استفاده از مدل های OpenAI همه گفته شد. این که آیا این به همان اندازه برای کاربران نهایی که مستقیماً از ChatGPT استفاده می کنند صدق می کند تا حدودی مبهم است.

در سندی متفاوت، سندی که حاوی فهرست پرسش‌های متداول مختلف است، آنها مجموعه‌ای از پرسش‌ها و پاسخ‌ها را ارائه می‌کنند که دو مورد از آن‌ها به‌خصوص مرتبط با این بحث به نظر می‌رسد:

  • (5) چه کسی می تواند مکالمات من را مشاهده کند؟ به عنوان بخشی از تعهدمان به هوش مصنوعی ایمن و مسئولانه، ما مکالمات را بررسی می کنیم تا سیستم های خود را بهبود بخشیم و اطمینان حاصل کنیم که محتوا با خط مشی ها و الزامات ایمنی ما مطابقت دارد.
  • (8) آیا می‌توانید درخواست‌های خاصی را حذف کنید؟ نه، ما نمی‌توانیم درخواست‌های خاصی را از سابقه شما حذف کنیم. لطفا هیچ اطلاعات حساسی را در مکالمات خود به اشتراک نگذارید.»

یک سند اضافی وجود دارد که خط مشی رازداری آنها را پوشش می دهد. این می‌گوید: «ما اطلاعاتی را جمع‌آوری می‌کنیم که به تنهایی یا در ترکیب با سایر اطلاعاتی که در اختیار داریم می‌تواند برای شناسایی شما استفاده شود («اطلاعات شخصی»)» و سپس توضیح می‌دهیم که ممکن است از داده‌های گزارش، داده‌های استفاده، اطلاعات ارتباطی استفاده کنند. اطلاعات دستگاه، کوکی ها، تجزیه و تحلیل و سایر اطلاعات بالقوه قابل جمع آوری درباره شما. چاپ ریز را حتما بخوانید.

من فکر می کنم که تقریباً یک تور از برخی ملاحظات اساسی در مورد نحوه استفاده از داده های شما ارائه می دهد. همانطور که در ابتدا ذکر کردم، قرار نیست با زحمت تمام شرایط صدور مجوز را انجام دهم.

امیدواریم که این شما را در یک چارچوب ذهنی در مورد این مسائل قرار دهد و در ذهن شما باقی بماند.

نتیجه

قبلاً گفته‌ام و باز هم می‌گویم، داده‌های محرمانه یا خصوصی را در این برنامه‌های هوش مصنوعی مولد وارد نکنید.

چند نکته یا گزینه مفید را در مورد این توصیه حکیم در نظر بگیرید:

  • قبل از استفاده از هوش مصنوعی مولد فکر کنید
  • موارد را از قبل حذف کنید
  • ورودی خود را بپوشانید یا جعل کنید
  • نمونه خود را تنظیم کنید
  • دیگر

بعداً نشان می‌دهم که هر یک از آن‌ها از چه چیزی تشکیل شده است. تنظیم نمونه خود قبلاً در اینجا پوشش داده شد. استفاده از «دیگر» در فهرست من به دلیل امکان روش‌های دیگری برای مقابله با جلوگیری از گنجاندن داده‌های محرمانه است که در پست‌های بعدی ستونی به آن‌ها خواهم پرداخت.

بیایید اینها را بررسی کنیم:

  • قبل از استفاده از هوش مصنوعی مولد فکر کنید. یک رویکرد شامل اجتناب از استفاده کامل از هوش مصنوعی مولد است. یا حداقل قبل از انجام این کار دو بار فکر کنید. من فکر می کنم امن ترین راه شامل استفاده نکردن از این برنامه های هوش مصنوعی است. اما این نیز بسیار شدید و تقریباً بیش از حد به نظر می رسد.
  • موارد را از قبل حذف کنید. روش دیگر شامل حذف اطلاعات محرمانه یا خصوصی از هر چیزی است که به عنوان یک درخواست وارد می کنید. از این نظر، اگر وارد آن نشوید، شانسی برای تزریق آن به بورگ وجود ندارد. نکته منفی این است که شاید حذف بخش محرمانه به نحوی کاری را که شما در تلاش هستید تا هوش مصنوعی مولد را برای شما انجام دهد کاهش دهد یا کاهش دهد.
  • ورودی های خود را بپوشانید یا جعل کنید. می توانید متن پیشنهادی خود را با تغییر اطلاعات تغییر دهید تا هر آنچه محرمانه یا خصوصی به نظر می رسد اکنون به طور متفاوتی به تصویر کشیده شود. به عنوان مثال، به جای قراردادی که در آن شرکت ویجت و جان اسمیت ذکر شده باشد، متن را به Specious Company و Jane Capone تغییر می دهید. یک مسئله در اینجا این است که آیا شما یک کار به اندازه کافی جامع انجام خواهید داد به طوری که تمام جنبه های محرمانه و خصوصی به طور کامل تغییر یا جعلی شوند. از دست دادن برخی از ابرها و رها کردن چیزهایی که نباید وجود داشته باشند، آسان است.

در اینجا یک پیچ و تاب اضافه شده جالب وجود دارد که ممکن است باعث نفوذ بیشتر نوگین شما در این موضوع شود. اگر می‌توانید کاملاً مطمئن شوید که هیچ یک از درخواست‌های ورودی شما حاوی اطلاعات محرمانه نیست، آیا این بدان معناست که نیازی به نگرانی در مورد مقاله‌های خروجی که حاوی اطلاعات محرمانه شما هستند نیز ندارید؟

این امر از نظر بدیهی درست به نظر می رسد. بدون ورودی محرمانه، بدون خروجی محرمانه.

در اینجا پیچ و تاب ذهن شما را نشان می دهد.

هوش مصنوعی مولد اغلب برای بازآموزی محاسباتی خود از پیام های متنی ارائه شده تنظیم می شود. به همین ترتیب، هوش مصنوعی مولد اغلب برای بازآموزی محاسباتی از مقالات خروجی ابداع می شود. تمام این بازآموزی ها برای بهبود قابلیت های هوش مصنوعی مولد در نظر گرفته شده است.

من در یکی از ستون های دیگرم آزمایش زیر را که انجام دادم شرح دادم. یک وکیل در تلاش بود تا ابزار جدیدی برای رسیدگی به یک موضوع حقوقی کشف کند. پس از یک نگاه جامع به ادبیات حقوقی، به نظر می رسید که تمام زوایایی که قبلاً ظاهر شده بود، پیدا شد. با استفاده از هوش مصنوعی مولد، ما اپلیکیشن هوش مصنوعی را برای تولید یک رویکرد قانونی جدید که ظاهراً قبلاً شناسایی نشده بود، دریافت کردیم. اعتقاد بر این بود که هیچ کس دیگری هنوز در این موقعیت قانونی قرار نگرفته است. یک قطعه طلای قانونی. این می تواند یک سود حقوقی رقابتی با ارزش استراتژیک باشد که در زمان مناسب مورد استفاده و بهره برداری قرار گیرد.

آیا آن مقاله خروجی شکلی از اطلاعات محرمانه را تشکیل می دهد، به طوری که توسط هوش مصنوعی برای این شخص خاص تولید شده است و حاوی چیزی خاص و به ظاهر منحصر به فرد است؟

آها، این ما را به موضوع دیگر مرتبط و درهم تنیده در مورد مالکیت و حقوق IP مرتبط با هوش مصنوعی مولد هدایت می کند. در ادامه با ما همراه باشید تا ببینیم چگونه این اتفاق می افتد.

نکته پایانی فعلا

سوفوکل این حکمت را ارائه کرد: «هیچ کاری را پنهانی انجام نده. زیرا زمان همه چیز را می بیند و می شنود و همه چیز را آشکار می کند.» فکر می‌کنم می‌توانید این عبارت را مدرن کنید و ادعا کنید که هوش مصنوعی مولد و آنهایی که هوش مصنوعی را طراحی و نگهداری می‌کنند نیز قابل دیدن هستند.

این یک توصیه متواضعانه است که ارزش به خاطر سپردن دارد.

منبع: https://www.forbes.com/sites/lanceeliot/2023/01/27/generative-ai-chatgpt-can-disturbingly-gobble-up-your-private-and-confidential-data-forewarns-ai- اخلاق-و-حقوق/