اکنون داده های خود را می بینید، اکنون نمی بینید.
در همین حال، داده های گرانبهای شما به عنوان بخشی از مجموعه تبدیل شده است.
من به جنبه ای اشاره می کنم که ممکن است برای کسانی از شما که مشتاقانه و با جدیت از جدیدترین هوش مصنوعی (AI) استفاده می کنند، شگفت آور باشد. دادههایی که در یک برنامه هوش مصنوعی وارد میکنید به طور بالقوه برای شما و تنها شما کاملاً خصوصی نیستند. ممکن است داده های شما توسط سازنده هوش مصنوعی استفاده شود تا احتمالاً به دنبال بهبود خدمات هوش مصنوعی خود باشد یا ممکن است توسط آنها و/یا حتی شرکای متحد آنها برای اهداف مختلف استفاده شود.
اکنون به شما هشدار داده شده است.
این تحویل داده های شما به بی ضررترین راه ها و به طور بالقوه هزاران نفر یا به ترتیب میلیون ها نفر انجام می شود. چطور؟ نوعی از هوش مصنوعی وجود دارد که به عنوان هوش مصنوعی مولد شناخته می شود که اخیراً سرفصل های بزرگی را به خود جلب کرده و توجه عموم را به خود جلب کرده است. قابل توجه ترین برنامه های هوش مصنوعی مولد موجود، برنامه ای به نام ChatGPT است که توسط شرکت OpenAI ابداع شده است.
ظاهراً حدود یک میلیون کاربر ثبت نام شده برای ChatGPT وجود دارد. به نظر می رسد بسیاری از این کاربران از امتحان این داغ ترین و جدیدترین برنامه هوش مصنوعی مولد لذت می برند. فرآیند فوق العاده ساده است. مقداری متن را بهعنوان یک درخواست وارد میکنید و برنامه ChatGPT یک خروجی متنی تولید میکند که معمولاً به شکل مقاله است. برخی از آن به عنوان متن به متن یاد میکنند، اگرچه من ترجیح میدهم آن را متن به مقاله نشان دهم، زیرا این حرف معنایی روزمره دارد.
در ابتدا، یک کاربر تازه کار احتمالاً چیزی سرگرم کننده و بی دغدغه وارد می کند. در مورد زندگی و زمان جورج واشنگتن به من بگویید، ممکن است کسی به عنوان یک درخواست وارد شود. سپس ChatGPT مقاله ای درباره اولین رئیس جمهور افسانه ای ما تولید می کند. این مقاله کاملاً روان خواهد بود و شما به سختی متوجه خواهید شد که توسط یک برنامه هوش مصنوعی تولید شده است. یک اتفاق هیجان انگیز برای دیدن رخ می دهد.
احتمال این وجود دارد که پس از مدتی بازی کردن، بخشی از کاربران تازه کار پر شده باشند و به طور بالقوه تصمیم بگیرند که با ChatGPT بازی نکنند. آنها اکنون بر FOMO خود (ترس از دست دادن) غلبه کرده اند و این کار را پس از آزمایش با برنامه هوش مصنوعی انجام دادند که به نظر می رسد تقریباً همه درباره آن صحبت می کنند. عمل انجام شده
اگرچه برخی شروع به فکر کردن در مورد راه های دیگر و جدی تر برای استفاده از هوش مصنوعی مولد خواهند کرد.
شاید از ChatGPT برای نوشتن آن یادداشتی استفاده کنید که رئیستان شما را برای نوشتن آن اذیت کرده است. تنها کاری که باید انجام دهید این است که نکات مهمی را که در ذهن دارید ارائه دهید، و نکته بعدی که می دانید یک یادداشت کامل توسط ChatGPT ایجاد شده است که باعث می شود رئیس شما به شما افتخار کند. شما مقاله خروجی را از ChatGPT کپی می کنید، آن را در قالب رسمی شرکت در بسته پردازش کلمه خود جایگذاری می کنید و یادداشت درجه یک را برای مدیر خود ایمیل می کنید. شما یک میلیون دلار ارزش دارید. و شما از مغز خود برای یافتن ابزاری مفید برای انجام کارهای سخت برای شما استفاده کردید. آهسته به پشتتون دست بزنید.
این همش نیست.
بله، بیشتر وجود دارد.
به خاطر داشته باشید که هوش مصنوعی مولد می تواند تعداد زیادی از کارهای مرتبط با نوشتن را انجام دهد.
به عنوان مثال، فرض کنید یک نوع روایت برای یک مشتری ارزشمند نوشتهاید و میخواهید قبل از بیرون آمدن مطالب، مروری بر آن داشته باشید.
آسان هلال
شما متن روایت خود را در یک اعلان ChatGPT میچسبانید و سپس به ChatGPT دستور میدهید تا متنی را که نوشتهاید تجزیه و تحلیل کند. مقاله خروجی حاصل ممکن است عمیقاً در جمله بندی شما نفوذ کند، و در کمال تعجب شما تلاش خواهد کرد تا به ظاهر معنای آنچه شما گفته اید را بررسی کند (به مراتب فراتر از عمل به عنوان یک غلط یاب یا یک تحلیل گر دستور زبان). برنامه هوش مصنوعی ممکن است ایراداتی را در منطق روایت شما تشخیص دهد یا ممکن است تناقضاتی را که شما نمیدانستید در نوشته خودتان وجود دارد را کشف کند. تقریباً به نظر می رسد که شما یک ویرایشگر انسانی حیله گر استخدام کرده اید تا پیش نویس خود را به چشم بیاورد و مجموعه ای از پیشنهادات مفید و نگرانی های ذکر شده را ارائه دهد (خب، من می خواهم به طور قاطع بگویم که من سعی نمی کنم برنامه هوش مصنوعی را انسان سازی کنم، به ویژه اینکه یک ویرایشگر انسانی یک انسان در حالی که برنامه هوش مصنوعی صرفا یک برنامه کامپیوتری است).
خدا را شکر که از برنامه هوش مصنوعی مولد برای بررسی دقیق روایت نوشتاری ارزشمند خود استفاده کردید. شما بدون شک ترجیح می دهید که هوش مصنوعی به جای ارسال سند به مشتری ارزشمند شما، آن مسائل نوشتاری نگران کننده را پیدا کند. تصور کنید که شما روایت را برای کسی نوشته اید که شما را استخدام کرده است تا تصویری کاملاً حیاتی طراحی کنید. اگر نسخه اصلی را به مشتری داده بودید، قبل از انجام بررسی برنامه هوش مصنوعی، ممکن است از شرمندگی بزرگ رنج ببرید. مشتری تقریباً مطمئناً در مورد مهارت های شما برای انجام کاری که درخواست شده است شک و تردید جدی دارد.
بیایید بالا برویم.
ایجاد اسناد قانونی را در نظر بگیرید. این بدیهی است که یک موضوع بسیار جدی است. کلمات و نحوه تشکیل آنها می تواند یک دفاع حقوقی روحیه یا یک فاجعه حقوقی ناگوار باشد.
در تحقیقات و مشاوره مداوم خود، من به طور منظم با بسیاری از وکلای دادگستری که علاقه زیادی به استفاده از هوش مصنوعی در زمینه حقوق دارند، تعامل دارم. برنامه های مختلف LegalTech به قابلیت های هوش مصنوعی متصل می شوند. یک وکیل می تواند از هوش مصنوعی برای تنظیم پیش نویس یک قرارداد یا تنظیم سایر اسناد قانونی استفاده کند. علاوه بر این، اگر وکیل پیشنویس اولیه را خودش تهیه کند، میتواند متن را به یک برنامه هوش مصنوعی تولیدی مانند ChatGPT بدهد تا نگاهی بیندازد و ببیند چه حفرهها یا شکافهایی ممکن است شناسایی شوند. برای اطلاعات بیشتر در مورد نحوه انتخاب وکلا و حوزه حقوقی برای استفاده از هوش مصنوعی، به بحث من در اینجا مراجعه کنید پیوند اینجا.
هر چند ما برای این کار آماده هستیم.
یک وکیل پیش نویس قرارداد را می گیرد و متن را در یک درخواست برای ChatGPT کپی می کند. برنامه هوش مصنوعی یک بررسی برای وکیل ایجاد می کند. معلوم شد که چندین گوچا توسط ChatGPT پیدا شده است. وکیل قرارداد را اصلاح می کند. آنها همچنین ممکن است از ChatGPT بخواهند که یک بازنویسی یا تکرار متن ساخته شده را برای آنها پیشنهاد کند. سپس یک نسخه جدید و بهتر از قرارداد توسط برنامه هوش مصنوعی مولد تولید می شود. وکیل متن خروجی را برداشته و آن را در یک فایل پردازش کلمه قرار می دهد. پیام به مشتری آنها می رود. ماموریت انجام شد.
آیا می توانید حدس بزنید که چه اتفاقی افتاده است؟
در پشت صحنه و زیر کاپوت، قرارداد ممکن است مانند ماهی در دهان نهنگ فرو رود. اگرچه این وکیل استفاده کننده از هوش مصنوعی ممکن است متوجه این موضوع نشود، متن قرارداد، همانطور که به عنوان یک درخواست در ChatGPT قرار داده شده است، ممکن است به طور بالقوه توسط برنامه هوش مصنوعی بلعیده شود. اکنون خوراکی برای تطبیق الگو و سایر پیچیدگی های محاسباتی برنامه هوش مصنوعی است. این به نوبه خود می تواند به طرق مختلف مورد استفاده قرار گیرد. اگر دادههای محرمانه در پیشنویس وجود داشته باشد، آن هم اکنون به طور بالقوه در محدوده ChatGPT است. درخواست شما همانطور که در برنامه هوش مصنوعی ارائه شده است، اکنون ظاهراً بخشی از مجموعه است.
علاوه بر این، مقاله خروجی نیز بخشی از مجموعه در نظر گرفته می شود. اگر از ChatGPT خواسته بودید که پیش نویس را برای شما اصلاح کند و نسخه جدید قرارداد را ارائه کند، این به عنوان یک مقاله خروجی تعبیر می شود. خروجیهای ChatGPT نیز نوعی محتوا هستند که میتوانند توسط برنامه هوش مصنوعی حفظ یا تغییر داده شوند.
بله، شما ممکن است بی گناه اطلاعات خصوصی یا محرمانه را در اختیار شما قرار داده باشید. خوب نیست. به علاوه، شما حتی نمیدانستید که این کار را کردهاید. هیچ پرچمی برافراشته نشد. بوق نمی زد هیچ چراغ چشمک زن خاموش نشد تا شما را در واقعیت شوکه کند.
ما ممکن است پیش بینی کنیم که غیر وکلا به راحتی چنین اشتباهی را مرتکب شوند، اما برای یک وکیل خبره انجام همان اشتباه تازه کار تقریبا غیرقابل تصور است. با این وجود، احتمالاً متخصصان حقوقی در حال حاضر همین اشتباه احتمالی را انجام می دهند. آنها خطر نقض یک عنصر قابل توجه از امتیاز وکیل-موکل و احتمالاً نقض الگوی قوانین رفتار حرفه ای انجمن وکلای آمریکا (ABA) را دارند. به ویژه: «وکیل نباید اطلاعات مربوط به وکالت موکل را فاش کند، مگر اینکه موکل رضایت آگاهانه بدهد، افشا به طور ضمنی به منظور انجام وکالت مجاز باشد یا افشای آن توسط بند (ب) مجاز باشد» (نقل از MRPC، و به نظر نمی رسد که استثنائات مربوط به بخش b شامل استفاده از یک برنامه هوش مصنوعی مولد به روشی غیر ایمن باشد).
برخی از وکلای دادگستری ممکن است به دنبال توجیه تخلف خود با این ادعا باشند که آنها جادوگر فناوری نیستند و هیچ وسیله آماده ای برای دانستن اینکه وارد کردن اطلاعات محرمانه آنها به یک برنامه هوش مصنوعی مولد ممکن است نوعی نقض باشد، نداشته اند. ABA تصریح کرده است که وظیفه وکلا شامل به روز بودن هوش مصنوعی و فناوری از منظر حقوقی است: «برای حفظ دانش و مهارت لازم، یک وکیل باید از تغییرات در قانون و عملکرد آن، از جمله، مطلع باشد. مزایا و خطرات مرتبط با فناوری مربوطه، درگیر ادامه تحصیل و آموزش باشید و با تمام الزامات آموزش حقوقی مستمری که وکیل مشمول آن است مطابقت داشته باشد.» (بر اساس MRPC).
مقررات متعددی در این ظاهر وظیفه قانونی آمده است، از جمله حفظ اطلاعات محرمانه مشتری (قانون 1.6)، حفاظت از دارایی مشتری مانند داده ها (قانون 1.15)، برقراری ارتباط صحیح با مشتری (قانون 1.4)، کسب رضایت آگاهانه مشتری (قانون 1.6). و اطمینان از نمایندگی شایسته از طرف مشتری (قانون 1.1). و همچنین قطعنامه کمتر شناخته شده اما بسیار قابل توجه متمرکز بر هوش مصنوعی توسط ABA وجود دارد: "اینکه انجمن وکلای آمریکا از دادگاه ها و وکلا می خواهد به مسائل اخلاقی و حقوقی نوظهور مربوط به استفاده از هوش مصنوعی ("AI") رسیدگی کنند. در اجرای قانون شامل: (1) تعصب، توضیح پذیری و شفافیت تصمیمات خودکار اتخاذ شده توسط هوش مصنوعی. (2) استفاده اخلاقی و سودمند از هوش مصنوعی؛ و (3) کنترل و نظارت بر هوش مصنوعی و فروشندگانی که هوش مصنوعی را ارائه می کنند.
سخنانی به خردمندان برای دوستان و همکاران حقوقی ام.
نکته اصلی این است که تقریباً هر کسی می تواند هنگام استفاده از هوش مصنوعی مولد خود را درگیر کند. غیر وکلا می توانند این کار را با عدم تدبیر قانونی خود انجام دهند. وکلا نیز می توانند این کار را انجام دهند، شاید شیفته هوش مصنوعی باشند یا نفس عمیقی نکشند و در مورد عواقب قانونی استفاده از هوش مصنوعی مولد فکر کنند.
همه ما به طور بالقوه در یک قایق هستیم.
همچنین باید بدانید که ChatGPT تنها برنامه هوش مصنوعی مولد در بلوک نیست. برنامه های مولد دیگری برای هوش مصنوعی وجود دارد که می توانید از آنها استفاده کنید. آنها نیز احتمالاً از همان پارچه بریده شده اند، یعنی ورودی هایی که به عنوان درخواست وارد می کنید و خروجی هایی که به عنوان مقالات خروجی تولید شده دریافت می کنید، بخشی از مجموعه در نظر گرفته می شوند و می توانند توسط سازنده هوش مصنوعی استفاده شوند.
در ستون امروز، من میخواهم ماهیت اینکه چگونه دادههایی که وارد میکنید و دادههایی که از هوش مصنوعی مولد دریافت میکنید میتوانند به طور بالقوه با توجه به حریم خصوصی و محرمانگی به خطر بیفتند را باز کنم. سازندگان هوش مصنوعی الزامات مجوز خود را در دسترس قرار می دهند و عاقلانه است که قبل از شروع به استفاده فعال از یک برنامه هوش مصنوعی با هر شباهتی از داده های واقعی، این شرایط حیاتی را مطالعه کنید. من شما را با نمونه ای از چنین مجوزهایی آشنا می کنم، این کار را برای برنامه ChatGPT AI انجام می دهم.
در همه این موارد، ملاحظات اخلاق هوش مصنوعی و قانون هوش مصنوعی وجود دارد.
لطفاً توجه داشته باشید که تلاشهای مداومی برای تطبیق اصول هوش مصنوعی اخلاقی در توسعه و پیادهسازی برنامههای هوش مصنوعی وجود دارد. گروه رو به رشدی از متخصصان اخلاق هوش مصنوعی نگران و قدیمی در تلاش هستند تا اطمینان حاصل کنند که تلاشها برای ابداع و پذیرش هوش مصنوعی، دیدگاهی از انجام دادن را در نظر میگیرد. هوش مصنوعی برای خوب و جلوگیری می کند هوش مصنوعی برای بد. به همین ترتیب، قوانین جدید هوش مصنوعی پیشنهاد شده است که به عنوان راه حلهای بالقوه برای جلوگیری از ابهام کردن تلاشهای هوش مصنوعی در مورد حقوق بشر و مواردی از این دست، مورد استفاده قرار میگیرند. برای پوشش مداوم و گسترده من از اخلاق هوش مصنوعی و قانون هوش مصنوعی، نگاه کنید به پیوند اینجا و پیوند اینجا، فقط به نام چند.
نکات ظریف اخلاقی و مقررات مهمی در ارتباط با نحوه برخورد سازندگان هوش مصنوعی با داده ها یا اطلاعاتی که برای کاربرانشان خصوصی یا محرمانه به نظر می رسد، وجود دارد. احتمالاً شما هم میدانید که مجموعهای از قوانین موجود به هسته اصلی نحوه مدیریت دادهها توسط نهادهای فناوری ضربه میزند. این احتمال نیز وجود دارد که قوانین جدید پیشنهادی هوش مصنوعی نیز در همان قلمرو متقاطع شوند. به عنوان مثال پوشش من در مورد را ببینید منشور حقوق هوش مصنوعی و سایر دعواهای حقوقی که در مورد هوش مصنوعی در جریان است، در پیوند اینجا.
نکته کلیدی این بحث در اینجا آمده است:
- هنگام استفاده از هوش مصنوعی مولد، در مورد اینکه چه دادهها یا اطلاعاتی را در دستورات خود قرار میدهید بسیار، بسیار، بسیار مراقب باشید، و به طور مشابه بسیار مراقب باشید و پیشبینی کنید که چه نوع مقالههای خروجی ممکن است دریافت کنید، زیرا خروجیها نیز میتوانند جذب شوند.
آیا این به این معنی است که شما نباید از هوش مصنوعی مولد استفاده کنید؟
نه، اصلاً این چیزی نیست که من می گویم.
از هوش مصنوعی مولد برای دلخواه خود استفاده کنید. نکته اصلی این است که شما باید مراقب نحوه استفاده از آن باشید. دریابید که چه نوع شرایط صدور مجوز با استفاده مرتبط است. تصمیم بگیرید که آیا می توانید با آن شرایط زندگی کنید یا خیر. اگر راههایی برای اطلاع دادن به سازنده هوش مصنوعی وجود دارد که میخواهید از انواع خاصی از محافظتها یا کمکهای اضافی استفاده کنید، مطمئن شوید که این کار را انجام میدهید.
من همچنین به یک جنبه دیگر اشاره خواهم کرد که متوجه شدم برخی افراد را دیوانه خواهد کرد. اینجا می رود. علیرغم هر شرایطی که برای صدور مجوز وجود دارد، باید فرض کنید که این شرایط ممکن است به طور کامل رعایت نشود. همه چیز ممکن است خراب شود. مواد ممکن است بین ترک ها بلغزند. در پایان، مطمئناً، ممکن است علیه یک سازنده هوش مصنوعی به دلیل عدم انطباق با شرایط آنها یک پرونده قانونی داشته باشید، اما این تا حدودی پس از خروج اسب از انبار است.
یک راه بالقوه بسیار ایمن برای ادامه، راهاندازی نمونه خود در سیستمهای خود، چه در فضای ابری یا داخلی (و با فرض اینکه به اقدامات احتیاطی مناسب امنیت سایبری پایبند هستید، که مسلماً برخی از آنها پیروی نمیکنند و بدتر هستند، خواهد بود. در ابر خودشان نسبت به استفاده از ابر فروشنده نرم افزار). البته کمی مشکل آزاردهنده این است که تعداد کمی از برنامه های مولد هوش مصنوعی در مقیاس بزرگ در حال حاضر این اجازه را می دهند. همه آنها تقریباً بر اساس ما فقط ابری کار می کنند. تعداد کمی این گزینه را در دسترس قرار داده اند که یک نمونه کامل را فقط برای شما حک شده است. من پیشبینی کردهام که به تدریج شاهد ظهور این گزینه خواهیم بود، اگرچه در ابتدا بسیار پرهزینه و تا حدودی پیچیده خواهد بود، پیشبینیهای من را در اینجا ببینید پیوند اینجا.
در غیر این صورت، افراد به ویژه باهوش و به ویژه زیرک چگونه خود را در باتلاق فرسایش محرمانه بودن داده ها یا اطلاعات قرار می دهند؟
جذابیت این برنامه های هوش مصنوعی مولد هنگامی که شروع به استفاده از یکی می کنید کاملاً مغناطیسی است. گام به گام، خود را مسحور میکنید و تصمیم میگیرید انگشتان پای خود را بیشتر و بیشتر در آبهای مولد هوش مصنوعی قرار دهید. نکته بعدی که می دانید این است که به راحتی محتوای اختصاصی را که قرار است خصوصی و محرمانه نگه داشته شود را به یک برنامه هوش مصنوعی مولد تحویل می دهید.
در برابر هوس مقاومت کنید و لطفاً از افتادن مرحلهبهگام در دام ناخوشایند خودداری کنید.
برای رهبران کسب و کار و مدیران سطح بالا، همان هشدار به شما و همه افراد در سراسر شرکت شما می رسد. مدیران ارشد نیز گرفتار اشتیاق و شگفتی استفاده از هوش مصنوعی مولد می شوند. آنها واقعاً می توانند به هم ریخته و به طور بالقوه اطلاعات مخفی سطح بالایی را در یک برنامه هوش مصنوعی وارد کنند.
علاوه بر این، آنها ممکن است لیگ های گسترده ای از کارمندان خود داشته باشند که با هوش مصنوعی مولد بازی می کنند. بسیاری از کارکنانی که در غیر این صورت آگاه هستند، بدون فکر و با خوشحالی اطلاعات خصوصی و محرمانه شرکت را در این برنامه های هوش مصنوعی وارد می کنند. طبق گزارشهای اخیر، آمازون ظاهراً کشف کرده است که برخی از کارمندان اطلاعات اختصاصی مختلفی را به ChatGPT وارد میکنند. گفته شده است که یک هشدار قانونی در داخل ارسال شده است تا در استفاده از برنامه غیرقابل مقاومت هوش مصنوعی احتیاط کنید.
به طور کلی، کمی طعنه آمیز به پدیده رو به افزایش کارمندانی که خواسته یا ناخواسته داده های محرمانه را به ChatGPT و سایر هوش مصنوعی مولد وارد می کنند، وارد می شود. اجازه بدهید توضیح بیشتری بدهم. شرکتهای مدرن امروزی معمولاً سیاستهای امنیتی سایبری سختگیرانهای دارند که به سختی آنها را طراحی و اجرا کردهاند. حفاظت های تکنولوژیکی متعددی وجود دارد. امید این است که از انتشار تصادفی موارد حیاتی جلوگیری شود. ضربات طبل مداوم این است که هنگام بازدید از وب سایت ها مراقب باشید، هنگام استفاده از برنامه های غیرمجاز و غیره مراقب باشید.
در کنار آن، اپلیکیشنهای هوش مصنوعی مانند ChatGPT وجود دارد. اخبار مربوط به برنامه هوش مصنوعی از پشت بام می گذرد و توجه گسترده ای را به خود جلب می کند. دیوانگی به وجود می آید. افرادی در این شرکتها که از تمام این حفاظتهای امنیت سایبری برخوردار هستند، تصمیم میگیرند از یک برنامه هوش مصنوعی مولد استفاده کنند. آنها در ابتدا بیهوده با آن بازی می کنند. سپس آنها شروع به وارد کردن داده های شرکت می کنند. وام، آنها اکنون به طور بالقوه اطلاعاتی را افشا کرده اند که نباید فاش می شد.
اسباببازی جدید براق که میلیونها دلار از هزینههای حفاظت از امنیت سایبری و آموزش مداوم در مورد کارهایی که نباید انجام داد را بهطور جادویی دور میزند. اما، هی، استفاده از هوش مصنوعی مولد و حضور در جمع "در" هیجان انگیز است. این چیزی است که اهمیت دارد، ظاهرا.
من اطمینان دارم که شما درمورد محتاط بودن من متوجه می شوید.
بیایید در ادامه نگاهی نزدیک بیندازیم به اینکه چگونه هوش مصنوعی مولد از نظر فنی با متن درخواستها و مقالات خروجی سروکار دارد. ما همچنین برخی از شرایط صدور مجوز را با استفاده از ChatGPT به عنوان مثال بررسی خواهیم کرد. لطفاً توجه داشته باشید که من قصد ندارم دامنه کامل آن عناصر مجوز را پوشش دهم. مطمئن شوید که مشاور حقوقی خود را برای هر کدام از برنامه های هوش مصنوعی مولد که ممکن است تصمیم به استفاده از آن داشته باشید، درگیر کنید. همچنین، صدور مجوز از سازنده هوش مصنوعی به سازنده هوش مصنوعی متفاوت است، به علاوه یک سازنده هوش مصنوعی میتواند مجوز خود را تغییر دهد، بنابراین مطمئن شوید که در مورد آخرین نسخه مجوز که تصریح میکند، مراقب باشید.
ما باید در مورد این موضوع پرهیجان باز کردن بسته بندی هیجان انگیزی انجام دهیم.
اول، ما باید مطمئن شویم که همه ما در مورد آنچه که هوش مصنوعی مولد از چه چیزی تشکیل شده و همچنین ChatGPT در یک صفحه هستیم. هنگامی که آن جنبه اساسی را پوشش دادیم، میتوانیم یک ارزیابی قانع کننده از استعاره آینهای مرتبط با این نوع هوش مصنوعی انجام دهیم.
اگر قبلاً با هوش مصنوعی Generative و ChatGPT آشنایی کامل دارید، میتوانید بخش بعدی را مرور کنید و به بخش بعدی بروید. من معتقدم که بقیه با مطالعه دقیق بخش و به روز شدن، جزئیات حیاتی در مورد این موضوعات را آموزنده خواهند یافت.
پرایمر سریع درباره هوش مصنوعی و ChatGPT
ChatGPT یک سیستم مکالمه محور تعاملی هوش مصنوعی همه منظوره است، که اساساً یک چت بات عمومی به ظاهر بی ضرر است، با این وجود، همانطور که به زودی توضیح خواهم داد، به طور فعال و مشتاقانه توسط افراد استفاده می شود که بسیاری را کاملاً غیرممکن می کند. این برنامه هوش مصنوعی از یک تکنیک و فناوری در قلمرو هوش مصنوعی استفاده می کند که اغلب به آن اشاره می شود هوش مصنوعی مولد. هوش مصنوعی خروجی هایی مانند متن را تولید می کند، کاری که ChatGPT انجام می دهد. سایر برنامههای هوش مصنوعی مبتنی بر تولید تصاویری مانند تصاویر یا آثار هنری تولید میکنند، در حالی که برخی دیگر فایلهای صوتی یا ویدیو تولید میکنند.
در این بحث روی برنامههای هوش مصنوعی مبتنی بر متن تمرکز میکنم زیرا ChatGPT این کار را انجام میدهد.
استفاده از برنامه های هوش مصنوعی مولد بسیار آسان است.
تنها کاری که باید انجام دهید این است که یک درخواست وارد کنید و برنامه هوش مصنوعی برای شما مقاله ای ایجاد می کند که سعی می کند به درخواست شما پاسخ دهد. متن ساخته شده به نظر می رسد که گویی مقاله توسط دست و ذهن انسان نوشته شده است. اگر میخواهید پیامی را وارد کنید که میگوید «درباره آبراهام لینکلن به من بگویید»، هوش مصنوعی مولد مقالهای درباره لینکلن در اختیار شما قرار میدهد. این معمولاً به عنوان هوش مصنوعی مولد طبقه بندی می شود که انجام می دهد متن به متن یا برخی ترجیح می دهند آن را صدا کنند متن به مقاله خروجی همانطور که گفته شد، حالت های دیگری از هوش مصنوعی مولد وجود دارد، مانند تبدیل متن به هنر و متن به ویدئو.
اولین فکر شما ممکن است این باشد که این قابلیت مولد از نظر تولید مقاله چندان مهم به نظر نمی رسد. شما به راحتی می توانید یک جستجوی آنلاین در اینترنت انجام دهید و به راحتی هزاران مقاله در مورد رئیس جمهور لینکلن پیدا کنید. نکته مهم در مورد هوش مصنوعی مولد این است که مقاله تولید شده نسبتاً منحصر به فرد است و یک ترکیب اصلی را به جای یک کپی ارائه می دهد. اگر بخواهید مقاله تولید شده توسط هوش مصنوعی را در جایی آنلاین پیدا کنید، بعید است که آن را کشف کنید.
هوش مصنوعی مولد از قبل آموزش داده شده است و از یک فرمول پیچیده ریاضی و محاسباتی استفاده می کند که با بررسی الگوها در کلمات نوشته شده و داستان ها در سراسر وب تنظیم شده است. در نتیجه بررسی هزاران و میلیونها متن نوشته شده، هوش مصنوعی میتواند مقالات و داستانهای جدیدی را منتشر کند که ترکیبی از آنچه پیدا شده است. با افزودن عملکردهای احتمالی مختلف، متن حاصل در مقایسه با آنچه در مجموعه آموزشی استفاده شده است، تقریباً منحصر به فرد است.
به همین دلیل است که سر و صدایی در مورد اینکه دانش آموزان می توانند هنگام نوشتن انشا در خارج از کلاس درس تقلب کنند، به وجود آمده است. یک معلم نمیتواند صرفاً این مقاله را که دانشآموزان فریبکار ادعا میکنند نوشته خودشان است، بپذیرد و به دنبال این باشد که بفهمد آیا این مقاله از منبع آنلاین دیگری کپی شده است یا خیر. به طور کلی، هیچ مقاله قطعی و قطعی آنلاین وجود نخواهد داشت که متناسب با مقاله تولید شده توسط هوش مصنوعی باشد. در مجموع، معلم باید با اکراه بپذیرد که دانش آموز مقاله را به عنوان یک اثر اصلی نوشته است.
نگرانی های بیشتری در مورد هوش مصنوعی مولد وجود دارد.
یکی از نکات منفی مهم این است که مقالات تولید شده توسط یک برنامه هوش مصنوعی مبتنی بر مولد میتوانند دارای کاذبهای مختلفی باشند، از جمله حقایق آشکارا نادرست، حقایقی که بهطور گمراهکننده به تصویر کشیده شدهاند، و حقایق ظاهری که کاملاً ساختگی هستند. آن جنبه های ساختگی اغلب به عنوان شکلی از نامیده می شود توهمات هوش مصنوعیجملاتی که من از آن خوشم نمیآیند، اما به نظر میرسد که به هر حال با کمال تاسف در حال جلب توجه مردم است (برای توضیح دقیق من در مورد اینکه چرا این اصطلاحات بد و نامناسب است، به پوشش من در پیوند اینجا).
من می خواهم قبل از پرداختن به بحث در مورد این موضوع، یک جنبه مهم را روشن کنم.
در مورد این موضوع در شبکههای اجتماعی ادعاهای بزرگی وجود دارد هوش مصنوعی مولد ادعا می کند که این آخرین نسخه از هوش مصنوعی در واقع است هوش مصنوعی حساس (نه، آنها اشتباه می کنند!). کسانی که در اخلاق هوش مصنوعی و قانون هوش مصنوعی هستند به طور مشخص نگران این روند رو به رشد ادعاهای گسترده هستند. ممکن است مودبانه بگویید که برخی افراد درباره آنچه که هوش مصنوعی امروزی واقعاً می تواند انجام دهد اغراق می کنند. آنها تصور می کنند که هوش مصنوعی دارای قابلیت هایی است که ما هنوز نتوانسته ایم به آنها دست پیدا کنیم. این مایه تاسف است. بدتر از آن، آنها میتوانند به خود و دیگران اجازه دهند در موقعیتهای وخیم قرار بگیرند، زیرا این تصور وجود دارد که هوش مصنوعی هوشیار یا انسانمانند خواهد بود تا بتواند اقدامی انجام دهد.
هوش مصنوعی را انسان سازی نکنید.
انجام این کار شما را در یک تله اتکای چسبناک و بی حوصله گرفتار می کند که انتظار دارید هوش مصنوعی کارهایی را انجام دهد که قادر به انجام آن نیست. با توجه به آنچه گفته شد، جدیدترین هوش مصنوعی مولد برای کارهایی که می تواند انجام دهد نسبتاً چشمگیر است. البته توجه داشته باشید که محدودیت های قابل توجهی وجود دارد که باید به طور مداوم هنگام استفاده از هر برنامه هوش مصنوعی مولد در نظر داشته باشید.
اگر به هیاهوی به سرعت در حال گسترش در مورد ChatGPT و هوش مصنوعی Generative که همه گفته شد علاقه دارید، من یک سری متمرکز در ستون خود انجام داده ام که ممکن است برای شما آموزنده باشد. اگر هر یک از این موضوعات مورد توجه شما قرار بگیرد، در اینجا نگاهی اجمالی داریم:
- 1) پیش بینی پیشرفت های مولد هوش مصنوعی. اگر میخواهید بدانید چه چیزی در مورد هوش مصنوعی در طول سال 2023 و بعد از آن، از جمله پیشرفتهای آتی در هوش مصنوعی و ChatGPT، ممکن است بدانید، میخواهید فهرست جامع پیشبینیهای سال 2023 من را در اینجا بخوانید. پیوند اینجا.
- 2) هوش مصنوعی و مشاوره سلامت روان. من تصمیم گرفتم بررسی کنم که چگونه از هوش مصنوعی و ChatGPT مولد برای مشاوره سلامت روان استفاده می شود، روندی دردسرساز، بر اساس تجزیه و تحلیل متمرکز من در پیوند اینجا.
- 3) مبانی هوش مصنوعی و ChatGPT. این بخش به بررسی عناصر کلیدی نحوه عملکرد هوش مصنوعی مولد میپردازد و بهویژه در برنامه ChatGPT، از جمله تجزیه و تحلیل وزوز و هیاهو، به بررسی میپردازد. پیوند اینجا.
- 4) تنش بین معلمان و دانش آموزان بر سر هوش مصنوعی و ChatGPT. در اینجا روشهایی وجود دارد که دانشآموزان از هوش مصنوعی مولد و ChatGPT استفاده میکنند. علاوه بر این، راه های مختلفی برای معلمان وجود دارد تا با این موج جزر و مدی مقابله کنند. دیدن پیوند اینجا.
- 5) زمینه و استفاده از هوش مصنوعی مولد. من همچنین یک معاینه فصلی زبان در گونه در مورد زمینه مرتبط با بابانوئل انجام دادم که شامل ChatGPT و هوش مصنوعی در پیوند اینجا.
- 6) کلاهبردارانی که از هوش مصنوعی مولد استفاده می کنند. در یک یادداشت شوم، برخی از کلاهبرداران متوجه شدهاند که چگونه از هوش مصنوعی و ChatGPT برای انجام کارهای خلاف استفاده کنند، از جمله ایجاد ایمیلهای کلاهبرداری و حتی تولید کد برنامهنویسی برای بدافزار، به تحلیل من در اینجا مراجعه کنید. پیوند اینجا.
- 7) اشتباهات تازه کار با استفاده از هوش مصنوعی. بسیاری از مردم هم از آنچه که هوش مصنوعی و ChatGPT مولد میتوانند انجام دهند، غافلگیر میشوند و بهطور شگفتانگیزی کمکم میکنند، بنابراین من بهویژه به کمنظمیهایی که تازهکاران هوش مصنوعی تمایل دارند انجام دهند، نگاه کنید. پیوند اینجا.
- 8) مقابله با هشدارهای هوش مصنوعی و توهمات هوش مصنوعی. من یک رویکرد پیشرفته برای استفاده از افزونههای هوش مصنوعی برای مقابله با مسائل مختلف مرتبط با تلاش برای وارد کردن اعلانهای مناسب در هوش مصنوعی مولد را توضیح میدهم، بهعلاوه افزونههای هوش مصنوعی اضافی برای تشخیص به اصطلاح خروجیها و دروغهای توهمآمیز هوش مصنوعی وجود دارد. پوشیده شده در پیوند اینجا.
- 9) رد ادعاهای Bonehead در مورد شناسایی مقالات تولید شده توسط هوش مصنوعی. هجوم نادرستی از برنامههای هوش مصنوعی وجود دارد که اعلام میکنند میتوانند مشخص کنند که آیا هر مقالهای که توسط انسان تولید شده است یا خیر. به طور کلی، این گمراه کننده است و در برخی موارد، یک ادعای بی اساس و غیرقابل دفاع است، پوشش من را در پیوند اینجا.
- 10) ایفای نقش از طریق هوش مصنوعی مولد ممکن است معایب سلامت روان را به همراه داشته باشد. برخی از هوش مصنوعی مولد مانند ChatGPT برای انجام نقش آفرینی استفاده می کنند، به موجب آن برنامه هوش مصنوعی به انسان پاسخ می دهد که انگار در یک دنیای فانتزی یا سایر تنظیمات ساختگی وجود دارد. این می تواند پیامدهای سلامت روانی داشته باشد، ببینید پیوند اینجا.
- 11) افشای محدوده خطاها و نادرست های خروجی. فهرستهای مختلف جمعآوری شده در کنار هم قرار میگیرند تا ماهیت خطاها و نادرستهای تولید شده توسط ChatGPT را نشان دهند. برخی معتقدند این ضروری است، در حالی که برخی دیگر می گویند که تمرین بیهوده است، تحلیل من را در اینجا ببینید پیوند اینجا.
- 12) مدارسی که AI Generative ChatGPT را ممنوع می کنند، قایق را از دست داده اند. ممکن است بدانید که مدارس مختلف مانند اداره آموزش شهر نیویورک (NYC) استفاده از ChatGPT را در شبکه و دستگاه های مرتبط خود ممنوع اعلام کرده اند. اگرچه این ممکن است یک اقدام احتیاطی مفید به نظر برسد، اما سوزن را حرکت نمی دهد و متأسفانه به طور کامل قایق را از دست می دهد، پوشش من را در اینجا ببینید پیوند اینجا.
- 13) ChatGPT AI مولد به دلیل API آینده در همه جا خواهد بود. یک پیچ مهم در مورد استفاده از ChatGPT وجود دارد، یعنی از طریق استفاده از یک پورتال API در این برنامه هوش مصنوعی خاص، سایر برنامه های نرم افزاری می توانند ChatGPT را فراخوانی و استفاده کنند. این به طور چشمگیری استفاده از هوش مصنوعی مولد را گسترش خواهد داد و عواقب قابل توجهی در پی خواهد داشت، به توضیح من در پیوند اینجا.
- 14) راه هایی که ChatGPT ممکن است از بین برود یا از بین برود. چندین مشکل آزاردهنده بالقوه پیش روی ChatGPT قرار دارد که از ستایش فوقالعادهای که تاکنون دریافت کرده است، کم کرده است. این تجزیه و تحلیل از نزدیک هشت مشکل احتمالی را بررسی می کند که می تواند باعث شود ChatGPT قدرت خود را از دست بدهد و حتی به خانه سگ ختم شود. پیوند اینجا.
شاید برایتان جالب باشد که ChatGPT بر اساس نسخهای از یک برنامه هوش مصنوعی پیشین به نام GPT-3 است. ChatGPT به عنوان یک مرحله کمی بعدی در نظر گرفته می شود که به آن GPT-3.5 می گویند. پیشبینی میشود که GPT-4 احتمالاً در بهار سال 2023 منتشر شود. احتمالاً GPT-4 از نظر توانایی تولید مقالات به ظاهر روانتر، عمیقتر شدن و شگفتانگیز بودن، گامی چشمگیر به جلو خواهد بود. شگفتی الهام بخش از ترکیباتی که می تواند تولید کند.
شما می توانید انتظار داشته باشید که وقتی بهار فرا می رسد و جدیدترین هوش مصنوعی مولد منتشر می شود، دور جدیدی از ابراز تعجب را مشاهده کنید.
من این را مطرح می کنم زیرا زاویه دیگری وجود دارد که باید در نظر داشت، که شامل یک پاشنه آشیل بالقوه برای این برنامه های هوش مصنوعی مولد بهتر و بزرگتر است. اگر هر فروشنده هوش مصنوعی یک برنامه هوش مصنوعی مولد را در دسترس قرار دهد که به صورت کف آلود ناپاکی ها را بیرون می زند، این می تواند امید آن سازندگان هوش مصنوعی را از بین ببرد. یک سرریز اجتماعی می تواند باعث شود همه هوش مصنوعی مولد دچار سیاهی چشم شوند. مردم بدون شک از خروجی های ناخوشایند بسیار ناراحت خواهند شد، که قبلاً بارها اتفاق افتاده و منجر به واکنش شدید محکومیت های اجتماعی نسبت به هوش مصنوعی شده است.
یک هشدار نهایی در حال حاضر.
هر آنچه را که در یک پاسخ هوش مصنوعی مولد می بینید یا می خوانید به نظر می رسد برای اینکه کاملاً واقعی باشد (تاریخ، مکان ها، افراد و غیره)، مطمئن شوید که شک دارید و مایل باشید آنچه را می بینید دوباره بررسی کنید.
بله، خرما را می توان جعل کرد، مکان ها را می توان ساخت، و عناصری که معمولاً انتظار داریم بیش از حد ملامت باشند. تمام در معرض سوء ظن آنچه را که می خوانید باور نکنید و هنگام بررسی هر مقاله یا خروجی هوش مصنوعی با شک و تردید نگاه کنید. اگر یک اپلیکیشن مولد هوش مصنوعی به شما بگوید که آبراهام لینکلن با جت شخصی خود در سراسر کشور پرواز کرده است، بدون شک متوجه خواهید شد که این یک بیماری ناخوشایند است. متأسفانه، برخی از مردم ممکن است متوجه نباشند که جتها در زمان او وجود نداشتند، یا ممکن است بدانند اما متوجه این موضوع نشوند که این مقاله این ادعای گستاخانه و بهشدت نادرست را دارد.
دوز قوی از شک و تردید سالم و ذهنیت ناباوری مداوم بهترین دارایی شما در هنگام استفاده از هوش مصنوعی مولد خواهد بود.
ما آماده هستیم تا وارد مرحله بعدی این شفاف سازی شویم.
دانستن اینکه شیطان با آن متن چه خواهد شد
اکنون که اصول اولیه را مشخص کردهایم، میتوانیم در هنگام استفاده از هوش مصنوعی مولد به بررسی دادهها و ملاحظات اطلاعاتی بپردازیم.
ابتدا، اجازه دهید به طور خلاصه در نظر بگیریم که چه اتفاقی میافتد وقتی متنی را در یک درخواست ChatGPT وارد میکنید. ما به طور قطع نمی دانیم که در ChatGPT چه اتفاقی می افتد زیرا برنامه اختصاصی در نظر گرفته می شود. برخی اشاره کردهاند که این امر حس شفافیت را در مورد برنامه هوش مصنوعی کاهش میدهد. یک اظهار نظر تا حدی خنده دار این است که برای شرکتی که OpenAI نام دارد، هوش مصنوعی آنها در واقع برای دسترسی عمومی بسته است و به عنوان منبع باز در دسترس نیست.
بیایید در مورد توکن سازی بحث کنیم.
وقتی متن ساده را در یک درخواست وارد میکنید و بازگشت را فشار میدهید، احتمالاً تبدیلی وجود دارد که بلافاصله اتفاق میافتد. متن به قالبی متشکل از نشانه ها تبدیل می شود. نشانه ها زیر بخش های کلمات هستند. به عنوان مثال، کلمه "همبرگر" به طور معمول به سه نشانه متشکل از بخش "هام"، "بور" و "گر" تقسیم می شود. یک قانون سرانگشتی این است که نشانهها معمولاً حدود چهار کاراکتر را نشان میدهند یا تقریباً 75٪ از یک کلمه انگلیسی معمولی در نظر گرفته میشوند.
سپس هر نشانه به عنوان یک عدد مجدداً فرموله می شود. جداول داخلی مختلف مشخص می کنند که کدام نشانه به کدام عدد خاص اختصاص داده شده است. برداشت در این مورد این است که متنی که وارد کردید اکنون کاملاً مجموعه ای از اعداد است. این اعداد برای تحلیل محاسباتی اعلان استفاده می شوند. علاوه بر این، شبکه تطبیق الگو که قبلاً ذکر کردم نیز بر اساس مقادیر نشانه گذاری شده است. در نهایت، هنگام نوشتن یا تولید مقاله خروجی، ابتدا از این نشانه های عددی استفاده می شود و سپس قبل از نمایش، نشانه ها دوباره به مجموعه ای از حروف و کلمات تبدیل می شوند.
درباره اش لحظه ای فکر کن.
وقتی به مردم می گویم که مکانیک پردازش اینگونه است، اغلب مبهوت می شوند. آنها فرض کردند که یک برنامه هوش مصنوعی مولد مانند ChatGPT باید از کلمات کاملاً یکپارچه استفاده کند. ما منطقاً فرض می کنیم که کلمات به عنوان سنگ اصلی برای شناسایی آماری روابط در روایت ها و ترکیبات نوشتاری عمل می کنند. معلوم می شود که پردازش در واقع تمایل به استفاده از نشانه ها دارد. شاید این موضوع به شگفتی اضافه کند که چگونه به نظر می رسد فرآیند محاسباتی کار کاملاً قانع کننده ای در تقلید از زبان انسان انجام می دهد.
من شما را از طریق این فرآیند به دلیل یک تصور غلط رایج که به نظر می رسد در حال گسترش است، راهنمایی کردم. به نظر میرسد برخی افراد معتقدند که چون متن درخواستی شما به نشانههای عددی تبدیل میشود، مطمئن هستید که قسمتهای داخلی برنامه هوش مصنوعی دیگر متن اصلی وارد شده شما را ندارد. بنابراین، این ادعا ادامه مییابد، حتی اگر اطلاعات محرمانهای را در درخواست خود وارد کرده باشید، هیچ نگرانی ندارید زیرا همه آنها به ظاهر توکن شدهاند.
این تصور یک اشتباه است. من فقط به این نکته اشاره کردم که نشانه های عددی را می توان به آسانی به قالب متنی حروف و کلمات بازگرداند. همین کار را می توان با دستور تبدیل شده که توکنیزه شده انجام داد. هیچ چیز محافظ جادویی در مورد توکن شدن وجود ندارد. همانطور که گفته شد، پس از تبدیل به توکن، اگر یک فرآیند اضافی وجود داشته باشد که بخواهد توکنها را کنار بگذارد، آنها را جابهجا کند، و در غیر این صورت چیزها را به هم بزنید یا خرد کنید، در این صورت، واقعاً این احتمال وجود دارد که برخی از بخشهای اصلی اعلانها دیگر دست نخورده نیستند (و با این فرض که یک کپی اصلی در جای دیگری حفظ یا ذخیره نشده است).
میخواهم در ادامه نگاهی به اعلانهای مختلف و مقررات مجوز ChatGPT بیندازم.
هنگامی که وارد ChatGPT می شوید، یک سری هشدارها و نظرات اطلاعاتی نمایش داده می شود.
اینجا اند:
- "ممکن است گهگاه اطلاعات نادرستی ایجاد کند."
- "ممکن است گهگاه دستورالعمل های مضر یا محتوای مغرضانه تولید کند."
- "آموزش داده شده تا درخواست های نامناسب را رد کند."
- "هدف ما دریافت بازخورد خارجی به منظور بهبود سیستم ها و ایمن تر کردن آنها است."
- «در حالی که ما پادمانهایی داریم، سیستم ممکن است گاهی اطلاعات نادرست یا گمراهکننده تولید کند و محتوای توهینآمیز یا مغرضانه تولید کند. هدف آن نصیحت نیست.»
- "مکالمات ممکن است توسط مربیان هوش مصنوعی ما برای بهبود سیستم های ما بررسی شود."
- "لطفا هیچ اطلاعات حساسی را در مکالمات خود به اشتراک نگذارید."
- این سیستم برای گفتگو بهینه شده است. به ما اطلاع دهید که آیا یک پاسخ خاص خوب یا غیر مفید بوده است.»
- "دانش محدود از جهان و رویدادهای پس از سال 2021."
دو مورد از آن احتیاط های بیان شده به ویژه به این بحث مربوط می شود. به نقطه گلوله ششم و نقطه گلوله هفتم نگاه کنید.
بیایید این دو را باز کنیم:
"مکالمات ممکن است توسط مربیان هوش مصنوعی ما برای بهبود سیستم های ما بررسی شود."
این ششمین نقطه گلوله توضیح میدهد که مکالمات متنی هنگام استفاده از ChatGPT ممکن است توسط ChatGPT از طریق "آموزشدهندههای هوش مصنوعی" که برای بهبود سیستم آنها انجام میشود، بررسی شود. این به اطلاع شما میرساند که برای هر یک و همه پیامهای متنی وارد شده و مقالههای خروجی مربوطه، که همگی بخشی از «مکالمهای» هستند که با ChatGPT انجام میدهید، کاملاً توسط افراد آنها قابل مشاهده است. منطق ارائه شده این است که این کار برای بهبود برنامه هوش مصنوعی انجام می شود، و همچنین به ما گفته می شود که این یک نوع کار است که توسط مربیان هوش مصنوعی آنها انجام می شود. شاید اینطور باشد، اما نتیجه این است که آنها به شما هشدار داده اند که می توانند به متن شما نگاه کنند. دوره، نقطه پایان.
اگر بخواهند کار دیگری با متن شما انجام دهند، احتمالاً به دنبال مشاوره حقوقی در مورد اینکه آیا آنها به شدت فراتر از محدودیت های پیشنهادی صرفاً بازبینی متن برای اهداف بهبود سیستم بوده اند (با فرض اینکه شما موفق شده باشید متوجه شوید که آنها این کار را انجام داده اند، کمک می کنید. خود شاید بعید به نظر می رسد). به هر حال، میتوانید کشمکشهای حقوقی تلاش برای شناسایی آنها در این مورد، و تلاشهای آنها برای پیدا کردن راههای رهایی از دستگیری به دلیل نقض محدودیتهای سلب مسئولیت خود را تصور کنید.
"لطفا هیچ اطلاعات حساسی را در مکالمات خود به اشتراک نگذارید."
نقطه گلوله هفتم نشان می دهد که شما نباید هیچ اطلاعات حساسی را در مکالمات خود به اشتراک بگذارید. این نسبتاً ساده به نظر می رسد. فکر میکنم ممکن است در مورد اینکه تعریف اطلاعات حساس از چه چیزی تشکیل شده است بحث کنید. همچنین، نقطه گلوله به شما نمی گوید که چرا نباید هیچ اطلاعات حساسی را به اشتراک بگذارید. اگر روزی مجبور شدید تلاش کنید و با عرق شدید توضیح دهید که چرا دادههای محرمانه را احمقانه وارد کردهاید، ممکن است این ادعای ابروی برجسته را امتحان کنید که هشدار غیراختصاصی بوده است، بنابراین، اهمیت آن را درک نکردهاید. نفست رو روی اون یکی نگه دار
در مجموع، به جرأت میتوانم بگویم که اکثر افرادی که از ChatGPT استفاده میکنند تمایل دارند نقاط گلولهشده را نخوانند، یا از اقدامات احتیاطی گلولهای دوری میکنند و فقط سرشان را تکان میدهند که گویی این یک قانون مزخرف معمولی است که همه موارد را میبینید. زمان. به نظر می رسد تعداد کمی از هشدارها را جدی بگیرند. آیا این تقصیر فروشنده است که اقدامات احتیاطی را بیشتر انجام نمی دهد؟ یا باید فرض کنیم که کاربران باید مسئولیت پذیر باشند و بر اساس اخطارها آگاهانه خوانده، درک کرده و متعاقباً عاقلانه عمل کنند؟
برخی حتی ادعا می کنند که برنامه هوش مصنوعی باید مکرراً به شما هشدار دهد. هر بار که درخواستی را وارد میکنید، نرمافزار باید یک هشدار ظاهر شود و از شما بپرسد که آیا میخواهید بازگشت را بزنید یا خیر. دوباره و دوباره. اگرچه ممکن است این یک اقدام احتیاطی مفید به نظر برسد، مسلماً باعث ناراحتی کاربران خواهد شد. یک معامله خاردار درگیر است.
بسیار خوب، پس اینها احتیاط های آشکاری هستند که برای همه کاربران ارائه شده است تا به راحتی آن را ببینند.
کاربرانی که ممکن است کنجکاوتر باشند، می توانند برخی از مقررات مجوز دقیق را که به صورت آنلاین نیز ارسال شده است، دنبال کنند. من شک دارم که بسیاری این کار را انجام دهند. تصور من این است که تعداد کمی از افراد هنگام ورود به سیستم به طور جدی به نقاط گلولهای نگاه میکنند، و حتی تعداد کمی از آنها با اختلاف زیادی به جزئیات مجوز نگاه میکنند. باز هم این روزها همه ما تا حدودی نسبت به چنین چیزهایی بی حس شده ایم. من این رفتار را توجیه نمی کنم، فقط به دلیل وقوع آن اشاره می کنم.
من چند گزیده از شرایط صدور مجوز را بررسی خواهم کرد.
ابتدا، در اینجا تعریفی از آنچه که آنها "محتوا" مرتبط با استفاده از ChatGPT را در نظر می گیرند آورده شده است:
- «محتوای شما. شما می توانید ورودی به سرویس ها ("ورودی") ارائه دهید و خروجی های تولید شده و برگردانده شده توسط سرویس ها را بر اساس ورودی ("خروجی") دریافت کنید. ورودی و خروجی در مجموع «محتوا» هستند. بین طرفین و تا حدی که قانون قابل اجرا اجازه می دهد، شما مالک تمام ورودی ها هستید و با توجه به رعایت این شرایط، OpenAI بدینوسیله تمام حقوق، عنوان و منافع خود را در و به خروجی به شما واگذار می کند. OpenAI ممکن است در صورت لزوم از محتوا برای ارائه و نگهداری سرویس ها، پیروی از قوانین قابل اجرا و اجرای خط مشی های ما استفاده کند. شما مسئول محتوا هستید، از جمله اینکه اطمینان حاصل کنید که قوانین قابل اجرا یا این شرایط را نقض نمی کند."
اگر این تعریف را به دقت بررسی کنید، متوجه خواهید شد که OpenAI اعلام میکند که میتواند برای حفظ خدماتش، از جمله پیروی از قوانین قابل اجرا و اجرای خطمشیهایش، از محتوا آنطور که لازم میداند استفاده کند. این یک ابزار مفید برای آنها است. در یکی از ستونهای آیندهام، درباره موضوعی متفاوت اما مرتبط بحث خواهم کرد، بهویژه در مورد حقوق مالکیت معنوی (IP) که شما در رابطه با پیامهای متنی وارد شده و مقالات خروجی دارید (من در اینجا از زمان تعریف محتوا مربوط به آن موضوع است).
در بخش دیگری از اصطلاحات که با عنوان بخش c برچسب گذاری شده است، آنها به این جنبه اشاره می کنند: "یکی از مزایای اصلی مدل های یادگیری ماشینی این است که می توان آنها را در طول زمان بهبود بخشید. برای کمک به OpenAI در ارائه و حفظ سرویسها، موافقت میکنید و دستور میدهید که ما ممکن است از محتوا برای توسعه و بهبود خدمات استفاده کنیم.» این شبیه به احتیاط یک خطی قبلی است که هنگام ورود به ChatGPT ظاهر می شود.
یک سند جداگانه که به این موضوع مرتبط است، برخی از جنبه های اضافی را در مورد این موضوعات مهم ارائه می دهد:
- «به عنوان بخشی از این بهبود مستمر، وقتی از مدلهای OpenAI از طریق API ما استفاده میکنید، ممکن است از دادههایی که به ما ارائه میدهید برای بهبود مدلهایمان استفاده کنیم. این نه تنها به مدل های ما کمک می کند تا در حل مشکل خاص شما دقیق تر و بهتر شوند، بلکه به بهبود قابلیت های عمومی و ایمنی آنها نیز کمک می کند. ما می دانیم که حفظ حریم خصوصی و امنیت داده ها برای مشتریان ما حیاتی است. ما بسیار مراقب هستیم که از کنترل های فنی و فرآیندی مناسب برای ایمن سازی داده های شما استفاده کنیم. ما هر گونه اطلاعات قابل شناسایی شخصی را از داده هایی که قصد استفاده از آنها برای بهبود عملکرد مدل را داریم حذف می کنیم. ما همچنین تنها از نمونه کوچکی از داده ها برای هر مشتری برای تلاش های خود برای بهبود عملکرد مدل استفاده می کنیم. به عنوان مثال، برای یک کار، حداکثر تعداد درخواستهای API که به ازای هر مشتری نمونهبرداری میکنیم، 200 درخواست در هر 6 ماه محدود میشود» (برگرفته از سندی با عنوان «چگونه از دادههای شما برای بهبود عملکرد مدل استفاده میشود»).
توجه داشته باشید که شرط بیانگر آن است که این حکم در مورد استفاده از API به عنوان وسیله ای برای اتصال و استفاده از مدل های OpenAI همه گفته شد. این که آیا این به همان اندازه برای کاربران نهایی که مستقیماً از ChatGPT استفاده می کنند صدق می کند تا حدودی مبهم است.
در سندی متفاوت، سندی که حاوی فهرست پرسشهای متداول مختلف است، آنها مجموعهای از پرسشها و پاسخها را ارائه میکنند که دو مورد از آنها بهخصوص مرتبط با این بحث به نظر میرسد:
- (5) چه کسی می تواند مکالمات من را مشاهده کند؟ به عنوان بخشی از تعهدمان به هوش مصنوعی ایمن و مسئولانه، ما مکالمات را بررسی می کنیم تا سیستم های خود را بهبود بخشیم و اطمینان حاصل کنیم که محتوا با خط مشی ها و الزامات ایمنی ما مطابقت دارد.
- (8) آیا میتوانید درخواستهای خاصی را حذف کنید؟ نه، ما نمیتوانیم درخواستهای خاصی را از سابقه شما حذف کنیم. لطفا هیچ اطلاعات حساسی را در مکالمات خود به اشتراک نگذارید.»
یک سند اضافی وجود دارد که خط مشی رازداری آنها را پوشش می دهد. این میگوید: «ما اطلاعاتی را جمعآوری میکنیم که به تنهایی یا در ترکیب با سایر اطلاعاتی که در اختیار داریم میتواند برای شناسایی شما استفاده شود («اطلاعات شخصی»)» و سپس توضیح میدهیم که ممکن است از دادههای گزارش، دادههای استفاده، اطلاعات ارتباطی استفاده کنند. اطلاعات دستگاه، کوکی ها، تجزیه و تحلیل و سایر اطلاعات بالقوه قابل جمع آوری درباره شما. چاپ ریز را حتما بخوانید.
من فکر می کنم که تقریباً یک تور از برخی ملاحظات اساسی در مورد نحوه استفاده از داده های شما ارائه می دهد. همانطور که در ابتدا ذکر کردم، قرار نیست با زحمت تمام شرایط صدور مجوز را انجام دهم.
امیدواریم که این شما را در یک چارچوب ذهنی در مورد این مسائل قرار دهد و در ذهن شما باقی بماند.
نتیجه
قبلاً گفتهام و باز هم میگویم، دادههای محرمانه یا خصوصی را در این برنامههای هوش مصنوعی مولد وارد نکنید.
چند نکته یا گزینه مفید را در مورد این توصیه حکیم در نظر بگیرید:
- قبل از استفاده از هوش مصنوعی مولد فکر کنید
- موارد را از قبل حذف کنید
- ورودی خود را بپوشانید یا جعل کنید
- نمونه خود را تنظیم کنید
- دیگر
بعداً نشان میدهم که هر یک از آنها از چه چیزی تشکیل شده است. تنظیم نمونه خود قبلاً در اینجا پوشش داده شد. استفاده از «دیگر» در فهرست من به دلیل امکان روشهای دیگری برای مقابله با جلوگیری از گنجاندن دادههای محرمانه است که در پستهای بعدی ستونی به آنها خواهم پرداخت.
بیایید اینها را بررسی کنیم:
- قبل از استفاده از هوش مصنوعی مولد فکر کنید. یک رویکرد شامل اجتناب از استفاده کامل از هوش مصنوعی مولد است. یا حداقل قبل از انجام این کار دو بار فکر کنید. من فکر می کنم امن ترین راه شامل استفاده نکردن از این برنامه های هوش مصنوعی است. اما این نیز بسیار شدید و تقریباً بیش از حد به نظر می رسد.
- موارد را از قبل حذف کنید. روش دیگر شامل حذف اطلاعات محرمانه یا خصوصی از هر چیزی است که به عنوان یک درخواست وارد می کنید. از این نظر، اگر وارد آن نشوید، شانسی برای تزریق آن به بورگ وجود ندارد. نکته منفی این است که شاید حذف بخش محرمانه به نحوی کاری را که شما در تلاش هستید تا هوش مصنوعی مولد را برای شما انجام دهد کاهش دهد یا کاهش دهد.
- ورودی های خود را بپوشانید یا جعل کنید. می توانید متن پیشنهادی خود را با تغییر اطلاعات تغییر دهید تا هر آنچه محرمانه یا خصوصی به نظر می رسد اکنون به طور متفاوتی به تصویر کشیده شود. به عنوان مثال، به جای قراردادی که در آن شرکت ویجت و جان اسمیت ذکر شده باشد، متن را به Specious Company و Jane Capone تغییر می دهید. یک مسئله در اینجا این است که آیا شما یک کار به اندازه کافی جامع انجام خواهید داد به طوری که تمام جنبه های محرمانه و خصوصی به طور کامل تغییر یا جعلی شوند. از دست دادن برخی از ابرها و رها کردن چیزهایی که نباید وجود داشته باشند، آسان است.
در اینجا یک پیچ و تاب اضافه شده جالب وجود دارد که ممکن است باعث نفوذ بیشتر نوگین شما در این موضوع شود. اگر میتوانید کاملاً مطمئن شوید که هیچ یک از درخواستهای ورودی شما حاوی اطلاعات محرمانه نیست، آیا این بدان معناست که نیازی به نگرانی در مورد مقالههای خروجی که حاوی اطلاعات محرمانه شما هستند نیز ندارید؟
این امر از نظر بدیهی درست به نظر می رسد. بدون ورودی محرمانه، بدون خروجی محرمانه.
در اینجا پیچ و تاب ذهن شما را نشان می دهد.
هوش مصنوعی مولد اغلب برای بازآموزی محاسباتی خود از پیام های متنی ارائه شده تنظیم می شود. به همین ترتیب، هوش مصنوعی مولد اغلب برای بازآموزی محاسباتی از مقالات خروجی ابداع می شود. تمام این بازآموزی ها برای بهبود قابلیت های هوش مصنوعی مولد در نظر گرفته شده است.
من در یکی از ستون های دیگرم آزمایش زیر را که انجام دادم شرح دادم. یک وکیل در تلاش بود تا ابزار جدیدی برای رسیدگی به یک موضوع حقوقی کشف کند. پس از یک نگاه جامع به ادبیات حقوقی، به نظر می رسید که تمام زوایایی که قبلاً ظاهر شده بود، پیدا شد. با استفاده از هوش مصنوعی مولد، ما اپلیکیشن هوش مصنوعی را برای تولید یک رویکرد قانونی جدید که ظاهراً قبلاً شناسایی نشده بود، دریافت کردیم. اعتقاد بر این بود که هیچ کس دیگری هنوز در این موقعیت قانونی قرار نگرفته است. یک قطعه طلای قانونی. این می تواند یک سود حقوقی رقابتی با ارزش استراتژیک باشد که در زمان مناسب مورد استفاده و بهره برداری قرار گیرد.
آیا آن مقاله خروجی شکلی از اطلاعات محرمانه را تشکیل می دهد، به طوری که توسط هوش مصنوعی برای این شخص خاص تولید شده است و حاوی چیزی خاص و به ظاهر منحصر به فرد است؟
آها، این ما را به موضوع دیگر مرتبط و درهم تنیده در مورد مالکیت و حقوق IP مرتبط با هوش مصنوعی مولد هدایت می کند. در ادامه با ما همراه باشید تا ببینیم چگونه این اتفاق می افتد.
نکته پایانی فعلا
سوفوکل این حکمت را ارائه کرد: «هیچ کاری را پنهانی انجام نده. زیرا زمان همه چیز را می بیند و می شنود و همه چیز را آشکار می کند.» فکر میکنم میتوانید این عبارت را مدرن کنید و ادعا کنید که هوش مصنوعی مولد و آنهایی که هوش مصنوعی را طراحی و نگهداری میکنند نیز قابل دیدن هستند.
این یک توصیه متواضعانه است که ارزش به خاطر سپردن دارد.
منبع: https://www.forbes.com/sites/lanceeliot/2023/01/27/generative-ai-chatgpt-can-disturbingly-gobble-up-your-private-and-confidential-data-forewarns-ai- اخلاق-و-حقوق/