کمیسیون تجارت فدرال قصد دارد به آن ادعاهای بی اساس بزرگ درباره ChatGPT و سایر هوش مصنوعی ضربه بزند، به اخلاق و قانون هوش مصنوعی هشدار می دهد.

چکش را پایین بیاورید.

این همان چیزی است که کمیسیون تجارت فدرال (FTC) می گوید که قرار است در مورد استفاده مداوم و بدتر از ادعاهای بی اساس بزرگ در مورد هوش مصنوعی (AI) انجام دهد.

در یک پست وبلاگ رسمی در تاریخ 27 فوریه 2023، تحت عنوان "ادعاهای هوش مصنوعی خود را کنترل کنید" توسط وکیل مایکل اتلسون از بخش فعالیت های تبلیغاتی FTC، برخی کلمات در مجموع به این نکته اشاره کردند که هوش مصنوعی نه تنها نوعی فناوری پیشرفته محاسباتی است، بلکه این به یک جکپات بازاریابی تبدیل شده است که در برخی مواقع از قلمرو منطقی بودن فراتر رفته است:

  • و به هر حال «هوش مصنوعی» دقیقاً چیست؟ این یک اصطلاح مبهم با تعاریف بسیاری است. اغلب به انواع ابزارها و تکنیک های تکنولوژیکی اشاره دارد که از محاسبات برای انجام وظایفی مانند پیش بینی ها، تصمیم گیری ها یا توصیه ها استفاده می کنند. اما یک چیز مسلم است: این یک اصطلاح بازاریابی است. در حال حاضر، آن یک داغ است. و در FTC، چیزی که ما در مورد اصطلاحات بازاریابی داغ می دانیم این است که برخی از تبلیغ کنندگان نمی توانند جلوی استفاده بیش از حد و سوء استفاده از آنها را بگیرند.» (پست وب سایت FTC).

هوش مصنوعی برای بازاریاب‌هایی که می‌خواهند واقعاً دیوانه شوند و هر محصول یا خدمات مبتنی بر هوش مصنوعی یا مبتنی بر هوش مصنوعی را که به مصرف‌کنندگان فروخته می‌شود، فرصت‌های بزرگی را ارائه می‌دهد.

می بینید، وسوسه فشار دادن به پوشش هایپربولی بسیار زیاد است، به خصوص زمانی که یک بازاریاب می بیند که شرکت های دیگر همین کار را انجام می دهند. هنگامی که رقیب شما فریاد می‌زند که هوش مصنوعی آنها روی آب راه می‌رود، آب‌های رقابتی از شما می‌خواهد که یک بازی کلاسیک بیش از حد انجام دهید. شاید هوش مصنوعی شما ظاهراً بهتر باشد زیرا در هوا پرواز می کند، از مرزهای گرانش فرار می کند و همزمان موفق به جویدن آدامس می شود.

بازوی دراز قانون، یعنی FTC و دیگر آژانس‌های فدرال، ایالتی و محلی، به سمت استفاده احمقانه از مهارت‌های اعلام‌شده توسط هوش مصنوعی که با دروغ‌ها و فریب‌ها هم مرز هستند یا کاملاً در آستانه قرار دارند، گام برمی‌دارند (به پوشش مداوم من از چنین تلاش‌هایی، از جمله بین‌المللی مراجعه کنید. تلاش های نظارتی نیز در پیوند اینجا).

شما به طور بالقوه آگاه هستید که FTC به عنوان یک آژانس فدرال، دفتر حمایت از مصرف کننده را در بر می گیرد که موظف است از مصرف کنندگان در برابر اعمال یا اقدامات فریبنده در نظر گرفته شده در تنظیمات تجاری محافظت کند. این اغلب زمانی به وجود می آید که شرکت ها در مورد محصولات یا خدمات به مشتریان دروغ می گویند یا آنها را گمراه می کنند. FTC می تواند از قدرت دولتی قدرتمند خود برای تضعیف چنین شرکت های متخلف استفاده کند.

پست وبلاگ FTC که من به آن استناد کردم نیز این بیانیه تا حدودی تلخ را بیان کرد:

  • "بازاریابان باید بدانند که - برای اهداف اجرای FTC - ادعاهای نادرست یا غیرمستند در مورد اثربخشی یک محصول، نان و کره ما هستند."

به یک معنا، کسانی که اصرار دارند ادعاهای خود را در مورد هوش مصنوعی اغراق کنند، هدفشان این است که نان تست. FTC می تواند به دنبال این باشد که مدعی هوش مصنوعی دست از کار بکشد و به طور بالقوه با مجازات های سختی برای تخلفات انجام شده روبرو شود.

در اینجا برخی از اقدامات بالقوه ای است که FTC می تواند انجام دهد:

  • هنگامی که کمیسیون تجارت فدرال موردی از کلاهبرداری از مصرف کنندگان را پیدا می کند، آژانس اقداماتی را در دادگاه منطقه فدرال برای دستورات فوری و دائمی برای توقف کلاهبرداری ثبت می کند. جلوگیری از کلاهبرداری توسط کلاهبرداران در آینده؛ مسدود کردن دارایی های آنها؛ و برای قربانیان غرامت دریافت کنید. هنگامی که مصرف کنندگان یک تبلیغ را می بینند یا می شنوند، خواه در اینترنت، رادیو یا تلویزیون یا هر جای دیگری باشد، قانون فدرال می گوید که یک تبلیغ باید صادقانه باشد، گمراه کننده نباشد، و در صورت لزوم، با شواهد علمی پشتیبانی شود. FTC این قوانین مربوط به حقیقت در تبلیغات را اجرا می کند، و بدون توجه به جایی که تبلیغ در کجا ظاهر می شود - در روزنامه ها و مجلات، آنلاین، از طریق پست، یا روی بیلبوردها یا اتوبوس ها، همان استانداردها را اعمال می کند. حقیقت در تبلیغات)

تعدادی از نمونه های نسبتاً برجسته اخیر از FTC وجود دارد که به دنبال حوادث تبلیغاتی نادرست است.

به عنوان مثال، لورآل به دلیل تبلیغاتی مبنی بر اینکه محصولات مراقبت از پوست پاریس Youth Code آنها «از نظر بالینی ثابت شده» است که افراد را «به‌طور آشکار جوان‌تر» نشان می‌دهد و «ژن‌ها را تقویت می‌کند» دچار مشکل شد. شواهد علمی و FTC بر این اساس اقدام کردند. مثال برجسته دیگر شامل تبلیغات فولکس واگن بود مبنی بر اینکه خودروهای دیزلی آنها از "دیزل تمیز" استفاده می کنند و ظاهراً مقادیر بسیار کمی آلودگی منتشر می کنند. در این مثال، آزمایش‌های آلایندگی که فولکس واگن انجام داد به‌طور تقلبی انجام شد تا آلایندگی واقعی آن‌ها پنهان شود. اقدامات اجرایی توسط FTC منجر به یک ترتیبات جبران خسارت برای مصرف کنندگان تحت تأثیر شد.

این تصور که هوش مصنوعی نیز باید بر اساس ادعاهای غیرمستند یا شاید کاملاً تقلبی مورد بررسی قرار گیرد، مطمئناً دلیلی به موقع و شایسته است.

در حال حاضر یک شیدایی آشکار در مورد هوش مصنوعی وجود دارد که با ظهور آن تحریک شده است هوش مصنوعی مولد. این نوع خاص از هوش مصنوعی در نظر گرفته شده است مولد زیرا قادر به تولید خروجی هایی است که تقریباً به نظر می رسد توسط دست انسان ابداع شده اند، اگرچه هوش مصنوعی از نظر محاسباتی این کار را انجام می دهد. یک اپلیکیشن هوش مصنوعی به نام ChatGPT توسط شرکت OpenAI توجه زیادی را به خود جلب کرده و شیدایی هوش مصنوعی را به استراتوسفر سوق داده است. من در یک لحظه توضیح خواهم داد که هوش مصنوعی مولد چیست و ماهیت برنامه هوش مصنوعی ChatGPT را شرح خواهم داد.

البته، به طور کلی هوش مصنوعی مدتی است که وجود داشته است. مجموعه ای از فراز و نشیب های ترن هوایی همراه با وعده هایی که هوش مصنوعی می تواند به آن دست یابد وجود داشته است. ممکن است بگویید که ما در نقطه اوج جدیدی هستیم. برخی معتقدند این تنها نقطه شروع است و ما مستقیماً به سمت بالا پیش می رویم. دیگران شدیداً مخالف هستند و ادعا می‌کنند که گامبیت مولد هوش مصنوعی به دیوار برخورد می‌کند، یعنی به زودی به بن‌بست می‌رسد و سواری ترن هوایی پایین می‌آید.

زمان خواهد شد بگویید.

FTC قبلاً تاکید کرده بود که ادعاهای مربوط به هوش مصنوعی باید متعادل و معقول باشد. در پست رسمی وبلاگ FTC در 19 آوریل 2021، با عنوان "هدف برای حقیقت، انصاف و برابری در استفاده شرکت شما از هوش مصنوعی"، الیزا جیلسون به چندین راه که اقدامات اجرایی از نظر قانونی به وجود می‌آیند اشاره کرد و به‌ویژه نگرانی‌ها را در مورد تعصبات نابجا توسط هوش مصنوعی برجسته کرد. :

  • FTC دارای چندین دهه تجربه در اجرای سه قانون مهم برای توسعه دهندگان و کاربران هوش مصنوعی است.
  • "بخش 5 قانون FTC. قانون FTC اعمال ناعادلانه یا فریبنده را ممنوع می کند. این شامل فروش یا استفاده از الگوریتم‌های نژادپرستانه می‌شود.»
  • "قانون گزارش اعتبار منصفانه. FCRA در شرایط خاصی که از الگوریتمی برای محروم کردن افراد از اشتغال، مسکن، اعتبار، بیمه یا سایر مزایا استفاده می‌شود، وارد عمل می‌شود.
  • "قانون فرصت های برابر Equal. ECOA استفاده از یک الگوریتم مغرضانه را برای یک شرکت غیرقانونی می‌داند که منجر به تبعیض اعتباری بر اساس نژاد، رنگ، مذهب، منشاء ملی، جنسیت، وضعیت تأهل، سن، یا به دلیل دریافت کمک‌های عمومی توسط یک فرد می‌شود.

یکی از نکات برجسته در پست وبلاگ فوق به این ادعای آشکار اشاره می کند:

  • "بر اساس قانون FTC، اظهارات شما به مشتریان تجاری و مصرف کنندگان باید صادقانه، غیر فریبنده باشد و با شواهد و مدارک پشتیبانی شود."همانجا).

زبان حقوقی بخش 5 قانون FTC این احساس را منعکس می کند:

  • "روش های ناعادلانه رقابت در تجارت یا تحت تأثیر قرار دادن آن، و اعمال یا اقدامات ناعادلانه یا فریبنده در تجارت یا تأثیرگذار بر تجارت، بدین وسیله غیرقانونی اعلام می شوند" (منبع: بخش 5 قانون FTC).

به نظر آرامش بخش است که می دانیم FTC و سایر سازمان های دولتی چشمان خود را باز نگه می دارند و با چکشی که بالای سر هر سازمانی که جرأت انتشار پیام های ناعادلانه یا فریبنده در مورد هوش مصنوعی را دارد آماده هستند.

آیا همه اینها به این معنی است که می توانید خیالتان راحت باشد و فرض کنید که آن سازندگان و مروجین هوش مصنوعی در ادعاهای بازاریابی خود در مورد هوش مصنوعی محتاط خواهند بود و مراقب هستند که توصیه های گزاف یا ظالمانه انجام ندهند؟

هک نه

شما می توانید انتظار داشته باشید که بازاریابان بازاریاب باشند. آنها تا آخر زمان قصد دارند ادعاهای بزرگ و بی اساس در مورد هوش مصنوعی داشته باشند. برخی این کار را انجام می دهند و کورکورانه غافل هستند که چنین ادعاهایی می تواند آنها و شرکتشان را به دردسر بیاندازد. دیگران می‌دانند که این ادعاها می‌تواند باعث دردسر شود، اما تصور می‌کنند که احتمال گرفتار شدن بسیار اندک است. عده‌ای هم هستند که شرط‌بندی می‌کنند می‌توانند از لبه موضوع عبور کنند و از نظر قانونی استدلال می‌کنند که در آب‌های تیره دروغگویی یا فریبکاری نیفتاده‌اند.

برخی از بازاریابان هوش مصنوعی می گویند که اجازه دهید وکلا این را بفهمند. در همین حال، با تمام قوا در پیش است. اگر روزی FTC یا یک سازمان دولتی دیگر در را بزند، همینطور باشد. پولی که باید ساخته شود اکنون است. شاید یک لقمه از خمیر قبلی را در نوعی صندوق امانی برای رسیدگی به مسائل حقوقی پایین دستی قرار دهید. در حال حاضر، قطار پول در راه است، و شما به طرز شگفت انگیزی احمقانه خواهید بود که از خوردن غذای آسان استفاده کنید.

در مورد تبلیغات هوش مصنوعی تا حد نهایی، توجیهات زیادی وجود دارد:

  • همه ادعاهای عجیب هوش مصنوعی می کنند، بنابراین ما نیز ممکن است این کار را انجام دهیم
  • هیچ کس نمی تواند با اطمینان بگوید که خط تقسیم در مورد حقایق در مورد هوش مصنوعی کجاست
  • ما می‌توانیم ادعاهایمان در مورد هوش مصنوعی خود را برای ماندن یک یا دو اینچ در منطقه ایمنی بیان کنیم
  • دولت به کاری که ما می کنیم نمی نشیند، ما ماهی کوچکی هستیم در دریای بزرگ
  • چرخ‌های عدالت آنقدر کند هستند که نمی‌توانند با سرعت پیشرفت‌های هوش مصنوعی همگام شوند
  • اگر مصرف کنندگان به ادعای هوش مصنوعی ما دل ببندند، این به آنها مربوط می شود، نه ما
  • توسعه دهندگان هوش مصنوعی در شرکت ما گفتند ما می توانیم آنچه را که من در ادعاهای بازاریابی خود گفته ام بگوییم
  • اجازه ندهید تیم حقوقی بینی خود را در این چیزهای هوش مصنوعی که ما در بوق و کرنا می‌کنیم فرو کنند، آنها به سادگی کیبوش را در کمپین‌های بازاریابی هوش مصنوعی ما قرار می‌دهند و چوب ضرب المثلی در گل و لای خواهند بود.
  • دیگر

آیا این منطقی‌سازی‌ها دستوری برای موفقیت هستند یا دستوری برای فاجعه؟

برای سازندگان هوش مصنوعی که به این شکاف‌های قانونی جدی و جدی توجه نمی‌کنند، پیشنهاد می‌کنم که به سمت یک فاجعه پیش می‌روند.

در مشاوره با بسیاری از شرکت‌های هوش مصنوعی به صورت روزانه و هفتگی، به آنها هشدار می‌دهم که باید به دنبال مشاوره حقوقی قانع‌کننده باشند، زیرا پولی که امروز به دست می‌آورند به طور بالقوه پس داده می‌شود و بیشتر از آن زمانی که خود را در معرض دعوای مدنی از سوی مصرف‌کنندگان قرار دهند. همانطور که با اقدامات اجرایی دولت همراه شده است. بسته به اینکه تا چه حد کارها پیش می روند، عواقب جنایی نیز می تواند در بال ها بنشیند.

در ستون امروز، من به نگرانی‌های فزاینده مبنی بر اینکه تبلیغات بازاریابی مبتنی بر هوش مصنوعی به طور فزاینده‌ای از مرز و بدتر شدن شیوه‌های ناپسند و فریبنده عبور می‌کند، خواهم پرداخت. من اساس این تردیدها را بررسی خواهم کرد. علاوه بر این، گاهی اوقات به کسانی اشاره می‌کنیم که از برنامه هوش مصنوعی ChatGPT استفاده می‌کنند و از آن استفاده می‌کنند، زیرا این گوریل ۶۰۰ پوندی هوش مصنوعی مولد است، هرچند به خاطر داشته باشید که تعداد زیادی برنامه‌های هوش مصنوعی مولد دیگر وجود دارد و معمولاً بر اساس آن هستند. همان اصول کلی

در همین حال، ممکن است تعجب کنید که در واقع هوش مصنوعی مولد چیست.

اجازه دهید ابتدا اصول هوش مصنوعی مولد را پوشش دهیم و سپس می‌توانیم نگاهی دقیق به موضوع مهم در دست داشته باشیم.

در همه این موارد، ملاحظات اخلاق هوش مصنوعی و قانون هوش مصنوعی وجود دارد.

لطفاً توجه داشته باشید که تلاش‌های مداومی برای تطبیق اصول هوش مصنوعی اخلاقی در توسعه و پیاده‌سازی برنامه‌های هوش مصنوعی وجود دارد. گروه رو به رشدی از متخصصان اخلاق هوش مصنوعی نگران و قدیمی در تلاش هستند تا اطمینان حاصل کنند که تلاش‌ها برای ابداع و پذیرش هوش مصنوعی، دیدگاهی از انجام دادن را در نظر می‌گیرد. هوش مصنوعی برای خوب و جلوگیری می کند هوش مصنوعی برای بد. به همین ترتیب، قوانین جدید هوش مصنوعی پیشنهاد شده است که به عنوان راه حل‌های بالقوه برای جلوگیری از ابهام کردن تلاش‌های هوش مصنوعی در مورد حقوق بشر و مواردی از این دست، مورد استفاده قرار می‌گیرند. برای پوشش مداوم و گسترده من از اخلاق هوش مصنوعی و قانون هوش مصنوعی، نگاه کنید به پیوند اینجا و پیوند اینجا، فقط به نام چند.

توسعه و انتشار دستورات هوش مصنوعی اخلاقی دنبال می‌شود تا از افتادن جامعه در تله‌های بی‌شمار هوش مصنوعی جلوگیری شود. برای پوشش من از اصول اخلاق هوش مصنوعی سازمان ملل متحد که توسط نزدیک به 200 کشور از طریق تلاش های یونسکو ابداع و حمایت شده است، نگاه کنید به پیوند اینجا. در همین راستا، قوانین جدید هوش مصنوعی در حال بررسی هستند تا سعی شود هوش مصنوعی در یک سطح یکنواخت باقی بماند. یکی از آخرین برداشت ها شامل مجموعه ای از پیشنهادات است منشور حقوق هوش مصنوعی که اخیراً کاخ سفید ایالات متحده برای شناسایی حقوق بشر در عصر هوش مصنوعی منتشر کرده است پیوند اینجا. دهکده ای لازم است تا توسعه دهندگان هوش مصنوعی و هوش مصنوعی را در مسیری درست نگه دارد و از تلاش های غفلت آمیز هدفمند یا تصادفی که ممکن است جامعه را تضعیف کند، بازدارد.

من ملاحظات مربوط به اخلاق هوش مصنوعی و قوانین هوش مصنوعی را در این بحث در هم می آمیزم.

مبانی هوش مصنوعی مولد

شناخته شده ترین نمونه هوش مصنوعی مولد توسط یک برنامه هوش مصنوعی به نام ChatGPT نشان داده می شود. ChatGPT در ماه نوامبر زمانی که توسط شرکت تحقیقاتی AI OpenAI منتشر شد، به آگاهی عمومی رسید. از زمانی که ChatGPT تیترهای بزرگی را به خود اختصاص داد و به طرز شگفت انگیزی از پانزده دقیقه شهرت خود فراتر رفت.

حدس می‌زنم احتمالاً نام ChatGPT را شنیده‌اید یا شاید کسی را بشناسید که از آن استفاده کرده است.

ChatGPT یک برنامه هوش مصنوعی مولد در نظر گرفته می شود زیرا مقداری متن را از یک کاربر و سپس به عنوان ورودی می گیرد تولید می کند یا خروجی ای تولید می کند که از یک مقاله تشکیل شده است. هوش مصنوعی یک تولیدکننده متن به متن است، اگرچه من هوش مصنوعی را به عنوان یک تولیدکننده متن به مقاله توصیف می‌کنم، زیرا به راحتی مشخص می‌کند که معمولاً برای چه مواردی از آن استفاده می‌شود. می‌توانید از هوش مصنوعی مولد برای نوشتن ترکیب‌های طولانی استفاده کنید یا می‌توانید آن را وادار کنید تا نظرات نسبتاً کوتاهی ارائه دهد. همه چیز به درخواست شماست.

تنها کاری که باید انجام دهید این است که یک درخواست وارد کنید و برنامه هوش مصنوعی برای شما مقاله ای ایجاد می کند که سعی می کند به درخواست شما پاسخ دهد. متن ساخته شده به نظر می رسد که گویی مقاله توسط دست و ذهن انسان نوشته شده است. اگر می‌خواهید پیامی را وارد کنید که می‌گوید «درباره آبراهام لینکلن به من بگویید»، هوش مصنوعی مولد مقاله‌ای درباره لینکلن در اختیار شما قرار می‌دهد. حالت های دیگری از هوش مصنوعی مولد وجود دارد، مانند تبدیل متن به هنر و متن به ویدئو. من در اینجا بر روی تغییر متن به متن تمرکز خواهم کرد.

اولین فکر شما ممکن است این باشد که این قابلیت مولد از نظر تولید مقاله چندان مهم به نظر نمی رسد. شما به راحتی می توانید یک جستجوی آنلاین در اینترنت انجام دهید و به راحتی هزاران مقاله در مورد رئیس جمهور لینکلن پیدا کنید. نکته مهم در مورد هوش مصنوعی مولد این است که مقاله تولید شده نسبتاً منحصر به فرد است و یک ترکیب اصلی را به جای یک کپی ارائه می دهد. اگر بخواهید مقاله تولید شده توسط هوش مصنوعی را در جایی آنلاین پیدا کنید، بعید است که آن را کشف کنید.

هوش مصنوعی مولد از قبل آموزش داده شده است و از یک فرمول پیچیده ریاضی و محاسباتی استفاده می کند که با بررسی الگوها در کلمات نوشته شده و داستان ها در سراسر وب تنظیم شده است. در نتیجه بررسی هزاران و میلیون‌ها متن نوشته شده، هوش مصنوعی می‌تواند مقالات و داستان‌های جدیدی را منتشر کند که ترکیبی از آنچه پیدا شده است. با افزودن عملکردهای احتمالی مختلف، متن حاصل در مقایسه با آنچه در مجموعه آموزشی استفاده شده است، تقریباً منحصر به فرد است.

نگرانی های زیادی در مورد هوش مصنوعی مولد وجود دارد.

یکی از نکات منفی مهم این است که مقالات تولید شده توسط یک برنامه هوش مصنوعی مبتنی بر مولد می‌توانند دارای کاذب‌های مختلفی باشند، از جمله حقایق آشکارا نادرست، حقایقی که به‌طور گمراه‌کننده به تصویر کشیده شده‌اند، و حقایق ظاهری که کاملاً ساختگی هستند. آن جنبه های ساختگی اغلب به عنوان شکلی از نامیده می شود توهمات هوش مصنوعیجملاتی که من از آن خوشم نمی‌آیند، اما به نظر می‌رسد که به هر حال با کمال تاسف در حال جلب توجه مردم است (برای توضیح دقیق من در مورد اینکه چرا این اصطلاحات بد و نامناسب است، به پوشش من در پیوند اینجا).

نگرانی دیگر این است که انسان‌ها به راحتی می‌توانند برای مقاله تولید شده توسط هوش مصنوعی اعتبار بگیرند، علیرغم اینکه خود مقاله را ننوشته‌اند. شاید شنیده باشید که معلمان و مدارس کاملاً نگران ظهور اپلیکیشن‌های هوش مصنوعی هستند. دانش آموزان به طور بالقوه می توانند از هوش مصنوعی مولد برای نوشتن مقالات اختصاص داده شده خود استفاده کنند. اگر دانش آموزی ادعا کند که مقاله ای با دست خودش نوشته شده است، احتمال کمی وجود دارد که معلم بتواند تشخیص دهد که آیا در عوض توسط هوش مصنوعی ساخته شده است یا خیر. برای تجزیه و تحلیل من از این جنبه گیج کننده دانش آموز و معلم، به پوشش من در اینجا مراجعه کنید پیوند اینجا و پیوند اینجا.

در مورد این موضوع در شبکه‌های اجتماعی ادعاهای بزرگی وجود دارد هوش مصنوعی مولد ادعا می کند که این آخرین نسخه از هوش مصنوعی در واقع است هوش مصنوعی حساس (نه، آنها اشتباه می کنند!). کسانی که در اخلاق هوش مصنوعی و قانون هوش مصنوعی هستند به طور مشخص نگران این روند رو به رشد ادعاهای گسترده هستند. ممکن است مودبانه بگویید که برخی افراد درباره آنچه که هوش مصنوعی امروزی می تواند انجام دهد اغراق می کنند. آنها تصور می کنند که هوش مصنوعی دارای قابلیت هایی است که ما هنوز نتوانسته ایم به آنها دست پیدا کنیم. این مایه تاسف است. بدتر از آن، آن‌ها می‌توانند به خود و دیگران اجازه دهند در موقعیت‌های وخیم قرار بگیرند، زیرا این تصور وجود دارد که هوش مصنوعی هوشیار یا انسان‌مانند خواهد بود تا بتواند اقدامی انجام دهد.

هوش مصنوعی را انسان سازی نکنید.

انجام این کار شما را در یک تله اتکای چسبناک و بی حوصله گرفتار می کند که انتظار دارید هوش مصنوعی کارهایی را انجام دهد که قادر به انجام آن نیست. با توجه به آنچه گفته شد، جدیدترین هوش مصنوعی مولد برای کارهایی که می تواند انجام دهد نسبتاً چشمگیر است. البته توجه داشته باشید که محدودیت های قابل توجهی وجود دارد که باید به طور مداوم هنگام استفاده از هر برنامه هوش مصنوعی مولد در نظر داشته باشید.

یک هشدار نهایی در حال حاضر.

هر آنچه را که در یک پاسخ هوش مصنوعی مولد می بینید یا می خوانید به نظر می رسد برای اینکه کاملاً واقعی باشد (تاریخ، مکان ها، افراد و غیره)، مطمئن شوید که شک دارید و مایل باشید آنچه را می بینید دوباره بررسی کنید.

بله، خرما را می توان جعل کرد، مکان ها را می توان ساخت، و عناصری که معمولاً انتظار داریم بیش از حد ملامت باشند. تمام در معرض سوء ظن آنچه را که می خوانید باور نکنید و هنگام بررسی هر مقاله یا خروجی هوش مصنوعی با شک و تردید نگاه کنید. اگر یک اپلیکیشن مولد هوش مصنوعی به شما بگوید که آبراهام لینکلن با جت شخصی خود در سراسر کشور پرواز کرده است، بدون شک متوجه خواهید شد که این یک بیماری ناخوشایند است. متأسفانه، برخی از مردم ممکن است متوجه نباشند که جت‌ها در زمان او وجود نداشتند، یا ممکن است بدانند اما متوجه این موضوع نشوند که این مقاله این ادعای گستاخانه و به‌شدت نادرست را دارد.

دوز قوی از شک و تردید سالم و ذهنیت ناباوری مداوم بهترین دارایی شما در هنگام استفاده از هوش مصنوعی مولد خواهد بود. همچنین، مراقب نفوذهای احتمالی به حریم خصوصی و از دست دادن محرمانه بودن داده ها باشید، بحث من را در اینجا ببینید پیوند اینجا.

ما آماده هستیم تا وارد مرحله بعدی این شفاف سازی شویم.

هوش مصنوعی به عنوان بهترین داستانی که تاکنون گفته شده است

بیایید اکنون به بررسی تحریفاتی که در مورد هوش مصنوعی گفته می شود، بپردازیم.

من روی هوش مصنوعی مولد تمرکز خواهم کرد. همانطور که گفته شد، تقریباً هر نوع هوش مصنوعی در معرض همان نگرانی ها در مورد تبلیغات ناعادلانه یا فریبنده است. این دیدگاه گسترده تر را در ذهن داشته باشید. من این را به کسانی می‌گویم که سازنده‌های هوش مصنوعی از هر نوعی هستند، و مطمئن می‌شوم که همه آنها از این مسائل مطلع هستند و فقط به آنهایی که برنامه‌های هوش مصنوعی تولید می‌کنند محدود نمی‌شوند.

همین امر در مورد همه مصرف کنندگان صدق می کند. مهم نیست که چه نوع هوش مصنوعی را خریداری یا استفاده می کنید، مراقب ادعاهای نادرست یا گمراه کننده در مورد هوش مصنوعی باشید.

در اینجا موضوعات اصلی است که من می خواهم امروز با شما پوشش دهم:

  • 1) دروغ های بالقوه هوش مصنوعی Who Is What
  • 2) تلاش برای استفاده از بندهای فرار برای اجتناب از مسئولیت هوش مصنوعی
  • 3) FTC در تبلیغات هوش مصنوعی احتیاط های مفیدی را ارائه می دهد
  • 4) FTC همچنین هشدارهایی در مورد تعصبات هوش مصنوعی ارائه می دهد
  • 5) اقداماتی که باید در مورد برنامه های تبلیغاتی هوش مصنوعی خود انجام دهید

من هر یک از این موضوعات مهم را پوشش خواهم داد و ملاحظات روشنگرانه ای را ارائه خواهم داد که همه ما باید با دقت در مورد آنها فکر کنیم. هر یک از این موضوعات بخشی جدایی ناپذیر از یک پازل بزرگتر است. شما نمی توانید فقط به یک قطعه نگاه کنید. همچنین نمی توانید به هیچ قطعه ای جدا از قطعات دیگر نگاه کنید.

این یک موزاییک پیچیده است و کل پازل باید به طور هماهنگ در نظر گرفته شود.

کاذب های بالقوه هوش مصنوعی Who Is What

یک نکته مهم برای روشن شدن باید در مورد بازیگران یا ذینفعان مختلف درگیر در این امور بیان شود.

سازندگان هوش مصنوعی هستند که هسته یک برنامه هوش مصنوعی مولد را ابداع می کنند، و سپس دیگرانی هستند که بر روی هوش مصنوعی مولد ساخته می شوند تا اپلیکیشنی وابسته به هوش مصنوعی مولد زیربنایی ایجاد کنند. من در مورد اینکه چگونه استفاده از API (رابط برنامه نویسی برنامه) به شما اجازه می دهد برنامه ای بنویسید که از هوش مصنوعی مولد استفاده می کند، بحث کرده ام، پوشش من را در اینجا ببینید. پیوند اینجا. یک مثال بارز شامل این است که مایکروسافت قابلیت‌های هوش مصنوعی مولد را از OpenAI به موتور جستجوی Bing خود اضافه کرده است، همانطور که من به طور عمیق در آن توضیح داده‌ام. پیوند اینجا.

مقصران احتمالی ادعاهای گمراه کننده یا نادرست در مورد هوش مصنوعی می توانند شامل موارد زیر باشند:

  • محققان هوش مصنوعی
  • توسعه دهندگان هوش مصنوعی
  • بازاریابان هوش مصنوعی
  • سازندگان هوش مصنوعی که هوش مصنوعی اصلی مانند هوش مصنوعی مولد را توسعه می دهند
  • شرکت هایی که از هوش مصنوعی مولد در نرم افزارهای ارائه شده خود استفاده می کنند
  • شرکت هایی که بر استفاده از هوش مصنوعی مولد در محصولات و خدمات خود متکی هستند
  • شرکت هایی که به شرکت هایی متکی هستند که از هوش مصنوعی مولد در محصولات یا خدمات خود استفاده می کنند
  • غیره

شما ممکن است این را به عنوان یک زنجیره تامین در نظر بگیرید. هر کسی که در AI در امتداد مسیر یا دستکش ابداع و آماده سازی هوش مصنوعی درگیر است، می تواند به راحتی ادعاهای فریبنده یا متقلبانه در مورد هوش مصنوعی ارائه دهد.

کسانی که هوش مصنوعی مولد را ساخته اند ممکن است تیراندازان مستقیم باشند و معلوم می شود که آن دسته از افرادی که هوش مصنوعی مولد را در محصولات یا خدمات خود قرار می دهند، کسانی هستند که شیطانی می شوند و ادعاهای بی اساس می کنند. این یک احتمال است.

احتمال دیگر این است که سازندگان هوش مصنوعی کسانی هستند که ادعاهای نادرست را مطرح می کنند. سایرین که سپس هوش مصنوعی مولد را در محصولات خود قرار می دهند، احتمالاً این ادعاها را تکرار می کنند. در برخی مواقع، یک باتلاق قانونی ممکن است به وجود بیاید. یک شکاف حقوقی ممکن است ابتدا متوجه شرکتی باشد که ادعاها را تکرار کرده است، که آنها نیز به نوبه خود انگشت قانونی خود را به سمت سازنده هوش مصنوعی که شروع بهمن شکایت کرده است، نشانه می روند. دومینوها شروع به سقوط می کنند.

نکته این است که شرکت‌هایی که فکر می‌کنند می‌توانند بر ادعاهای نادرست دیگران تکیه کنند، ناگزیر از بیداری بی‌ادب رنج می‌برند که لزوماً به دلیل چنین اتکای بی‌احترامی نمی‌روند. آنها نیز بدون شک پای خود را به آتش خواهند گرفت.

وقتی فشار برای هل دادن می آید، همه در یک دعوای حقوقی زشت گل آلود گرفتار می شوند.

تلاش برای استفاده از بندهای فرار برای اجتناب از مسئولیت هوش مصنوعی

قبلاً اشاره کردم که بخش 5 قانون FTC زبان حقوقی را در مورد اقدامات تبلیغاتی غیرقانونی ارائه می دهد. خلأهای قانونی مختلفی وجود دارد که هر وکیل زیرک به طور بالقوه از آنها به نفع موکل خود استفاده می کند، احتمالاً اگر موکل در واقع به دنبال لغو یا انحراف آن چیزی باشد که به نظر آنها یک اتهام نادرست است.

به عنوان مثال این بند 5 را در نظر بگیرید:

  • «کمیسیون بر اساس این بخش یا بخش 57 الف این عنوان، هیچ اختیاری برای اعلام غیرقانونی یک عمل یا عمل به این دلیل که چنین عمل یا عملی ناعادلانه است، نخواهد داشت، مگر اینکه آن عمل یا عمل باعث صدمات اساسی به مصرف‌کنندگان شود یا احتمال آن وجود داشته باشد. به طور معقولی توسط خود مصرف کنندگان قابل اجتناب نیست و با مزایای متضاد برای مصرف کنندگان یا رقابت غلبه نمی کند. در تعیین اینکه آیا یک عمل یا عمل ناعادلانه است، کمیسیون ممکن است سیاست های عمومی تعیین شده را به عنوان مدرکی در نظر بگیرد که باید همراه با سایر شواهد در نظر گرفته شود. چنین ملاحظات خط مشی عمومی ممکن است به عنوان مبنای اولیه برای چنین تعیینی عمل نکند» (منبع: بخش 5 قانون FTC).

برخی این بند را اینگونه تفسیر کرده اند که اگر بگوییم شرکتی هوش مصنوعی خود را تبلیغ می کند و این کار را به شیوه ای به ظاهر فاحش انجام می دهد، این سوال مطرح می شود که آیا تبلیغات ممکن است تا زمانی که تبلیغات موفق نشده است از برزخ فرار کند: (الف) شکست خورده است. برای ایجاد "آسیب قابل توجه به مصرف کنندگان"، (ب) و از این قبیل "توسط خود مصرف کنندگان قابل اجتناب بود"، و (ج) "با منافع متقابل برای مصرف کنندگان یا رقابت غلبه نکرد".

این مورد استفاده را تصور کنید. یک شرکت تصمیم می گیرد ادعا کند که هوش مصنوعی مولد آنها می تواند به سلامت روان شما کمک کند. معلوم شد که این شرکت اپلیکیشنی ساخته است که هوش مصنوعی تولیدکننده یک سازنده محبوب هوش مصنوعی را در خود جای داده است. برنامه به‌دست‌آمده به‌عنوان این‌گونه تبلیغ می‌شود که می‌تواند «به شما کمک کند با هوش مصنوعی که با شما تعامل دارد و روح مضطرب شما را آرام می‌کند، به آرامش برسید».

به عنوان یک یادداشت جانبی، من در مورد خطرات استفاده از هوش مصنوعی مولد به عنوان مشاور سلامت روان بحث کرده ام، به تجزیه و تحلیل من در اینجا مراجعه کنید. پیوند اینجا و پیوند اینجا.

بازگشت به داستان. فرض کنید مصرف‌کننده‌ای مشترک هوش مصنوعی مولد است که گفته می‌شود می‌تواند به سلامت روان او کمک کند. مصرف کننده می گوید که آنها به تبلیغات شرکتی که برنامه هوش مصنوعی را ارائه می دهد اعتماد کرده اند. اما پس از استفاده از هوش مصنوعی، مصرف کننده بر این باور است که از نظر ذهنی وضعیت بهتری نسبت به قبل ندارد. برای آنها، برنامه هوش مصنوعی از تبلیغات فریبنده و دروغین استفاده می کند.

من به پیچیدگی های قانونی نمی پردازم و به سادگی از آن به عنوان یک فویل مفید استفاده می کنم (برای مشاوره حقوقی مناسب با وکیل خود مشورت کنید). اول، آیا مصرف کننده در نتیجه استفاده از برنامه هوش مصنوعی دچار «آسیب قابل توجهی» شده است؟ یک استدلال این است که آنها صدمه "ماهوی" را متحمل نشدند و صرفاً به ظاهر چیزی را که فکر می کردند به دست نمی آورند (یک استدلال متقابل این است که این یک شکل "آسیب ماهوی" و غیره است). دوم، آیا مصرف‌کننده می‌توانست به طور منطقی از چنین آسیبی در صورت بروز آسیب اجتناب کند؟ دفاع فرضی تا حدودی این است که مصرف کننده به نحوی مجبور به استفاده از برنامه هوش مصنوعی نبوده و در عوض داوطلبانه این کار را انتخاب می کند، به علاوه ممکن است به طور نادرستی از برنامه هوش مصنوعی استفاده کرده باشد و بنابراین مزایای پیش بینی شده را تضعیف کرده باشد، و غیره. سوم، احتمالاً برنامه هوش مصنوعی ممکن است آیا به اندازه کافی ارزش یا منفعت قابل توجهی برای مصرف کنندگان دارد که ادعای مطرح شده توسط این مصرف کننده در کلیت آن برتری یابد؟

شما می توانید انتظار داشته باشید که بسیاری از سازندگان هوش مصنوعی و آنهایی که محصولات و خدمات خود را با هوش مصنوعی تقویت می کنند، ادعا کنند که هر کاری که هوش مصنوعی یا ارائه شده از هوش مصنوعی انجام می دهند، با استفاده از هوش مصنوعی یک سود خالص برای جامعه فراهم می کنند. . منطق این است که اگر محصول یا خدمات در غیر این صورت برای مصرف کنندگان مفید باشد، افزودن هوش مصنوعی این مزایا را تقویت یا تقویت می کند. بنابراین، حتی اگر برخی از جنبه‌های منفی بالقوه وجود داشته باشد، نقاط مثبت بر جنبه‌های منفی غلبه می‌کنند (با این فرض که جنبه‌های منفی غیرقابل وجدان نیستند).

من اطمینان دارم که می‌توانید ببینید چرا کسانی که از هوش مصنوعی استفاده می‌کنند یا از آن استفاده می‌کنند، به وکلا بسیار نیاز دارند.

FTC در مورد تبلیغات هوش مصنوعی هشدارهای مفیدی ارائه می دهد

با بازگشت به پست وبلاگ 27 فوریه 2023 توسط FTC، پیشنهادات بسیار مفیدی در مورد جلوگیری از معمای ادعاهای تبلیغات هوش مصنوعی خارج از محدوده ارائه شده است.

در اینجا برخی از نکات کلیدی یا سوالات مطرح شده در پست وبلاگ وجود دارد:

  • "آیا در مورد آنچه محصول هوش مصنوعی شما می تواند انجام دهد اغراق می کنید؟"
  • «آیا قول می‌دهید که محصول هوش مصنوعی شما بهتر از یک محصول غیر AI کار می‌کند؟»
  • "آیا از خطرات آن آگاه هستید؟"
  • "آیا این محصول واقعاً از هوش مصنوعی استفاده می کند؟"

اجازه دهید به طور خلاصه چند مورد از این سؤالات را باز کنیم.

نکته دوم را در مورد محصولات هوش مصنوعی در مقابل یک محصول غیر AI قابل مقایسه در نظر بگیرید. تبلیغ این که محصول تقویت‌شده با هوش مصنوعی شما چندین تن بهتر از هر محصولی که با هوش مصنوعی قابل مقایسه است وجود دارد، وسوسه‌انگیز است. شما می توانید تمام انواع تکان دادن دست های وحشی را در تمام طول روز به سادگی با تمجید از اینکه از آنجایی که هوش مصنوعی در محصول شما گنجانده شده است، باید بهتر باشد. یعنی، هر چیزی که قابل مقایسه باشد و از هوش مصنوعی استفاده نکند، آشکارا و ذاتاً پایین‌تر است.

این شعار افسانه ای معروف "گوساله کجاست؟"

تاکید بر این است که اگر چیزی ملموس و اساسی برای پشتوانه ادعا ندارید، در زمینی نسبتاً سخت و از نظر قانونی در خطر هستید. شما روی شن های روان هستید. در صورت درخواست، باید نوعی مدرک کافی یا کافی ارائه دهید که نشان دهد محصول افزوده شده با هوش مصنوعی واقعاً بهتر از محصول غیر AI است، با فرض اینکه چنین ادعایی را دارید. این اثبات نباید یک ماجرای درهم ریخته پس از این واقعیت باشد. عاقلانه تر و ایمن تر است که قبل از این ادعاهای تبلیغاتی، این را در دست داشته باشید.

در تئوری، شما باید بتوانید برخی از شواهد معقول را برای حمایت از چنین ادعایی ارائه دهید. برای مثال می‌توانید یک نظرسنجی یا آزمایشی انجام دهید که شامل کسانی می‌شود که از محصول اضافه‌شده با هوش مصنوعی شما در مقایسه با آن‌هایی که از یک محصول غیر هوش مصنوعی استفاده می‌کنند، استفاده می‌کنند. این بهای ناچیزی برای مقابله با جریمه‌های احتمالی است.

یکی دیگر از اخطارها این است که برای حمایت از ادعاهای تبلیغاتی خود در مورد هوش مصنوعی، تلاش‌های ناامیدکننده چشمک و چشمک را انجام ندهید. این احتمال وجود دارد که اگر مطالعه‌ای را در مورد کاربران هوش مصنوعی در مقابل کاربران غیر هوش مصنوعی ارائه دهید، توسط سایر کارشناسان مورد بررسی قرار می‌گیرد. آنها ممکن است به عنوان مثال توجه کنند که شما ممکن است انگشت شست خود را بر اساس نحوه انتخاب مواردی که بررسی یا آزمایش شده اند، روی ترازو قرار دهید. یا شاید بخواهید تا آنجایی که به کاربرانی که از هوش مصنوعی استفاده می‌کنند پولی بپردازید تا آن‌ها را وادار کنید که چقدر محصول شما عالی است. هر گونه حقه بازی ممکن است. بعید میدونم بخوای وارد بشی دردسر اضافه وقتی آن تدبیرهای یواشکی کشف شد.

با تغییر به یکی از نقاط گلوله شده دیگر، گلوله چهارم را در نظر بگیرید که می پرسد آیا اصلاً هوش مصنوعی در شرایط خاصی استفاده می شود یا خیر.

رویکرد سریع و کثیف این روزها شامل فرصت طلبان است که هر نوع نرم افزاری را حاوی یا متشکل از هوش مصنوعی برچسب گذاری می کنند. برخی می گویند که ممکن است از هوش مصنوعی استفاده کند. آنها تا حدودی می توانند از این موضوع خلاص شوند زیرا تعریف هوش مصنوعی به طور کلی مبهم است و دامنه وسیعی دارد، پوشش من را در قانون بلومبرگ در مورد این سوال حقوقی آزاردهنده که هوش مصنوعی در چیست پیوند اینجا.

سردرگمی در مورد اینکه هوش مصنوعی چیست به طور بالقوه پوشش محافظی را ایجاد می کند، اما غیر قابل نفوذ نیست.

در اینجا چیزی است که وبلاگ FTC به آن اشاره می کند:

  • "در یک تحقیق، فن‌آوران FTC و دیگران می‌توانند به زیر کاپوت نگاه کنند و سایر مواد را تجزیه و تحلیل کنند تا ببینند آیا آنچه در داخل است با ادعاهای شما مطابقت دارد یا خیر."

از این نظر، چه از «AI» برای پایبندی دقیق به یک انتخاب تعریفی پذیرفته شده هوش مصنوعی استفاده کنید یا نه، با این وجود به ادعاهای مطرح شده در مورد هر کاری که نرم افزار اعلام شده قادر به انجام آن است، پایبند خواهید بود.

من از این نظر اضافه ای که به دنبال نکته بالا در وبلاگ FTC بود، قدردانی کردم:

  • قبل از برچسب زدن محصول خود به عنوان مبتنی بر هوش مصنوعی، همچنین توجه داشته باشید که صرفاً استفاده از یک ابزار هوش مصنوعی در فرآیند توسعه با محصولی که هوش مصنوعی در آن دارد یکسان نیست.

این نکته ظریفی است که شاید در غیر این صورت خیلی ها به آن فکر نمی کردند. در اینجا چیزی است که آن را پیشنهاد می کند. گاهی اوقات ممکن است هنگام توسعه یک برنامه از یک نرم افزار تقویت شده با هوش مصنوعی استفاده کنید. برنامه هدفمند واقعی حاوی هوش مصنوعی نخواهد بود. شما به سادگی از هوش مصنوعی برای کمک به ساخت اپلیکیشن هوش مصنوعی استفاده می کنید.

به عنوان مثال، می توانید از ChatGPT برای تولید کد برنامه نویسی برای شما استفاده کنید. کدی که تولید می‌شود لزوماً دارای اجزای هوش مصنوعی نخواهد بود. برنامه شما به طور منطقی واجد شرایط نیست که ادعا کند فی نفسه دارای هوش مصنوعی است (مگر اینکه، البته، تصمیم بگیرید که نوعی تکنیک یا فناوری هوش مصنوعی را در آن بگنجانید). احتمالاً می توانید بگویید که از هوش مصنوعی برای کمک به نوشتن برنامه استفاده کرده اید. حتی این را باید با دقت و با احتیاط بیان کرد.

FTC همچنین هشدارهایی در مورد تعصبات هوش مصنوعی ارائه می دهد

وبلاگ FTC که در اینجا در مورد تعصبات هوش مصنوعی ذکر کردم، هشدارهای مفیدی را ارائه می دهد که به اعتقاد من رعایت آنها کاملاً ارزشمند است (در یک لحظه آنها را فهرست می کنم).

وقتی صحبت از هوش مصنوعی مولد به میان می آید، چهار نگرانی عمده در مورد تله های قابلیت های امروزی وجود دارد:

  • خطاهای
  • باطل
  • توهمات هوش مصنوعی
  • تعصبات

بیایید نگاهی کوتاه به نگرانی‌های تعصبات هوش مصنوعی بیندازیم.

در اینجا لیست گسترده ای از راه های سوگیری من وجود دارد که باید برای هر و همه پیاده سازی های مولد هوش مصنوعی به طور کامل مورد بررسی قرار گیرند (در مورد بحث از نزدیک در پیوند اینجا):

  • سوگیری در داده های منبع از اینترنت که برای آموزش داده های هوش مصنوعی مولد استفاده می شود
  • تعصبات در الگوریتم‌های هوش مصنوعی تولیدی که برای تطبیق الگو در داده‌های منبع استفاده می‌شوند
  • تعصبات در طراحی کلی هوش مصنوعی هوش مصنوعی مولد و زیرساخت آن
  • تعصبات توسعه دهندگان هوش مصنوعی به طور ضمنی یا صریح در شکل دادن به هوش مصنوعی مولد
  • سوگیری های آزمایش کننده های هوش مصنوعی به طور ضمنی یا صریح در آزمایش هوش مصنوعی مولد
  • سوگیری های RLHF (یادگیری تقویتی با بازخورد انسانی) به طور ضمنی یا صریح توسط بازبینان انسانی تعیین شده که راهنمایی های آموزشی را به هوش مصنوعی مولد می دهند.
  • سوگیری های تسهیل زمینه سازی هوش مصنوعی برای استفاده عملیاتی از هوش مصنوعی مولد
  • تعصبات در هر راه اندازی یا دستورالعمل پیش فرض ایجاد شده برای هوش مصنوعی مولد در استفاده روزانه آن
  • سوگیری هایی که به طور عمدی یا سهوا در اعلان های وارد شده توسط کاربر هوش مصنوعی مولد گنجانده شده است.
  • سوگیری های یک شرایط سیستمیک در مقابل یک ظاهر موقت به عنوان بخشی از تولید خروجی احتمالی تصادفی توسط هوش مصنوعی مولد
  • سوگیری های ناشی از تنظیمات در حین پرواز یا زمان واقعی یا آموزش داده ها در زمانی که هوش مصنوعی مولد تحت استفاده فعال است.
  • سوگیری هایی که در طول نگهداری یا نگهداری از برنامه هوش مصنوعی مولد و رمزگذاری مطابق با الگوی آن معرفی یا گسترش یافته است.
  • دیگر

همانطور که می بینید، راه های زیادی وجود دارد که از طریق آن تعصبات ناروا می تواند در توسعه و توسعه هوش مصنوعی رخنه کند. این یک نوع نگرانی یکباره نیست. من این را به یک وضعیت ضرب و شتم تشبیه می کنم. شما باید با پشتکار و همیشه در تلاش برای کشف و حذف یا کاهش تعصبات هوش مصنوعی در برنامه های هوش مصنوعی خود باشید.

این نکات سنجیده ارائه شده در وبلاگ FTC در 19 آوریل 2021 را در نظر بگیرید (این نکات صرف نظر از وجودشان همچنان اعمال می شوند قدیمی از نظر بازه های زمانی پیشرفت هوش مصنوعی):

  • "با پایه و اساس درست شروع کنید"
  • "مراقب نتایج تبعیض آمیز باشید"
  • "شفافیت و استقلال را بپذیرید"
  • "در آنچه الگوریتم شما می تواند انجام دهد یا اینکه آیا می تواند نتایج منصفانه یا بی طرفانه ارائه دهد، اغراق نکنید."
  • "در مورد نحوه استفاده از داده ها حقیقت را بگویید"
  • "بیشتر از ضرر انجام دهید"
  • "خود را مسئول نگه دارید - یا آماده باشید که FTC این کار را برای شما انجام دهد"

یکی از موارد مورد علاقه من از نکات بالا، چهارمین مورد ذکر شده است، که به ادعا یا افسانه پرکاربرد اشاره دارد که به دلیل ترکیب هوش مصنوعی یک برنامه خاص باید بی طرفانه باشد.

در اینجا چگونگی آن است.

همه ما می دانیم که انسان ها مغرضانه هستند. ما به نوعی در دام ذهنی می افتیم که ماشین ها و هوش مصنوعی می توانند بی طرف باشند. بنابراین، اگر در موقعیتی قرار داشته باشیم که بتوانیم بین استفاده از انسان در مقابل هوش مصنوعی هنگام جستجوی نوعی از خدمات یکی را انتخاب کنیم، ممکن است وسوسه شویم که از هوش مصنوعی استفاده کنیم. امید این است که هوش مصنوعی مغرضانه نباشد.

این امید یا فرض را می توان تقویت کرد اگر سازنده یا سازنده هوش مصنوعی اعلام کند که هوش مصنوعی آنها بدون شک و بدون تردید بی طرفانه است. این شیرینی آرامش بخش روی کیک است. ما در حال حاضر آماده هستیم تا به سمت آن مسیر پامچال هدایت شویم. تبلیغات معامله را قطع می کند.

مشکل این است که هیچ اطمینان خاصی از بی طرفی هوش مصنوعی وجود ندارد. سازنده هوش مصنوعی یا فیلد کننده هوش مصنوعی ممکن است در مورد تعصبات هوش مصنوعی دروغ بگوید. اگر بیش از حد شرورانه به نظر می رسد، بیایید در نظر بگیریم که سازنده هوش مصنوعی یا صاحبان هوش مصنوعی ممکن است ندانند که آیا هوش مصنوعی آنها دارای سوگیری است یا خیر، اما به هر حال تصمیم می گیرند چنین ادعایی را مطرح کنند. از نظر آنها این ادعایی معقول و قابل انتظار به نظر می رسد.

وبلاگ FTC این مثال آشکار را نشان می‌دهد: «به عنوان مثال، فرض کنید یک توسعه‌دهنده هوش مصنوعی به مشتریان می‌گوید که محصولش «تصمیم‌های استخدامی 100 درصد بی‌طرفانه» را ارائه می‌کند، اما الگوریتم با داده‌هایی ساخته شده است که فاقد تنوع نژادی یا جنسیتی است. نتیجه ممکن است فریب، تبعیض و اقدام مجری قانون FTC باشد.همانجا).

اقداماتی که باید در مورد برنامه های تبلیغاتی هوش مصنوعی خود انجام دهید

شرکت ها گاهی اوقات خود را به آب گرم بالقوه می اندازند زیرا یک دست نمی داند دست دیگر چه می کند.

در بسیاری از شرکت‌ها، هنگامی که یک برنامه هوش مصنوعی برای انتشار آماده شد، به تیم بازاریابی اطلاعات کمی در مورد آنچه برنامه هوش مصنوعی انجام می‌دهد داده می‌شود. خط کلاسیک این است که جزئیات هوش مصنوعی در بالای سر آنها قرار دارد و آن‌ها به اندازه کافی برای درک آن از فن‌آوری زیرک نیستند. در این شکاف پتانسیل تبلیغات عجیب هوش مصنوعی وجود دارد. بازاریاب ها بر اساس هر لقمه یا نکته ای که با آنها به اشتراک گذاشته می شود، آنچه را که می توانند انجام می دهند.

من نمی گویم که طرف بازاریابی کلاهبرداری بود. فقط این که اغلب بین بخش توسعه هوش مصنوعی خانه و سمت بازاریابی فاصله وجود دارد. البته، مواردی وجود دارد که تیم بازاریابی اساساً کلاهبرداری می کند. توسعه‌دهندگان هوش مصنوعی ممکن است به قابلیت‌های اعلام‌شده هوش مصنوعی فوق‌انسانی ببالند، که احتمالاً بازاریابان هیچ راه معنی‌داری برای رد یا ابراز احتیاط ندارند. ما می توانیم جابجایی های فاجعه بار دیگری را در نظر بگیریم. ممکن است توسعه‌دهندگان هوش مصنوعی در مورد محدودیت‌های هوش مصنوعی صحبت کنند، اما طرف بازاریابی تصمیم گرفت تا با اغراق‌آمیز کردن آنچه که هوش مصنوعی می‌تواند انجام دهد، مقداری آب به آن اضافه کند. شما می دانید که چگونه است، آن متخصصان هوش مصنوعی فقط نمی دانند که برای فروش چیزی چه چیزی لازم است.

کسی باید داور باشد و اطمینان حاصل کند که دو بخش تا حدودی متفاوت با هم تلاقی ذهنی مناسبی دارند. تبلیغات تصور شده باید بر اساس پایه هایی باشد که توسعه دهندگان هوش مصنوعی باید بتوانند شواهد یا شواهدی برای آن ارائه دهند. علاوه بر این، اگر توسعه‌دهندگان هوش مصنوعی آغشته به افکار واهی هستند و قبلاً از AI Kool-Aid استفاده می‌کنند، باید این موضوع شناسایی شود تا تیم بازاریابی در برابر تصورات بیش از حد خوش‌بینانه و بی‌اساس کور نشود.

در برخی از شرکت ها نقش الف افسر ارشد هوش مصنوعی به عنوان یک ارتباط احتمالی برای اطمینان از اینکه تیم اجرایی در بالاترین سطوح در حال بررسی نحوه استفاده از هوش مصنوعی در داخل شرکت و به عنوان بخشی از محصولات و خدمات شرکت هستند، مطرح شده است. همچنین امیدواریم این نقش در کنار هم قرار دادن بخش هوش مصنوعی خانه و بخش بازاریابی خانه، مالش آرنج با رئیس بازاریابی یا مدیر ارشد بازاریابی (CMO) باشد. بحث من در مورد این نقش در حال ظهور را ببینید پیوند اینجا.

نقش بسیار مهم دیگری باید در این موارد گنجانده شود.

جنبه قانونی خانه نیز به همان اندازه مهم است. یک افسر ارشد حقوقی (CLO) یا مشاور ارشد یا مشاور خارجی باید در جنبه‌های هوش مصنوعی در طول توسعه، میدان‌داری و بازاریابی هوش مصنوعی مشارکت داشته باشد. متأسفانه، تیم حقوقی اغلب آخرین کسی است که در مورد چنین تلاش‌هایی با هوش مصنوعی می‌داند. شرکتی که در نتیجه دعوی قضایی یا تحقیقات آژانس فدرال، اخطار قانونی دریافت می‌کند، ناگهان متوجه می‌شود که شاید افراد حقوقی باید در استقرار هوش مصنوعی خود درگیر شوند.

یک رویکرد هوشمندانه تر این است که قبل از اینکه اسب از انبار خارج شود، تیم حقوقی را شامل شود. مدتها قبل از اینکه اسب از انبار بیرون بیاید. خیلی زودتر برای پوشش من در مورد هوش مصنوعی و اقدامات قانونی، نگاه کنید پیوند اینجا و پیوند اینجا، به عنوان مثال.

یک پست آنلاین اخیر با عنوان "خطرات بیش از حد بر هوش مصنوعی: FTC در حال تماشا است" توسط شرکت حقوقی Debevoise & Plimpton (یک شرکت حقوقی بین المللی شناخته شده در سطح جهانی، که دفتر مرکزی آن در شهر نیویورک است)، نوشته شده توسط Avi Gesser، Erez Liebermann، Jim Pastore، آنا آر. گرسل، ملیسا میوز، پل دی. روبین، کریستوفر اس. فورد، منگی ژو، و با تاریخ ارسال شده در 6 مارس 2023، نشانه قابل توجهی از اقداماتی است که شرکت ها باید در مورد تلاش های هوش مصنوعی خود انجام دهند.

در اینجا برخی از گزیده‌های منتخب از ارسال وبلاگ (پست کامل در پیوند اینجا):

  • "1 تعریف هوش مصنوعی. ایجاد یک تعریف داخلی از آنچه که می‌تواند به‌عنوان هوش مصنوعی مشخص شود را در نظر بگیرید تا از ادعاهایی مبنی بر اینکه شرکت به دروغ ادعا می‌کند که یک محصول یا خدمات از هوش مصنوعی استفاده می‌کند، زمانی که صرفاً از یک الگوریتم یا مدل ساده غیر AI استفاده می‌کند، جلوگیری کنید.
  • "2 فهرست. ایجاد فهرستی از اظهارات عمومی در مورد محصولات و خدمات هوش مصنوعی این شرکت را در نظر بگیرید.
  • "3 آموزش: تیم های انطباق بازاریابی خود را در مورد راهنمایی های FTC و مسائل مربوط به تعریف هوش مصنوعی آموزش دهید.
  • "4 نقد و بررسی: فرآیندی را برای بررسی همه اظهارات عمومی فعلی و پیشنهادی در مورد محصولات و خدمات هوش مصنوعی این شرکت در نظر بگیرید تا مطمئن شوید که آنها دقیق هستند، قابل اثبات هستند و اغراق و یا قول بیش از حد نمی‌دهند.»
  • "5 ادعاهای فروشنده: برای سیستم‌های هوش مصنوعی که توسط یک فروشنده در اختیار شرکت قرار می‌گیرد، مراقب باشید که ادعاهای فروشنده در مورد سیستم هوش مصنوعی را بدون اطمینان از صحت آنها تکرار نکنید.
  • "6 ارزیابی های ریسک: برای کاربردهای هوش مصنوعی پرخطر، شرکت‌ها باید ارزیابی‌های تاثیر را برای تعیین ریسک‌های قابل پیش‌بینی و بهترین روش برای کاهش این خطرات در نظر بگیرند و سپس افشای این خطرات را در اظهارات خارجی در مورد برنامه‌های هوش مصنوعی در نظر بگیرند.

من که یک مدیر ارشد اجرایی و CIO/CTO جهانی بوده‌ام، می‌دانم که تیم حقوقی چقدر برای توسعه و پیاده‌سازی سیستم‌های هوش مصنوعی داخلی و خارجی، از جمله هنگام صدور مجوز یا دریافت بسته‌های نرم‌افزاری شخص ثالث، اهمیت دارد. به خصوص با تلاش های هوش مصنوعی. تیم حقوقی باید تعبیه شود یا حداقل به عنوان متحد نزدیک و دوست داشتنی تیم فناوری در نظر گرفته شود. تعداد زیادی از مین های زمینی قانونی مربوط به هر فناوری و به طور قابل توجهی برای هوش مصنوعی وجود دارد که یک شرکت تصمیم به ساخت یا اتخاذ می کند.

هوش مصنوعی امروزه در صدر فهرست مین های قانونی قانونی قرار دارد.

همکاری فناوران هوش مصنوعی با متخصصان بازاریابی و وکلای حقوقی بهترین فرصتی است که شما برای انجام درست کارها دارید. هر سه را به طور مداوم و نه با تأخیر یا یکبار جمع آوری کنید تا بتوانند استراتژی بازاریابی و تبلیغات و استقرار را که مزایای اجرای هوش مصنوعی را به همراه دارد، بیابند. هدف این است که شبح بازوی دراز قانون و دعاوی پرهزینه و مضر به شهرت را به حداقل برسانیم، در حالی که تحسین منصفانه و متعادلی را که هوش مصنوعی اساساً فراهم می کند نیز به حداکثر می رساند.

اصل Goldilocks در مورد هوش مصنوعی صدق می کند. شما می‌خواهید ادعا کنید که هوش مصنوعی می‌تواند کارهای بزرگی انجام دهد، با این فرض که می‌تواند و انجام می‌دهد، که به وضوح توسط شواهد و شواهد به خوبی ابداع شده پشتیبانی می‌شود. شما نمی خواهید ناخواسته از هر چیزی که هوش مصنوعی به عنوان ارزش اضافه می کند دوری کنید. این ویژگی های افزودنی هوش مصنوعی را کاهش می دهد. و از سوی دیگر، مطمئناً نمی‌خواهید تبلیغات مضحک و لاف‌آمیز ایجاد کنید که از ریل خارج شود و ادعاهایی را مطرح کند که شرم‌آور است و درگیر درگیری‌های قانونی است.

سوپ باید فقط در دمای مناسب باشد. دستیابی به این امر مستلزم سرآشپزهایی توانا و با هوش مصنوعی از تیم فناوری، تیم بازاریابی و تیم حقوقی است.

در پست اخیر شرکت حقوقی آرنولد و پورتر (یک شرکت حقوقی معروف چندملیتی با دفتر مرکزی در واشنگتن دی سی)، آیزاک ای. چائو و پیتر جی. شیلدکرات مقاله ای با عنوان "FTC هشدار می دهد: همه آنچه باید درباره آن بدانید" نوشتند. هوش مصنوعی که در مهد کودک یاد گرفتید» (تاریخ ارسال شده در 7 مارس 2023، موجود در پیوند اینجا) و این تاکید احتیاطی مهم را در مورد تعهدات قانونی مرتبط با استفاده از هوش مصنوعی انجام داد:

  • به طور خلاصه، آنقدر درگیر جادوی هوش مصنوعی نباشید که اصول اولیه را فراموش کنید. تبلیغات فریبنده شرکت را در معرض مسئولیت تحت قوانین حمایت از مصرف کننده فدرال و ایالتی قرار می دهد، که بسیاری از آنها علاوه بر اجرای دولت، حقوق عمل خصوصی را نیز مجاز می دانند. مشتریان گمراه شده - به ویژه مشتریان B2B - ممکن است تحت تئوری های مختلف قراردادی و تخلفات خسارتی را طلب کنند. و شرکت های دولتی باید نگران اظهارات SEC یا سهامداران مبنی بر اینکه ادعاهای پشتیبانی نشده بااهمیت هستند، باشند.

توجه داشته باشید که حتی اگر هوش مصنوعی شما مشتریان را هدف قرار ندهد، از نظر قانونی در معرض خطر بالقوه قرار نگرفته اید. مشتریانی که کسب‌وکار هستند نیز می‌توانند تصمیم بگیرند که ادعاهای هوش مصنوعی شما به اشتباه یا شاید به‌طور متقلبانه آنها را گمراه کرده است. هر گونه خطر قانونی ممکن است ایجاد شود.

نتیجه

بسیاری از مردم منتظرند تا ببینند که از جنون موجود و رو به رشد هوش مصنوعی چه خرابکاری مرتبط با تبلیغات هوش مصنوعی افزایش می‌یابد. برخی معتقدند که ما به نمونه ای با کالیبر فولکس واگن یا کهن الگوی با قد L'Oréal نیاز داریم تا به همه بفهمانیم که موارد ادعاهای ظالمانه بی اساس در مورد هوش مصنوعی قابل تحمل نیست.

تا زمانی که یک بحث قانونی به اندازه کافی بزرگ در رابطه با تبلیغات خارج از محدوده هوش مصنوعی در رسانه های اجتماعی و در اخبار روزمره مورد توجه گسترده قرار گیرد، نگرانی این است که رونق پربار هوش مصنوعی همچنان ادامه خواهد داشت. بازاریابی هوش مصنوعی به بالا رفتن از نردبان عجیب و غریب ادامه خواهد داد. این بالاتر و بالاتر می رود. هر هوش مصنوعی بعدی باید یکی از هوش مصنوعی های قبل از خود را انجام دهد.

توصیه من این است که شما احتمالاً نمی خواهید کهن الگو باشید و در کتاب های تاریخ به دلیل گیر افتادن با دست خود در ظرف کوکی تزئینی هوش مصنوعی در کتاب های تاریخ قرار بگیرید. قیافه خوبی نیست هزینه بر. احتمالاً می تواند تجارت و مشاغل مرتبط را خراب کند.

آیا گرفتار خواهید شد؟

توصیه می‌کنم اگر مراقب کاری که انجام می‌دهید، گرفتار شدن یک نگرانی کابوس‌آمیز نخواهد بود، زیرا دقت لازم را انجام داده‌اید و می‌توانید در حالی که سر خود را روی بالش خود قرار داده‌اید، آرام بخوابید.

برای کسانی از شما که مایل به پیروی از این توصیه نیستند، من آخرین کلمه را برای این اظهار نظر پیشگیرانه خفیف در وبلاگ FTC در 27 فوریه 2023 می گذارم: "هر کاری که می تواند یا نمی تواند انجام دهد، هوش مصنوعی مهم است. و همچنین ادعاهایی که در مورد آن دارید. برای پیش‌بینی اینکه FTC ممکن است در زمانی که این ادعاها پشتیبانی نمی‌شوند چه کاری انجام دهد، نیازی به ماشین ندارید.

خب، فکر می‌کنم یکی می‌تواند از هوش مصنوعی برای کمک به شما برای دوری از تبلیغات غیرقانونی هوش مصنوعی استفاده کند، اما این یک روایت برای یک روز دیگر است. فقط به خاطر داشته باشید که در مورد هوش مصنوعی خود متفکر و صادق باشید. این کار را انجام دهید و مطمئن شوید که بهترین بیگل‌های حقوقی را دارید که به شدت حکمت حقوقی خود را در این زمینه ارائه می‌کنند.

منبع: https://www.forbes.com/sites/lanceeliot/2023/03/12/federal-trade-commission-aims-to-bring-down-the-hammer-on-those-outsized-unfounded-claims- درباره-ای-زاینده-چتگپت-و-دیگر-آی-اخطار-اخلاق-و-قانون-آی/