اخلاق هوش مصنوعی و هوش مصنوعی قانونی با بهانه های فریبنده معروف به شستن اخلاق هوش مصنوعی که ادعاهای نادرست پایبندی به هوش مصنوعی اخلاقی، از جمله برای خودروهای خودران خودران است، مخدوش می شود.

بیایید راه‌های بی‌شماری را بررسی کنیم که کلمات «شستن» و «شستن» را می‌توان گسترش داد و برای برقراری ارتباط با انواع مرواریدهای خرد استفاده کرد.

به عنوان مثال می دانیم که مردم گاهی اوقات هشدار می دهند که نباید لباس های کثیف خود را در ملاء عام بشویید. در دوران کودکی به یاد دارم که بزرگسالان اغلب هشدار می‌دادند که بیان نادرست می‌تواند منجر به شستن دهان شما با صابون شود. یکی دیگر از عبارت‌های متداول این بود که به نظر می‌رسد همه چیز در نهایت در شستشو ظاهر می‌شود.

اگر نگران چیزی بودید که نمی‌خواستید با آن ارتباط برقرار کنید، ایده توصیه شده این بود که ببینید آیا می‌توانید دست‌هایتان را از آن بشویید یا خیر. انواع ملاحظات مربوط به شستشو معمولاً در اطراف وجود دارد، از جمله اینکه می‌توانید به طور خلاصه شسته یا شسته شوید. شستن تخم مرغ از روی صورت یک ضرب المثل قدیمی است که به نظر می رسد هنوز گاهی اوقات در مکالمات مطرح می شود.

استفاده از رنگ ها برای نشان دادن تغییرات شستشو نیز نسبتاً شناخته شده است. گفته می شود که مفهوم سفیدکاری حداقل به دهه 1500 برمی گردد. نگرانی هایی در مورد شستشوی قرمز، شستشوی بنفش و غیره وجود دارد. به جرأت می توانم بگویم که شاید گرین واشینگ یکی از پرکاربردترین عبارات جذاب این روزها باشد که ظاهراً به یک عمل توخالی در هنگام تبلیغ پایداری اشاره دارد و در عین حال صحبت های ادعا شده را با هیچ ماده ای از ستون فقرات راه رفتن پشتیبان نمی کند.

شاید در مورد یکی از جدیدترین نسخه های شستشو، یعنی شستشوی AI Ethics ندانید.

برخی ترجیح می‌دهند که عبارت را به «شستشوی اخلاقی» کوتاه کنند، اگرچه این می‌تواند باعث سردرگمی شود زیرا این عبارت جایگزین ظاهراً می‌تواند تقریباً به هر نوع شستشوی اخلاق محور اشاره داشته باشد. شکل خاصی از Ethics Washing که در اینجا در مورد آن بحث خواهم کرد، شامل اخلاق متمرکز بر هوش مصنوعی و همه ملاحظات اخلاقی مرتبط است. برای وضوح، می‌خواهم پیشنهاد کنم که Ethics Washing طیف گسترده‌ای از شستشوی اخلاقی را پوشش می‌دهد که ممکن است به خودی خود ربطی به هوش مصنوعی نداشته باشد یا اصلاً ارتباطی نداشته باشد. و اینکه شستشوی اخلاقیات هوش مصنوعی نوع خاصی از شستشوی اخلاقی است که به طور خاص حوزه هوش مصنوعی را هدف قرار می دهد.

شاید از خود بپرسید، شستشوی AI Ethics دقیقا از چه چیزی تشکیل شده است؟

تعریف کلی من این است که شستشوی AI Ethics را می توان به صورت زیر تعریف کرد:

  • شستشوی اخلاق هوش مصنوعی مستلزم ارائه خدمات لب یا پانسمان پنجره به نگرانی های ادعایی مراقبتی در مورد اصول اخلاقی هوش مصنوعی است، از جمله در مواقعی که نه تنها به ویژه از رویکردهای اخلاقی هوش مصنوعی پیروی نمی شود بلکه حتی تا آنجا پیش می رود که رویکردهای اخلاقی هوش مصنوعی را زیر سوال می برد.

برای پوشش مداوم و گسترده من از اخلاق هوش مصنوعی و هوش مصنوعی اخلاقی، رجوع کنید به پیوند اینجا و پیوند اینجا، فقط به نام چند.

یک مثال سریع از شستشوی AI Ethics ممکن است برای شما گویا باشد.

فرض کنید شرکتی که در حال ساخت یک سیستم هوش مصنوعی است، مایل است به دنیا اطلاع دهد که هوش مصنوعی چقدر عالی خواهد بود. این شرکت تصمیم می گیرد که یکی از راه های جلب توجه رسانه های اجتماعی و مطبوعاتی مثبت در مورد هوش مصنوعی، این است که این هوش مصنوعی را به طور کامل منصفانه و متعادل در نحوه عملکرد هوش مصنوعی ایجاد کند. هوش مصنوعی کاملا قابل اعتماد است. این شرکت به شدت به اصول ایجاد به اصطلاح پایبند است هوش مصنوعی مسئول، پوشش من را در پیوند اینجا. ادعا این است که تمام اصول رایج اخلاق هوش مصنوعی به طور یکپارچه در سیستم هوش مصنوعی در هم تنیده شده است.

عالیه!

فقط یک مشکل کوچک

معلوم شد که شرکت هیچ یک از این کارها را انجام نداده است.

آنها از دستورات اخلاق هوش مصنوعی تبعیت نکردند. گفتند این کار را کردند، اما این کار را نکردند. رهبران شرکت و تیم بازاریابی به این نتیجه رسیدند که ادعای رعایت دقیق ملاحظات هوش مصنوعی اخلاقی احتمالاً برای تجارت خوب است. نیازی نیست واقعاً کار سخت مقابله با دستورالعمل‌های اخلاقی آزاردهنده هوش مصنوعی را انجام دهید، و در عوض فقط بگویید که انجام دادید.

Voila، آن‌ها فوراً می‌توانند هوش مصنوعی خود را با پرش به گروه Ethics هوش مصنوعی تبلیغ کنند.

آسان هلال

اما این یک مسیر پرخطر است و در واقع به طور بالقوه مشکلات بزرگی ایجاد خواهد کرد.

شرکت‌ها و رهبرانی که تصمیم می‌گیرند به دروغ از اخلاق هوش مصنوعی استناد کنند، در حالی که برای رعایت هوش مصنوعی اخلاقی کار چندانی انجام نداده‌اند، به طور بالقوه خود را در معرض خطرات زیادی قرار می‌دهند. اولاً، اگر روزی درمورد نادرستی اخلاق هوش مصنوعی خود افشا شوند، در معرض خطر واکنش شدید شهرت قرار خواهند گرفت. آنها دروغ گفتند که به اخلاق هوش مصنوعی فکر می کنند. علاوه بر این، گیر افتادن در یک دروغ، صرف نظر از داشتن ارتباط با اخلاق هوش مصنوعی، آنها را به آب داغ اضافه می کند. این دوفرد از دروغ است.

دوم، عواقب قانونی متعدد می تواند آنها و شرکت آنها را نیش بزند. یکی این است که آنها آنچه را که گفته اند انجام نداده اند و به طور بالقوه می توانند در قبال ادعاهای نادرست خود مسئول شناخته شوند. مورد دیگر این است که احتمالاً هوش مصنوعی آنها قوانین مربوط به مناطق حساس اجتماعی مانند نشان دادن تعصبات ناروا و رفتارهای تبعیض آمیز را نقض می کند. فهرست مسائل حقوقی طولانی است و ممکن است شرکت را مجبور به نبردهای حقوقی پرهزینه کند و احتمالاً کل کشتی را غرق کند.

لعنتی چرا یک شرکت و رهبران آن از شستشوی AI Ethics استفاده می کنند؟

خوب، گنجاندن شیوه‌های هوش مصنوعی اخلاقی می‌تواند تا حدودی پرهزینه باشد، اگرچه استدلال متقابل این است که در نهایت، مزایای داشتن هوش مصنوعی واقعی و با کیفیت بالا در پایبندی به رویکردهای اخلاقی هوش مصنوعی به آسانی از هزینه فراتر خواهد رفت. با این وجود، برخی از شرکت‌ها ترجیح می‌دهند هوش مصنوعی خود را زودتر به بیرون برسانند و بعداً متوجه شوند که در مورد عواقب عدم توجه به هوش مصنوعی اخلاقی در طول فرآیند توسعه نگران خواهند شد.

خط قدیمی به نظر می رسد که متحمل می شود، شامل این است که اکنون به من پرداخت کنید یا بعداً به من پرداخت کنید. برخی از رهبران و شرکت‌ها معتقدند که ارزش این را دارد که تاس انداخته و امیدوار باشند که وقتی تصمیم می‌گیرند جلوی جنبه‌های پرداختی را بگیرند، متحمل هزینه پرداخت بعدا نشوند. من استدلال می کنم که وقتی صحبت از اخلاق هوش مصنوعی به میان می آید، ناهار رایگان وجود ندارد. شما یا وظیفه خود را انجام می دهید یا عواقب آن را متحمل می شوید.

این بدان معنا نیست که در همه اینها فضای تکان دادن زیادی وجود ندارد.

شرکت‌ها ممکن است انگشتان پای خود را در اخلاق هوش مصنوعی فرو ببرند و سپس سعی کنند تا چه حد انجام داده‌اند اغراق کنند. فرض بالقوه آنها این است که دفاع کافی برای مقابله با هرگونه اتهامی مبنی بر عدم استفاده از اخلاق هوش مصنوعی خواهند داشت. آن‌ها می‌توانند به نوعی از فعالیت‌های اخلاقی هوش مصنوعی اشاره کنند که ممکن است آنها را از قلاب خارج کند. بنابراین، بحث از عدم انجام هیچ گونه تلاشی در زمینه اخلاق هوش مصنوعی تغییر می کند و در عوض به این می شود که آیا آنها به اندازه کافی انجام داده اند یا نه.

این بحثی است که می‌تواند تقریباً بی‌پایان پیش برود و به تامین‌کننده شستشوی اخلاق هوش مصنوعی فضای زیادی برای مانور بدهد.

بخشی از جنبه های ضعیف این است که هنوز استانداردهای جهانی و قابل اجرا قطعی در مورد اخلاق هوش مصنوعی وجود ندارد. بدون مجموعه ای منسجم و جامع از معیارها، هر گونه بحث در مورد اینکه آیا اخلاق هوش مصنوعی به درستی رعایت شده است، ضعیف و مبهم خواهد بود. شرکت اصرار خواهد کرد که آنها به اندازه کافی انجام داده اند. یک فرد خارجی یا فرد دیگری که ادعا می کند شرکت به اندازه کافی انجام نداده است، نبرد سختی خواهد داشت که چنین مخالفتی را نشان می دهد. ابهام می تواند حاکم شود.

قبل از پرداختن به گوشت و سیب زمینی بیشتر در مورد ملاحظات وحشی و پشمالوی زیربنای شستشوی اخلاق هوش مصنوعی، بیایید برخی اصول اضافی را در مورد موضوعات کاملاً یکپارچه ایجاد کنیم. ما باید به طور مختصر به اخلاق هوش مصنوعی و به ویژه ظهور یادگیری ماشینی (ML) و یادگیری عمیق (DL) نگاهی کوتاه بیندازیم.

ممکن است به طور مبهم آگاه باشید که یکی از بلندترین صداها این روزها در زمینه هوش مصنوعی و حتی خارج از حوزه هوش مصنوعی، فریاد زدن برای ظاهری بیشتر از هوش مصنوعی اخلاقی است. بیایید نگاهی به معنای ارجاع به اخلاق هوش مصنوعی و هوش مصنوعی اخلاقی بیندازیم. علاوه بر این، وقتی از یادگیری ماشینی و یادگیری عمیق صحبت می‌کنم، منظورم را بررسی خواهیم کرد.

یک بخش یا بخش خاصی از اخلاق هوش مصنوعی که توجه رسانه ها را به خود جلب کرده است شامل هوش مصنوعی است که سوگیری ها و نابرابری های نامناسبی را نشان می دهد. ممکن است بدانید که زمانی که آخرین دوره هوش مصنوعی آغاز شد، شور و شوق زیادی برای آنچه که اکنون برخی می‌گویند وجود داشت. هوش مصنوعی برای خوب. متأسفانه، در پاشنه آن هیجان فوران، ما شروع به مشاهده کردیم هوش مصنوعی برای بد. برای مثال، سیستم‌های مختلف تشخیص چهره مبتنی بر هوش مصنوعی حاوی سوگیری‌های نژادی و سوگیری‌های جنسیتی هستند که من در مورد آن بحث کرده‌ام. پیوند اینجا.

تلاش برای مبارزه با هوش مصنوعی برای بد به طور فعال در حال انجام هستند. علاوه بر پر سر و صدا حقوقی تلاش برای مهار تخلفات، همچنین فشار اساسی به سمت پذیرش اخلاق هوش مصنوعی برای اصلاح شرارت هوش مصنوعی وجود دارد. تصور این است که ما باید اصول کلیدی هوش مصنوعی اخلاقی را برای توسعه و توسعه هوش مصنوعی اتخاذ و تأیید کنیم تا این کار را کاهش دهیم. هوش مصنوعی برای بد و به طور همزمان منادی و ترویج مرجح هوش مصنوعی برای خوب.

در یک مفهوم مرتبط، من طرفدار تلاش برای استفاده از هوش مصنوعی به عنوان بخشی از راه حل مشکلات هوش مصنوعی هستم، و با این شیوه تفکر با آتش مبارزه می کنم. برای مثال، ممکن است اجزای هوش مصنوعی اخلاقی را در یک سیستم هوش مصنوعی تعبیه کنیم که بر نحوه انجام بقیه هوش مصنوعی نظارت می‌کند و بنابراین به طور بالقوه در زمان واقعی هرگونه تلاش تبعیض آمیز را جلب می‌کند. پیوند اینجا. ما همچنین می‌توانیم یک سیستم هوش مصنوعی جداگانه داشته باشیم که به عنوان نوعی مانیتور اخلاق هوش مصنوعی عمل می‌کند. سیستم هوش مصنوعی به عنوان یک ناظر برای ردیابی و تشخیص اینکه چه زمانی هوش مصنوعی دیگر به ورطه غیراخلاقی می رود عمل می کند (تحلیل من از چنین قابلیت هایی را در اینجا ببینید. پیوند اینجا).

در یک لحظه، من برخی از اصول کلی زیربنای اخلاق هوش مصنوعی را با شما به اشتراک خواهم گذاشت. تعداد زیادی از این نوع لیست ها اینجا و آنجا شناور هستند. می توان گفت که هنوز فهرست منحصر به فردی از جذابیت و توافق جهانی وجود ندارد. این خبر تاسف بار است. خبر خوب این است که حداقل لیست‌های اخلاقی هوش مصنوعی وجود دارد که کاملاً مشابه هستند. در مجموع، این نشان می‌دهد که با نوعی همگرایی مستدل، راه خود را به سوی یک اشتراک کلی از آنچه اخلاق هوش مصنوعی تشکیل می‌دهد، پیدا می‌کنیم.

ابتدا، اجازه دهید به طور مختصر برخی از قوانین کلی اخلاقی هوش مصنوعی را پوشش دهیم تا نشان دهیم چه چیزی باید برای هر کسی که در حال ساخت، ساخت و یا استفاده از هوش مصنوعی است، اهمیت حیاتی داشته باشد.

به عنوان مثال، همانطور که توسط واتیکان در فراخوان رم برای اخلاق هوش مصنوعی و همانطور که به طور عمیق به آن پرداخته ام پیوند اینجا، این شش اصل اصلی اخلاق هوش مصنوعی شناسایی شده آنها است:

  • شفافیت: در اصل، سیستم های هوش مصنوعی باید قابل توضیح باشند
  • نقص: نیازهای همه انسانها باید مورد توجه قرار گیرد تا همه بتوانند از آن بهره ببرند و بهترین شرایط ممکن برای ابراز وجود و پیشرفت به همه افراد ارائه شود.
  • مسئوليت: کسانی که استفاده از هوش مصنوعی را طراحی و اجرا می کنند باید با مسئولیت و شفافیت پیش بروند
  • بی طرفی: از ایجاد و یا عمل بر اساس تعصب، در نتیجه حفظ انصاف و کرامت انسانی
  • قابلیت اطمینان: سیستم های هوش مصنوعی باید بتوانند به طور قابل اعتماد کار کنند
  • امنیت و حریم خصوصی: سیستم های هوش مصنوعی باید ایمن کار کنند و به حریم خصوصی کاربران احترام بگذارند.

همانطور که توسط وزارت دفاع ایالات متحده (DoD) در آنها بیان شده است اصول اخلاقی برای استفاده از هوش مصنوعی و همانطور که به طور عمیق به آن پرداخته ام پیوند اینجا، این شش اصل اصلی اخلاق هوش مصنوعی آنهاست:

  • مسئول: پرسنل وزارت دفاع سطوح مناسبی از قضاوت و مراقبت را اعمال خواهند کرد و در عین حال مسئولیت توسعه، استقرار و استفاده از قابلیت‌های هوش مصنوعی را بر عهده خواهند داشت.
  • منصفانه: این وزارتخانه اقدامات عمدی را برای به حداقل رساندن سوگیری ناخواسته در قابلیت‌های هوش مصنوعی انجام خواهد داد.
  • قابل ردیابی: قابلیت‌های هوش مصنوعی این وزارتخانه به گونه‌ای توسعه و مستقر خواهد شد که پرسنل مربوطه درک مناسبی از فناوری، فرآیندهای توسعه، و روش‌های عملیاتی قابل اجرا برای قابلیت‌های هوش مصنوعی، از جمله روش‌شناسی شفاف و قابل ممیزی، منابع داده‌ها، روش‌ها و مستندات طراحی داشته باشند.
  • قابل اعتماد: قابلیت‌های هوش مصنوعی این وزارتخانه کاربردهای مشخص و مشخصی خواهند داشت، و ایمنی، امنیت و اثربخشی چنین قابلیت‌هایی مشمول آزمایش و اطمینان در آن کاربردهای تعریف‌شده در کل چرخه عمر آن‌ها خواهد بود.
  • قابل اداره: این وزارتخانه قابلیت‌های هوش مصنوعی را طراحی و مهندسی می‌کند تا عملکردهای مورد نظر خود را انجام دهد، در حالی که توانایی شناسایی و اجتناب از پیامدهای ناخواسته را دارد، و توانایی جدا کردن یا غیرفعال کردن سیستم‌های مستقری که رفتار ناخواسته را نشان می‌دهند.

من همچنین در مورد تجزیه و تحلیل‌های جمعی مختلف از اصول اخلاق هوش مصنوعی بحث کرده‌ام، از جمله پوشش مجموعه‌ای ابداع شده توسط محققان که ماهیت بسیاری از اصول اخلاقی هوش مصنوعی ملی و بین‌المللی را در مقاله‌ای تحت عنوان «چشم‌انداز جهانی دستورالعمل‌های اخلاق هوش مصنوعی» (منتشر شده) بررسی و فشرده کرده است. که در طبیعت) و پوشش من در آن بررسی می شود پیوند اینجا، که منجر به این لیست کلیدی شد:

  • شفافیت
  • عدالت و انصاف
  • عدم سوء استفاده
  • مسئوليت
  • حریم خصوصی
  • سود رسانی
  • آزادی و خودمختاری
  • اعتماد
  • پایداری
  • کرامت
  • اتحاد

همانطور که ممکن است مستقیماً حدس بزنید، تلاش برای مشخص کردن جزئیات زیربنای این اصول می تواند بسیار سخت باشد. حتی بیشتر از آن، تلاش برای تبدیل این اصول گسترده به چیزی کاملاً ملموس و با جزئیات کافی برای استفاده در هنگام ساخت سیستم‌های هوش مصنوعی نیز یک مهره سخت است. به طور کلی می توان در مورد اینکه اصول اخلاقی هوش مصنوعی چیست و چگونه باید به طور کلی آنها را رعایت کرد، دست تکان داد، در حالی که وضعیت بسیار پیچیده تر در کدنویسی هوش مصنوعی است که باید لاستیک واقعی باشد که با جاده مطابقت می کند.

اصول اخلاق هوش مصنوعی باید توسط توسعه دهندگان هوش مصنوعی، همراه با آنهایی که تلاش های توسعه هوش مصنوعی را مدیریت می کنند، و حتی آنهایی که در نهایت سیستم های هوش مصنوعی را انجام می دهند، مورد استفاده قرار گیرد. همه ذینفعان در طول چرخه عمر توسعه و استفاده هوش مصنوعی در محدوده رعایت هنجارهای تثبیت شده هوش مصنوعی اخلاقی در نظر گرفته می شوند. این نکته مهمی است زیرا فرض معمول این است که «فقط کدنویس‌ها» یا کسانی که هوش مصنوعی را برنامه‌ریزی می‌کنند، منوط به رعایت مفاهیم اخلاقی هوش مصنوعی هستند. همانطور که قبلاً گفته شد، برای ابداع و به کارگیری هوش مصنوعی به یک دهکده نیاز است، و برای آن کل دهکده باید به اصول اخلاقی هوش مصنوعی مسلط باشد و از آن پیروی کند.

بیایید همچنین مطمئن شویم که در مورد ماهیت هوش مصنوعی امروزی همسو هستیم.

امروزه هیچ هوش مصنوعی وجود ندارد که حساس باشد. ما این را نداریم ما نمی دانیم که آیا هوش مصنوعی ممکن خواهد بود یا خیر. هیچ کس نمی تواند به درستی پیش بینی کند که آیا ما به هوش مصنوعی خواهیم رسید یا خیر، یا اینکه آیا هوش مصنوعی به طور معجزه آسایی به شکلی از ابرنواختر شناختی محاسباتی پدید خواهد آمد (که معمولاً به عنوان تکینگی شناخته می شود، پوشش من را در اینجا ببینید. پیوند اینجا).

نوع هوش مصنوعی که من روی آن تمرکز می کنم شامل هوش مصنوعی غیر حساسی است که امروز داریم. اگر بخواهیم به شدت در مورد آن حدس بزنیم با احساس هوش مصنوعی، این بحث می تواند در جهتی کاملاً متفاوت پیش رود. ظاهراً یک هوش مصنوعی با کیفیت انسانی خواهد بود. شما باید در نظر داشته باشید که هوش مصنوعی حسی معادل شناختی یک انسان است. علاوه بر این، از آنجایی که برخی گمانه زنی می کنند که ممکن است هوش مصنوعی فوق هوشمند داشته باشیم، می توان تصور کرد که چنین هوش مصنوعی می تواند در نهایت از انسان ها باهوش تر باشد (برای کاوش من در مورد هوش مصنوعی فوق هوشمند به عنوان یک احتمال، نگاه کنید به پوشش در اینجا).

بیایید همه چیز را روی زمین نگه داریم و هوش مصنوعی محاسباتی غیر حساس امروزی را در نظر بگیریم.

درک کنید که هوش مصنوعی امروزی قادر به «فکر کردن» به هیچ شکلی با تفکر انسان نیست. وقتی با الکسا یا سیری تعامل می کنید، ظرفیت های مکالمه ممکن است شبیه ظرفیت های انسانی به نظر برسد، اما واقعیت این است که محاسباتی است و فاقد شناخت انسانی است. آخرین دوره هوش مصنوعی از یادگیری ماشینی (ML) و یادگیری عمیق (DL) استفاده گسترده ای کرده است که از تطابق الگوی محاسباتی استفاده می کند. این منجر به سیستم‌های هوش مصنوعی شده است که ظاهری شبیه به تمایلات انسان دارند. در همین حال، هیچ هوش مصنوعی امروزی وجود ندارد که شباهتی به عقل سلیم داشته باشد و هیچ یک از شگفتی‌های شناختی تفکر قوی انسانی را نداشته باشد.

ML/DL نوعی تطبیق الگوی محاسباتی است. روش معمول این است که شما داده ها را در مورد یک کار تصمیم گیری جمع آوری می کنید. داده ها را به مدل های کامپیوتری ML/DL وارد می کنید. آن مدل ها به دنبال یافتن الگوهای ریاضی هستند. پس از یافتن چنین الگوهایی، در صورت یافتن، سیستم هوش مصنوعی در هنگام مواجهه با داده های جدید از آن الگوها استفاده خواهد کرد. پس از ارائه داده های جدید، الگوهای مبتنی بر داده های "قدیمی" یا تاریخی برای ارائه یک تصمیم فعلی استفاده می شود.

من فکر می کنم می توانید حدس بزنید که این به کجا می رود. اگر انسان‌هایی که بر اساس تصمیم‌گیری‌های الگو گرفته شده‌اند، سوگیری‌های نامطلوب را در خود جای داده‌اند، احتمال این وجود دارد که داده‌ها این را به روش‌های ظریف اما قابل توجهی منعکس کنند. تطبیق الگوی محاسباتی یادگیری ماشینی یا یادگیری عمیق به سادگی سعی می‌کند تا داده‌ها را مطابق با ریاضی تقلید کند. هیچ شباهتی از عقل سلیم یا سایر جنبه های حساس مدل سازی ساخته شده با هوش مصنوعی به خودی خود وجود ندارد.

علاوه بر این، توسعه دهندگان هوش مصنوعی نیز ممکن است متوجه نباشند که چه اتفاقی در حال رخ دادن است. ریاضیات محرمانه در ML/DL ممکن است کشف سوگیری های پنهان در حال حاضر را دشوار کند. شما به حق امیدوارید و انتظار دارید که توسعه‌دهندگان هوش مصنوعی سوگیری‌های بالقوه مدفون را آزمایش کنند، اگرچه این دشوارتر از آن چیزی است که به نظر می‌رسد. این احتمال وجود دارد که حتی با آزمایش نسبتاً گسترده، سوگیری‌هایی همچنان در مدل‌های تطبیق الگوی ML/DL وجود داشته باشد.

می‌توانید تا حدودی از ضرب‌المثل معروف یا بدنام زباله‌های درون زباله‌ها استفاده کنید. مسئله این است که این بیشتر شبیه سوگیری‌هایی است که به‌طور موذیانه به‌عنوان سوگیری‌هایی که در هوش مصنوعی غوطه‌ور می‌شوند، القا می‌شوند. الگوریتم تصمیم‌گیری (ADM) هوش مصنوعی به طور اصولی مملو از نابرابری‌ها می‌شود.

خوب نیست.

بیایید اکنون به مبحث شستشوی اخلاق هوش مصنوعی برگردیم.

چهار نوع اصلی از شستشوی AI Ethics وجود دارد که معمولاً مشاهده می‌کنم (اینها را در یک لحظه توضیح خواهم داد):

1) واشرهای اخلاقی هوش مصنوعی که نمی دانند هستند: شستن اخلاق هوش مصنوعی به دلیل ناآگاهی یا بی سوادی در مورد هوش مصنوعی و/یا اخلاق هوش مصنوعی

2) واشرهای اخلاقی هوش مصنوعی که در آن قرار می گیرند: شستن اخلاق هوش مصنوعی با لغزش ناخواسته، اگرچه در غیر این صورت در مورد اخلاق هوش مصنوعی و هوش مصنوعی صادق است

3) واشرهای اخلاقی هوش مصنوعی که به طور نازکی کشیده می شوند: شستن اخلاق هوش مصنوعی با نیت هدفمند، هرچند فقط توسط یک آدم کوچک و گاهی تقریباً قابل توجیه (یا نه)

4) واشرهای اخلاقی هوش مصنوعی که آن را می شناسند و گستاخانه می کنند: اخلاق هوش مصنوعی با طراحی موذیانه و اغلب ظالمانه شسته می شود

من به طور کلی پیشنهاد می‌کنم که این چهار نوع از بی‌گناه‌ترین تا مجرم‌ترین آن‌ها، تا آگاهی از چیستی شست‌وشو با اخلاق هوش مصنوعی متغیر است. بیایید از طریق هر یک از چهار راه برویم، از اولی شروع کنیم و به چهارمی شرم آور برسیم.

اول، شما کسانی را دارید که تا حدودی شسته نشده‌اند، زیرا نمی‌دانند اخلاق هوش مصنوعی چیست، نمی‌دانند شستن با اخلاق هوش مصنوعی چیست، و احتمالاً حتی چیز زیادی هم درباره هوش مصنوعی نمی‌دانند. می توان گفت که آنها در این موضوعات نادان یا بی سواد هستند. برای آنها احتمالاً در حال انجام شستن اخلاق هوش مصنوعی هستند و کورکورانه و سعادتمندانه متوجه نمی شوند که این کار را انجام می دهند.

این ناراحت کننده است

اگر شستن اخلاق هوش مصنوعی توسط یک خبرگزاری بزرگ یا اینفلوئنسر رسانه های اجتماعی با مشخصات بالا انجام شود، می تواند به خصوص بد باشد. آنها ممکن است از بستر دروغ تغذیه شده باشند، و آنها این دروغ ها را بررسی نکردند. در همین حال، آنها از نفوذ و نفوذ خود برای تداوم ادعاهای شستشوی اخلاق هوش مصنوعی استفاده می کنند. غم انگیز و بدتر از همه این است که به جامعه آسیب می رساند. شرم بر کسانی که اجازه می دهند گول بخورند. آنها باید عاقل شوند به یاد داشته باشید، فریب خوردن و احمق به نظر رسیدن پسرعموهای نزدیک هستند.

ترتیب بعدی شستشوی AI Ethics است که یک لغزش است. تصور کنید که یک شرکت در رعایت اصول اخلاقی هوش مصنوعی بسیار خوب عمل کرده است. ما می توانیم به آنها برای انجام این کار تبریک بگوییم. متأسفانه، فرض کنید در مقطعی، آنها اعلامیه‌ای درباره هوش مصنوعی خود می‌دهند که از دیدگاه اخلاق هوش مصنوعی به خوبی پشتیبانی نمی‌شود. اگر این یک بیانیه نسبتاً بی ضرر یا خطای غیرعمدی است، ممکن است کمی به آنها اجازه دهیم. البته، اگر نکته ای که آنها به آن اشاره کردند، به طور فاحشی از روی خط باشد، لغزش به این راحتی قابل چشم پوشی نیست. یک خط معروف وجود دارد که برای همیشه طول می کشد تا یک شهرت ایجاد شود، اما تنها یک لحظه کوتاه طول می کشد تا کاملاً آن را از بین ببرید.

در مرحله بعد وارد دو دسته آخر از چهار دسته می شویم.

اینها مقصرانی هستند که کاملاً از شستن اخلاق هوش مصنوعی آگاه هستند و آگاهانه با نیت آشکار تصمیم می گیرند از آن استفاده کنند، شاید به عنوان بخشی از یک استراتژی شرکتی یا با سایر ابزارهای الهی. تفاوت اصلی بین این دو مورد آخر در این است که شستشوی AI Ethics ممکن است ماهیت جزئی داشته باشد یا ماهیت مهم و حیاتی داشته باشد. شما برخی از آنها را انتخاب می کنند که چیزها را کشش دهند و فقط کمی روی خط قرار بگیرند. دیگرانی هستند که کاملاً مایلند که شستن اخلاق هوش مصنوعی را به حد افراط برسانند.

ممکن است فکر کنید که مطمئناً هر یک از شستن شدید اخلاق هوش مصنوعی باید واضح باشد و افراط گرایان با دست خود در ظرف کوکی گرفتار شوند. همه می دیدند که امپراتور لباس ندارد. متأسفانه، با توجه به سردرگمی کلی در مورد هوش مصنوعی و اخلاق AI در جهان امروز، به اندازه کافی تیرگی وجود دارد که حتی شستشوی شدید اخلاق AI می تواند مجوز رایگان دریافت کند.

این می تواند برای کسانی که در مورد اخلاق هوش مصنوعی جدی و هوشیار هستند بسیار آزاردهنده باشد. آن‌ها تماشا می‌کنند که شخص دیگری در حال پرتاب کردن انواع شیب‌هایی است که در شستشوی اخلاق هوش مصنوعی بسیار مشهود است. این افراط گرا توجه گسترده رسانه ها را به خود جلب می کند. آنها 15 دقیقه معروف خود را دارند. کسانی که در مورد اخلاق هوش مصنوعی کار واقعی و درست را انجام می‌دهند، می‌توانند به حق احساس خشم و ناراحتی کنند، وقتی شستشوی اخلاق هوش مصنوعی توسط دیگران در بازار به‌طور رایگان انجام می‌شود.

تقریباً می توان آن را به آب میوه گیری و دوپینگی که در ورزش انجام می شود تشبیه کرد. ورزشکاری که قلب و روح خود را برای تبدیل شدن به یک ورزشکار درجه یک به طور طبیعی گذاشته است، اگر فرد دیگری بتواند در همان سطح خود رقابت کند و این کار را از طریق استفاده از داروهای تقویت کننده عملکرد ممنوع انجام دهد، می تواند کاملاً شکست بخورد. آیا باید اسپویلر دیگر را صدا کنید؟ آیا ممکن است بی سر و صدا تصمیم بگیرید که آن داروها را نیز مصرف کنید و آتش را با آتش مبارزه کنید؟ این یک معماست. برای بحث من در مورد چگونگی آب میوه گیری یا دوپینگ در زمینه هوش مصنوعی، نگاه کنید پیوند اینجا.

اکنون که کمی در مورد شستشوی اخلاق هوش مصنوعی توضیح دادیم، می‌توانیم مجموعه‌ای از عبارات مرتبط دیگر را معرفی کنیم که به همان اندازه در همان عرصه هستند.

در اینجا چند مورد است که می توانیم به طور خلاصه بررسی کنیم:

  • تئاتر اخلاق هوش مصنوعی
  • خرید اخلاق هوش مصنوعی
  • انتقاد از اخلاق هوش مصنوعی
  • محافظ اخلاق هوش مصنوعی
  • AI Ethics Fairwashing

بیایید به طور مختصر هر یک از آن عبارات را بررسی کنیم. همه با آنچه که هر عبارت دقیقاً نشان می دهد موافق نیستند، بنابراین من برداشت های کلی خود را با شما در میان می گذارم.

تئاتر اخلاق هوش مصنوعی

تئاتر اخلاق هوش مصنوعی می تواند تا حدودی شبیه به شستن اخلاق هوش مصنوعی باشد زیرا ایده این است که نمایش قابل توجهی از رعایت اصول اخلاقی هوش مصنوعی به شیوه ای صحنه ای و تشریفاتی در نظر گرفته شود. اگر شرکتی که سیرک یا تئاتر اخلاق هوش مصنوعی را اجرا می‌کند، واقعاً از شیوه‌های اخلاق هوش مصنوعی تبعیت می‌کرد، می‌توانید استدلال کنید که آنها به درستی باید بتوانند این کار را انجام دهند. در واقع، شما می توانید بیشتر ادعا کنید که امیدواریم این امر به دیگران الهام بخشد تا از اخلاق هوش مصنوعی نیز پیروی کنند.

از سوی دیگر، به نظر می‌رسد که تئاتر اخلاق هوش مصنوعی معمولاً از حد معمول فراتر می‌رود. عمل سیرک داشتن تمام آن اسب‌ها و فیل‌ها می‌تواند باعث شود که آنچه واقعاً انجام شده است، اغراق آمیز باشد. این به نوبه خود شروع به ورود به دسته دوم، سوم یا چهارم از شست و شوی اخلاق هوش مصنوعی فوق الذکر می کند. اینکه آیا تئاتر بیشتر خوب است تا بد (مانند الهام بخش بودن)، یا بدتر از خوب (احتمالاً محرک شستن اخلاق هوش مصنوعی توسط دیگران)، باید دید.

خرید اخلاق هوش مصنوعی

تصور کنید که یک شرکت قصد دارد یک سیستم هوش مصنوعی بسازد و متوجه می شود که باید جنبه های اخلاقی هوش مصنوعی را در طول چرخه عمر توسعه هوش مصنوعی لحاظ کند. آنها باید از کدام یک از بسیاری از دستورالعمل های اخلاق هوش مصنوعی استفاده کنند؟

انتخاب چند مورد از آنها به طور همزمان می تواند گیج کننده باشد و تلاش های هوش مصنوعی آنها را بیش از حد حجیم کند. اگر مجموعه‌ای از درون پذیرفته‌شده‌ای وجود داشته باشد که همه بتوانند به آسانی به آن رجوع کنند و معنا پیدا کنند، احتمال این وجود دارد که تلاش‌های توسعه‌ای به احتمال زیاد از رویه‌های اخلاق هوش مصنوعی تبعیت کند.

بسیار خوب، بنابراین یکی از راه‌های رسیدن به مجموعه اصول اخلاق هوش مصنوعی این است که فقط یکی از بسیاری از اصول موجود را انتخاب کنید. دیگری این است که چندین مجموعه بردارید و سعی کنید آنها را با هم ادغام کنید. مشکل ادغام می تواند این باشد که شما انرژی و زمان گرانبهای زیادی را صرف بحث در مورد چگونگی ادغام مجموعه ها در یک کل جامع می کنید. این نوع توجه احتمالاً شما را از ادامه روند توسعه منحرف می کند، به علاوه ممکن است تیم هوش مصنوعی را صرفاً به خاطر بحث های شدیدی که ممکن است در طول فعالیت ادغام اخلاق هوش مصنوعی رخ داده باشد عصبانی کند.

به طور کلی، ممکن است سعی کنید توجه خود را به مجموعه ای از دستورالعمل های اخلاق هوش مصنوعی که فکر می کنید ساده ترین راه برای اتخاذ آن خواهد بود، معطوف کنید. این کاملاً خوب به نظر می رسد. چرا زندگی را سخت تر از آنچه که احتمالاً در حال حاضر هست می کنیم؟ در همان نفس، فرض کنید که مجموعه ای از اخلاق هوش مصنوعی را انتخاب می کنید که ضعیف شده است. شما قصد دارید کمترین کاری را که می توانید انجام دهید انجام دهید. شما می خواهید سر خود را بالا بگیرید که از اصول اخلاقی هوش مصنوعی پیروی می کنید، در عین حال مخفیانه مینیمالیست یا شاید کمتر از آن دسته را انتخاب کنید.

برخی از آن به عنوان خرید اخلاق هوش مصنوعی یاد می کنند.

شما در حال خرید هستید تا اصول اخلاق هوش مصنوعی را بیابید که ساده ترین راه را برای ادعای اینکه از اخلاق هوش مصنوعی پیروی می کنید به شما می دهد. این از این نظر منطقی است که چرا باید بیش از آنچه لازم است انجام دهید؟ این را می‌توان با یافتن مجموعه‌ای از اصول اخلاقی هوش مصنوعی و چسبیدن به آن به گونه‌ای که در حالی که واقعیت این است که پراکنده و حاشیه‌ای است، مستحکم و واقعی است، منحرف کرد.

AI Ethics Bashing

مفهوم ضربه زدن به اخلاق هوش مصنوعی تا حدودی ساده است.

شما ماهیت و استفاده از اصول اخلاقی هوش مصنوعی را تحقیر یا تحقیر می کنید. یک شکل متداول ضربه زدن این است که اصرار کنیم که دستورالعمل‌های اخلاق هوش مصنوعی بی‌ارزش هستند و ارزش کاغذی که روی آن چاپ می‌شوند را ندارند. یکی دیگر از انتقادهای محبوب این است که اخلاق هوش مصنوعی یک تمرین آکادمیک است که هیچ ربطی به دنیای واقعی ندارد. حتی این توصیه وجود دارد که اخلاق هوش مصنوعی بد است، احتمالاً به این دلیل که پوششی نادرست برای کسانی فراهم می کند که می خواهند به نظر برسند که هوش مصنوعی را به درستی توسعه می دهند. به این ترتیب، اخلاق هوش مصنوعی یک طرح پوششی است.

من از پدیده ضربه زدن به اخلاق هوش مصنوعی ایراد نمی‌گیرم و به شما پیشنهاد می‌کنم پوشش من را در مورد اینکه چرا این ضربه‌ها اشتباه یا حداقل نادرست هستند، ببینید. پیوند اینجا.

محافظ اخلاق هوش مصنوعی

محافظ اخلاق هوش مصنوعی معمولاً به این ایده اشاره دارد که اخلاق هوش مصنوعی نوعی سپر فریبنده است که می تواند بازیگران بد و تلاش های اخلاقی بد هوش مصنوعی را پنهان یا مبهم کند. من بارها در طول این بحث در اینجا به این اشاره کرده ام.

یک تردید مداوم وجود دارد که برخی با افتخار نشان می دهند که از اخلاق هوش مصنوعی استفاده می کنند و واقعیت اساسی این است که آنها تقریباً هیچ کاری از این دست انجام نمی دهند. برای کسانی که می گویند ما باید به طور کامل از شر سپر خلاص شویم، من تمایل دارم به پاسخ بگویم که این شبیه به بیرون انداختن نوزاد با آب حمام است.

AI Ethics Fairwashing

انصاف مهم است.

ممکن است به خاطر داشته باشید که زمانی که من در مورد احکام اخلاق هوش مصنوعی بحث می‌کردم، یکی از متداول‌ترین دستورالعمل‌های اخلاقی هوش مصنوعی عبارت است از تلاش برای اطمینان از اینکه هوش مصنوعی منصفانه است یا ظاهری عادلانه نشان می‌دهد. این امر باعث ایجاد عبارتی از "شستشوی منصفانه" شده است که گاهی برای برانگیختن این احتمال استفاده می شود که یک سیستم هوش مصنوعی منصفانه گفته یا ادعا می شود در حالی که ممکن است منصفانه نباشد یا شواهد کمی برای حمایت از عادلانه بودن آن وجود دارد. این کمی ترکیبی از شست و شوی اخلاق هوش مصنوعی با در نظر گرفتن مفهومی عادلانه بودن هوش مصنوعی است، بنابراین راه میانبر برای بیان آن این است که بگوییم به طور بالقوه وجود دارد. فایرواشینگ که می تواند اتفاق بیفتد محققان موضوع را اینگونه توصیف می‌کنند: «به‌ویژه، با توجه به اهمیت فزاینده مفاهیم انصاف در یادگیری ماشینی، ممکن است یک شرکت وسوسه شود که شستشوی شفاف را انجام دهد، که ما آن را به عنوان ترویج این تصور نادرست از مدل‌های یادگیری مورد استفاده توسط شرکت تعریف می‌کنیم. منصفانه هستند در حالی که ممکن است اینطور نباشد» (توسط اولریش آیوودجی، هیرومی آرای، اولیویه فورتینو، سباستین گمبز، ساتوشی هارا و آلن تپ در «Fairwashing: The Risk Of Rationalization»).

پیچ دیگری در مورد شستشوی اخلاق هوش مصنوعی وجود دارد که باید در نظر داشته باشید.

در مقیاس ماکروسکوپیک، این نگرانی ابراز شده است که ظهور اخلاق هوش مصنوعی سپر یا پوششی برای چیزی حتی بزرگتر است. شاید بدانید که تلاش‌های زیادی برای ایجاد قوانینی در مورد مدیریت هوش مصنوعی در حال انجام است. این در سراسر جهان اتفاق می افتد. تلاش های جدی در اتحادیه اروپا در حال انجام است، که من در ستون های خود به آن پرداخته ام، و به همین ترتیب در ایالات متحده و در بسیاری از کشورها انجام می شود.

برخی معتقدند که پذیرش اخلاق هوش مصنوعی ممکن است وسیله ای برای جلوگیری از تصویب آن قوانین باشد. شرکت‌ها به ظاهر متقاعدکننده می‌توانند استدلال کنند که قوانین جدیدی لازم نیست، زیرا استفاده از اخلاق هوش مصنوعی به طور مناسب با هر گونه مشکل هوش مصنوعی برخورد می‌کند. اخلاق هوش مصنوعی معمولاً به عنوان نوعی "قانون نرم" طبقه بندی می شود و معمولاً داوطلبانه است (همه موارد دیگر برابر هستند). قوانین مربوط به هوش مصنوعی به‌اصطلاح «قوانین سخت» طبقه‌بندی می‌شوند و (به طور کلی) یک ساختار داوطلبانه نیستند.

معمولاً گفته می‌شود که شرکت‌ها قوانین نرم را به قوانین سخت ترجیح می‌دهند و به آنها آزادی عمل بیشتری می‌دهند. همه با این احساس موافق نیستند. برخی می گویند که قوانین نرم این امکان را به شرکت ها می دهد که از تلاش های نامناسب خلاص شوند و تنها راه حل آنها، وضع قوانین سخت است. برخی دیگر اشاره می‌کنند که شرکت‌ها در مواقعی قوانین سخت را ترجیح می‌دهند، که می‌تواند زمینه بازی واضح‌تری را فراهم کند. قوانین سخت به طور بالقوه می تواند همه بازیکنان را مجبور به رعایت قوانین یکسان کند. قوانین نرم نوعی انتخاب و انتخاب را مجاز می‌سازند و در نتیجه باعث ایجاد سردرگمی و اختلال در زمین بازی می‌شوند.

در اینجا این است که تحقیقات چگونه شست و شوی اخلاق هوش مصنوعی را در میان این دیدگاه بزرگتر از آنچه ممکن است رخ دهد، نشان می دهد: «از یک طرف، این اصطلاح توسط شرکت ها به عنوان نمای قابل قبولی استفاده شده است که مقررات زدایی، خود تنظیمی، یا حاکمیت بازار محور را توجیه می کند. به طور فزاینده‌ای با پذیرش رفتارهای اخلاقی توسط شرکت‌های فناوری شناسایی می‌شود. ما چنین ابزاری سازی فزاینده ای از زبان اخلاقی توسط شرکت های فناوری را «شستن اخلاق» می نامیم. فراتر از شوراهای اخلاق هوش مصنوعی، شستشوی اخلاقی شامل تلاش‌های دیگری برای ساده‌سازی ارزش کار اخلاقی است که اغلب بخشی از استراتژی ارتباطات شرکتی را تشکیل می‌دهد: استخدام فیلسوفان اخلاق داخلی که قدرت کمی برای شکل دادن به سیاست‌های داخلی شرکت دارند. تمرکز بر طراحی انسانی - به عنوان مثال تحریک کاربران برای کاهش زمان صرف شده برای برنامه ها - به جای مقابله با خطرات ذاتی وجود خود محصولات؛ تأمین مالی کار روی سیستم‌های یادگیری ماشینی «عادلانه» که به طور مثبت سؤالات عمیق‌تر در مورد تأثیرات گسترده‌تر آن سیستم‌ها بر جامعه را پنهان می‌کند» (توسط الترا بیتی، «از شستشوی اخلاقی تا برخورد اخلاقی: نگاهی به اخلاق فنی از درون فلسفه اخلاق،» مجموعه مقالات کنفرانس 2020 در مورد انصاف، پاسخگویی و شفافیت).

در این مقطع از این بحث سنگین، شرط می بندم که شما خواهان نمونه های گویا هستید که ممکن است این موضوع را به نمایش بگذارد. مجموعه‌ای از نمونه‌های خاص و مطمئناً محبوب وجود دارد که به دلم نشسته است. ببینید، به عنوان یک متخصص در زمینه هوش مصنوعی از جمله پیامدهای اخلاقی و قانونی، اغلب از من خواسته می‌شود که نمونه‌های واقع‌بینانه‌ای را که معضلات اخلاقی هوش مصنوعی را نشان می‌دهند شناسایی کنم تا بتوان ماهیت تا حدودی نظری موضوع را راحت‌تر درک کرد. یکی از جذاب‌ترین زمینه‌هایی که این معضل اخلاقی هوش مصنوعی را به وضوح نشان می‌دهد، ظهور خودروهای خودران واقعی مبتنی بر هوش مصنوعی است. این به عنوان یک مورد استفاده مفید یا نمونه ای برای بحث و گفتگوی کافی در مورد موضوع خواهد بود.

پس در اینجا یک سوال قابل توجه وجود دارد که قابل تامل است: آیا ظهور خودروهای خودران واقعی مبتنی بر هوش مصنوعی چیزی در مورد شستشوی AI Ethics روشن می کند، و اگر چنین است، این چه چیزی را به نمایش می گذارد؟

یک لحظه به من اجازه دهید تا پرسش را باز کنم.

اول، توجه داشته باشید که هیچ راننده انسانی در یک ماشین خودران واقعی دخیل نیست. به خاطر داشته باشید که خودروهای خودران واقعی از طریق سیستم رانندگی هوش مصنوعی هدایت می شوند. نه نیازی به راننده انسان پشت فرمان وجود دارد و نه پیش بینی ای برای رانندگی وسیله نقلیه توسط انسان وجود دارد. برای پوشش گسترده و مداوم من در مورد وسایل نقلیه خودران (AVs) و به خصوص خودروهای خودران، نگاه کنید به پیوند اینجا.

مایلم بیشتر توضیح دهم که منظور از خودروهای خودران واقعی چیست.

درک سطح اتومبیل های خودران

به عنوان یک توضیح، خودروهای خودران واقعی، خودروهایی هستند که هوش مصنوعی خودرو را کاملاً به تنهایی رانندگی می کند و هیچ کمک انسانی در طول کار رانندگی وجود ندارد.

این وسایل نقلیه بدون راننده سطح 4 و سطح 5 در نظر گرفته می شوند (توضیحات من را در اینجا ببینید این لینک در اینجا) ، در حالی که خودرویی که نیاز به یک راننده انسانی برای مشارکت در رانندگی دارد معمولاً در سطح 2 یا سطح 3 در نظر گرفته می شود. افزودنی های خودکار که به عنوان ADAS (سیستم های کمک راننده پیشرفته) شناخته می شوند.

هنوز یک خودروی خودران واقعی در سطح 5 وجود ندارد، و ما هنوز حتی نمی دانیم که آیا امکان دستیابی به آن وجود دارد یا خیر، و نه اینکه چقدر طول می کشد تا به آنجا برسیم.

در همین حال ، تلاش های سطح 4 به تدریج در تلاشند تا با انجام آزمایشات عمومی بسیار باریک و انتخابی در جاده ها ، کمی به سمت خود جلب کنند ، هرچند در مورد اینکه آیا این آزمایش به خودی خود مجاز است یا خیر ، اختلاف نظر وجود دارد (همه ما در یک آزمایش خوکچه هندی زنده یا مرگ هستیم) برخی از آنها ادعا می كنند كه در بزرگراهها و گذرگاههای ما در حال انجام است این لینک در اینجا).

از آنجا که اتومبیل های نیمه خودمختار به یک راننده انسانی احتیاج دارند ، تصویب آن دسته از اتومبیل ها تفاوت چندانی با رانندگی وسایل نقلیه معمولی نخواهد داشت ، بنابراین به تنهایی چیز جدیدی برای پوشش آنها در این موضوع وجود ندارد (هر چند ، همانطور که خواهید دید در یک لحظه ، نکات بعدی که بطور کلی اعمال می شود).

در مورد اتومبیل های نیمه خودمختار ، مهم است که در مورد جنبه نگران کننده ای که اخیراً بوجود آمده است ، هشدار داده شود ، یعنی این که با وجود آن رانندگان انسانی که با ارسال فیلم هایی از خودشان ، در حال خوابیدن در چرخ یک اتومبیل سطح 2 یا سطح 3 هستند. ، همه ما باید از اینكه گمان نرود راننده بتواند هنگام رانندگی یك اتومبیل نیمه خودمختار ، توجه خود را از وظیفه رانندگی دور كند ، خودداری كنیم.

شما مسئولیت اقدامات رانندگی وسیله نقلیه ، صرفنظر از میزان اتوماسیون در سطح 2 یا سطح 3 ، مسئولیت مسئولیت مسئولیت شما می باشد.

ماشین های خودران و شست و شوی اخلاقی هوش مصنوعی

برای وسایل نقلیه خود رانندگی واقعی سطح 4 و سطح 5 ، یک راننده انسانی درگیر در وظیفه رانندگی نخواهد بود.

همه سرنشینان مسافر خواهند بود.

هوش مصنوعی رانندگی را انجام می دهد.

یک جنبه برای بحث فوری این واقعیت را در بر دارد که هوش مصنوعی در سیستم های رانندگی هوش مصنوعی امروزی حساس نیست. به عبارت دیگر ، هوش مصنوعی در مجموع مجموعه ای از برنامه نویسی و الگوریتم های مبتنی بر رایانه است و مطمئناً قادر به استدلال به همان روشی نیست که انسان می تواند.

چرا این تاکید اضافی در مورد هوش مصنوعی نیست؟

از آنجا که می خواهم تأکید کنم هنگام بحث در مورد نقش سیستم رانندگی AI ، من خصوصیات انسانی را به AI نسبت نمی دهم. لطفاً توجه داشته باشید که این روزها تمایل مستمر و خطرناکی برای انسان سازی AI وجود دارد. در حقیقت ، افراد حساسیتی شبیه انسان به هوش مصنوعی امروزی دارند ، علی رغم این واقعیت انکارناپذیر و غیرقابل انکار که هنوز چنین هوش مصنوعی وجود ندارد.

با این توضیحات ، می توانید تصور کنید که سیستم رانندگی هوش مصنوعی بطور طبیعی از جنبه های رانندگی "آگاهی" نداشته باشد. رانندگی و همه آنچه که شامل می شود باید به عنوان بخشی از سخت افزار و نرم افزار اتومبیل خودران برنامه ریزی شوند.

بیایید به جنبه های بی شماری بپردازیم که در این موضوع بازی می شوند.

اول، مهم است که بدانیم همه خودروهای خودران با هوش مصنوعی یکسان نیستند. هر خودروساز و شرکت فناوری خودران رویکرد خود را برای ابداع خودروهای خودران در پیش گرفته است. به این ترتیب، اظهار نظر گسترده در مورد اینکه سیستم های رانندگی هوش مصنوعی چه کاری انجام خواهند داد یا انجام نمی دهند، دشوار است.

علاوه بر این ، هرگاه بیان شود که سیستم رانندگی هوش مصنوعی کار خاصی انجام نمی دهد ، بعداً توسعه دهندگانی که در واقع کامپیوتر را برای انجام این کار برنامه ریزی می کنند ، می توانند از این امر پیشی بگیرند. گام به گام ، سیستم های رانندگی هوش مصنوعی به تدریج در حال بهبود و گسترش هستند. امروزه محدودیت موجود ممکن است دیگر در نسخه یا نسخه بعدی سیستم وجود نداشته باشد.

امیدوارم که اخطارهای فراوانی را برای زیربنای آنچه که می خواهم بیان کنم، ارائه دهد.

تقریباً مطمئناً سرفصل هایی را دیده اید که ادعای جسورانه ای را ارائه می دهند که وسایل نقلیه خودران اینجا هستند و اتومبیل های خودران در حال حاضر کامل شده اند. مفهوم معمولاً این است که جنبه های خودمختاری حل شده است. ما هوش مصنوعی را استخراج کرده‌ایم که به خوبی رانندگان انسان است، احتمالاً حتی بهتر از انسان‌ها.

فقط برای اینکه مطمئناً آن حباب را بیرون بیاوریم و رکورد را ثابت کنیم، هنوز اینطور نیست.

ما می دانیم که رانندگان انسان در ایالات متحده سالانه در حدود 2.5 میلیون تصادف اتومبیل تصادف می کنند که سالانه بیش از 40,000 تلفات را به همراه دارد. پیوند اینجا. هر کسی که به ظاهر منطقی باشد از سیستم های رانندگی هوش مصنوعی استقبال می کند اگر بتواند به همان اندازه ایمن یا ایمن تر از رانندگان انسانی رانندگی کند. علاوه بر این، امید این است که ما تحرک برای همه را تجربه کنیم و به کسانی که امروزه محدودیت حرکت دارند اجازه دهیم وسایل نقلیه مبتنی بر هوش مصنوعی داشته باشند که دسترسی آماده به حمل و نقل راحت و ارزان را فراهم کنند.

برخی از کارشناسان به طرز تکان‌دهنده‌ای «مایل اضافی» را طی می‌کنند و این ادعای شرم‌آور را مطرح می‌کنند که خودروهای خودران غیرقابل تصادف خواهند بود. این کاملاً نادرست و کاملاً نادرست است. بدتر از آن، افزایش انتظارات است که نمی توان آنها را برآورده کرد. اگر بتوانید مردم را متقاعد کنید که ماشین‌های خودران غیرقابل تصادف هستند، از لحظه‌ای که حتی یک مورد تصادف مربوط به خودروی خودران رخ می‌دهد، فریاد می‌زنند. برای توضیح دقیق من در مورد اینکه چرا ادعای غیرقابل شکست برای جامعه بیهوده و آسیبی به جامعه است، به پوشش من در پیوند اینجا.

همه این گونه اغراق‌ها یا نادرست‌های دیگر را می‌توان تحت پوشش قوانین اخلاقی هوش مصنوعی قرار داد، زیرا اگر از اصول اخلاق هوش مصنوعی تبعیت می‌کنید، نباید آن نوع ادعاهای وحشیانه و بی‌اساس را مطرح کنید. بنابراین، این اظهارات نادرست و نادرست به آسانی در زیر عنوان شستشوی اخلاق هوش مصنوعی قرار می گیرد.

متأسفانه، شستشوی اخلاقی هوش مصنوعی مرتبط با وسایل نقلیه خودران و خودروهای خودران به طور گسترده و بسیار فراوان است. یک جست‌وجوی غیرمنتظره در اینترنت هزاران ادعای مزخرف و بدون پشتوانه در مورد وسایل نقلیه خودران را به شما نشان می‌دهد. این فقط به افرادی که در وبلاگ خود هستند محدود نمی شود. خبرگزاری های بزرگ درگیر این موضوع می شوند. شرکت های بزرگ درگیر این موضوع می شوند. استارت‌آپ‌ها گرفتار این موضوع می‌شوند. شرکت‌های سرمایه‌گذاری خطرپذیر درگیر این موضوع می‌شوند. سهامداران گرفتار این موضوع می شوند. و غیره.

من با اطمینان زیاد می گویم که شستشوی اخلاق هوش مصنوعی در این حوزه خاص بیداد می کند.

یک نوع تخصصی از عبارت جالب در مورد شستشوی اخلاق هوش مصنوعی که مستلزم استقلال و سیستم های خودمختار است، مفهوم شستشوی خودکار است. در اینجا نویسنده لیزا دیکسون این موضوع را به تصویر می‌کشد: «خودشویی که برای اتوماسیون اقتباس شده است، به عنوان عملی از طرح ادعاهای تأیید نشده یا گمراه‌کننده تعریف می‌شود که سطح مناسب نظارت انسانی مورد نیاز یک محصول، خدمات یا فناوری به طور جزئی یا نیمه مستقل را نادرست نشان می‌دهد. شستشوی خودکار ممکن است به سیستم‌های کاملاً خودمختار نیز تعمیم داده شود، در مواردی که قابلیت‌های سیستم بیش از آن چیزی است که می‌توان به طور قابل اعتماد انجام داد، تحت هر شرایطی اغراق‌آمیز شد. شستشوی خودکار باعث می‌شود چیزی مستقل‌تر از آنچه هست به نظر برسد. هدف از شستشوی خودکار تمایز و/یا ارائه یک مزیت رقابتی به یک موجودیت، از طریق استفاده از افعال سطحی به منظور انتقال سطحی از قابلیت اطمینان سیستم است که با قابلیت‌های فنی سیستم هماهنگ نیست. شستشوی خودکار نیز ممکن است به صورت سهوی اتفاق بیفتد، زمانی که فرد ناآگاهانه اطلاعات اشتباهی را درباره قابلیت‌های یک سیستم خودکار برای دیگری تکرار می‌کند. Autonowashing نوعی اطلاعات نادرست است و به نوعی ویروسی است.دیدگاه بین رشته ای تحقیقات حمل و نقل, "Autonwashing: The Greenwashing of Vehicle Automation," 2020).

به‌عنوان یادآوری از نشانه‌های قبلی من، چهار نوع اصلی شستشوی اخلاق هوش مصنوعی وجود دارد که معمولاً مشاهده می‌کنم و آنها را به راحتی در زمینه خودروهای خودران نیز می‌یابیم:

  • واشرهای اخلاقی هوش مصنوعی که نمی دانند هستند: شستن اخلاق هوش مصنوعی با ناآگاهی یا بی سوادی در مورد هوش مصنوعی و/یا اخلاق هوش مصنوعی در وسایل نقلیه خودران
  • واشرهای اخلاقی هوش مصنوعی که در آن قرار می گیرند: شستن اخلاق هوش مصنوعی با لغزش ناخواسته، اگرچه در غیر این صورت در مورد اخلاق هوش مصنوعی و هوش مصنوعی در وسایل نقلیه خودران واقعی است.
  • واشرهای اخلاقی هوش مصنوعی که به طور نازکی کشیده می شوند: شست و شوی اخلاق هوش مصنوعی با هدف هدفمند، هرچند فقط توسط یک آدم کوچک و در مواقعی تقریباً قابل توجیه (یا نه) در وسایل نقلیه خودران
  • واشرهای اخلاقی هوش مصنوعی که آن را می شناسند و گستاخانه می کنند: شستن همه جانبه و با طراحی موذیانه و اغلب ظالمانه در وسایل نقلیه خودران، اخلاق هوش مصنوعی

علاوه بر این، می‌توانید به راحتی نمونه‌هایی از انواع دیگر شستشوی اخلاق هوش مصنوعی و بیماری‌های مربوط به شستشو را در زمینه خودمختاری مشاهده کنید، از جمله:

  • تئاتر اخلاق هوش مصنوعی در وسایل نقلیه خودران و خودروهای خودران
  • خرید اخلاق هوش مصنوعی در وسایل نقلیه خودران و خودروهای خودران
  • انتقاد از اخلاق هوش مصنوعی در وسایل نقلیه خودران و خودروهای خودران
  • محافظ اخلاق هوش مصنوعی در وسایل نقلیه خودران و خودروهای خودران
  • AI Ethics Fairwashing در وسایل نقلیه خودران و خودروهای خودران

نتیجه

شستشوی اخلاق هوش مصنوعی در اطراف ما وجود دارد. ما در آن حمام می کنیم.

امیدوارم با جلب توجه شما به این موضوع جدی و ظاهراً پایان ناپذیر، بتوانید تشخیص دهید که چه زمانی در حال شستشوی اخلاق هوش مصنوعی هستید. شاید تشخیص آن سخت باشد. کسانی که شستشوی AI Ethics را انجام می دهند می توانند بسیار باهوش و فریبنده باشند.

یکی از ترفندهای مفید این است که مقداری حقیقت را که با اغراق یا اغراق آمیخته می شود در شستشو مخلوط کنید. از آنجایی که ممکن است به آسانی بخش راستگو را تشخیص دهید و با آن موافقت کنید، به طور بالقوه به این باور می‌شوید که بخش نادرست یا فریبنده دیگر نیز درست است. شکلی زیبا و زشت از فریب.

اسمش را بگذاریم هوگوش.

آیا می‌توانیم دهان کسانی را که کاملاً شست‌وشوهای AI Ethics را انجام می‌دهند، بشوییم؟

با عرض پوزش گزارش می دهم که آنطور که ممکن است به راحتی انجام نشود. همانطور که گفته شد، فقط به این دلیل که گرفتن و فراخوانی شستن AI Ethics ممکن است سخت باشد و گاهی مانند سیزیف باشد که یک تخته سنگ سنگین را به بالای تپه هل می دهد، باید تلاش کنیم.

اگر نمی‌دانستید، زئوس او را مأمور کرده بود تا این تخته سنگ را انجام دهد که برای ابدیت فشار می‌آورد و وقتی تلاش‌ها به قله رسید، صخره عظیم برای همیشه پایین می‌افتد. من فکر می‌کنم وقتی صحبت از شستشوی اخلاق هوش مصنوعی به میان می‌آید، با همین مخمصه روبرو هستیم.

همیشه شست‌وشوهای AI Ethics بیشتری وجود خواهد داشت که باید شسته شود. این یک ضمانت مطمئن است که هیچ چیز جالبی در مورد آن وجود ندارد.

منبع: https://www.forbes.com/sites/lanceeliot/2022/06/09/ai-ethics-and-legal-ai-are-flustered-by-deceptive-pretenses-known-as-ai-ethics- شستشو-که-ادعاهای-کاذب-پایبندی-اخلاقی-از جمله-برای-خودران-خودران/