بیایید راههای بیشماری را بررسی کنیم که کلمات «شستن» و «شستن» را میتوان گسترش داد و برای برقراری ارتباط با انواع مرواریدهای خرد استفاده کرد.
به عنوان مثال می دانیم که مردم گاهی اوقات هشدار می دهند که نباید لباس های کثیف خود را در ملاء عام بشویید. در دوران کودکی به یاد دارم که بزرگسالان اغلب هشدار میدادند که بیان نادرست میتواند منجر به شستن دهان شما با صابون شود. یکی دیگر از عبارتهای متداول این بود که به نظر میرسد همه چیز در نهایت در شستشو ظاهر میشود.
اگر نگران چیزی بودید که نمیخواستید با آن ارتباط برقرار کنید، ایده توصیه شده این بود که ببینید آیا میتوانید دستهایتان را از آن بشویید یا خیر. انواع ملاحظات مربوط به شستشو معمولاً در اطراف وجود دارد، از جمله اینکه میتوانید به طور خلاصه شسته یا شسته شوید. شستن تخم مرغ از روی صورت یک ضرب المثل قدیمی است که به نظر می رسد هنوز گاهی اوقات در مکالمات مطرح می شود.
استفاده از رنگ ها برای نشان دادن تغییرات شستشو نیز نسبتاً شناخته شده است. گفته می شود که مفهوم سفیدکاری حداقل به دهه 1500 برمی گردد. نگرانی هایی در مورد شستشوی قرمز، شستشوی بنفش و غیره وجود دارد. به جرأت می توانم بگویم که شاید گرین واشینگ یکی از پرکاربردترین عبارات جذاب این روزها باشد که ظاهراً به یک عمل توخالی در هنگام تبلیغ پایداری اشاره دارد و در عین حال صحبت های ادعا شده را با هیچ ماده ای از ستون فقرات راه رفتن پشتیبان نمی کند.
شاید در مورد یکی از جدیدترین نسخه های شستشو، یعنی شستشوی AI Ethics ندانید.
برخی ترجیح میدهند که عبارت را به «شستشوی اخلاقی» کوتاه کنند، اگرچه این میتواند باعث سردرگمی شود زیرا این عبارت جایگزین ظاهراً میتواند تقریباً به هر نوع شستشوی اخلاق محور اشاره داشته باشد. شکل خاصی از Ethics Washing که در اینجا در مورد آن بحث خواهم کرد، شامل اخلاق متمرکز بر هوش مصنوعی و همه ملاحظات اخلاقی مرتبط است. برای وضوح، میخواهم پیشنهاد کنم که Ethics Washing طیف گستردهای از شستشوی اخلاقی را پوشش میدهد که ممکن است به خودی خود ربطی به هوش مصنوعی نداشته باشد یا اصلاً ارتباطی نداشته باشد. و اینکه شستشوی اخلاقیات هوش مصنوعی نوع خاصی از شستشوی اخلاقی است که به طور خاص حوزه هوش مصنوعی را هدف قرار می دهد.
شاید از خود بپرسید، شستشوی AI Ethics دقیقا از چه چیزی تشکیل شده است؟
تعریف کلی من این است که شستشوی AI Ethics را می توان به صورت زیر تعریف کرد:
- شستشوی اخلاق هوش مصنوعی مستلزم ارائه خدمات لب یا پانسمان پنجره به نگرانی های ادعایی مراقبتی در مورد اصول اخلاقی هوش مصنوعی است، از جمله در مواقعی که نه تنها به ویژه از رویکردهای اخلاقی هوش مصنوعی پیروی نمی شود بلکه حتی تا آنجا پیش می رود که رویکردهای اخلاقی هوش مصنوعی را زیر سوال می برد.
برای پوشش مداوم و گسترده من از اخلاق هوش مصنوعی و هوش مصنوعی اخلاقی، رجوع کنید به پیوند اینجا و پیوند اینجا، فقط به نام چند.
یک مثال سریع از شستشوی AI Ethics ممکن است برای شما گویا باشد.
فرض کنید شرکتی که در حال ساخت یک سیستم هوش مصنوعی است، مایل است به دنیا اطلاع دهد که هوش مصنوعی چقدر عالی خواهد بود. این شرکت تصمیم می گیرد که یکی از راه های جلب توجه رسانه های اجتماعی و مطبوعاتی مثبت در مورد هوش مصنوعی، این است که این هوش مصنوعی را به طور کامل منصفانه و متعادل در نحوه عملکرد هوش مصنوعی ایجاد کند. هوش مصنوعی کاملا قابل اعتماد است. این شرکت به شدت به اصول ایجاد به اصطلاح پایبند است هوش مصنوعی مسئول، پوشش من را در پیوند اینجا. ادعا این است که تمام اصول رایج اخلاق هوش مصنوعی به طور یکپارچه در سیستم هوش مصنوعی در هم تنیده شده است.
عالیه!
فقط یک مشکل کوچک
معلوم شد که شرکت هیچ یک از این کارها را انجام نداده است.
آنها از دستورات اخلاق هوش مصنوعی تبعیت نکردند. گفتند این کار را کردند، اما این کار را نکردند. رهبران شرکت و تیم بازاریابی به این نتیجه رسیدند که ادعای رعایت دقیق ملاحظات هوش مصنوعی اخلاقی احتمالاً برای تجارت خوب است. نیازی نیست واقعاً کار سخت مقابله با دستورالعملهای اخلاقی آزاردهنده هوش مصنوعی را انجام دهید، و در عوض فقط بگویید که انجام دادید.
Voila، آنها فوراً میتوانند هوش مصنوعی خود را با پرش به گروه Ethics هوش مصنوعی تبلیغ کنند.
آسان هلال
اما این یک مسیر پرخطر است و در واقع به طور بالقوه مشکلات بزرگی ایجاد خواهد کرد.
شرکتها و رهبرانی که تصمیم میگیرند به دروغ از اخلاق هوش مصنوعی استناد کنند، در حالی که برای رعایت هوش مصنوعی اخلاقی کار چندانی انجام ندادهاند، به طور بالقوه خود را در معرض خطرات زیادی قرار میدهند. اولاً، اگر روزی درمورد نادرستی اخلاق هوش مصنوعی خود افشا شوند، در معرض خطر واکنش شدید شهرت قرار خواهند گرفت. آنها دروغ گفتند که به اخلاق هوش مصنوعی فکر می کنند. علاوه بر این، گیر افتادن در یک دروغ، صرف نظر از داشتن ارتباط با اخلاق هوش مصنوعی، آنها را به آب داغ اضافه می کند. این دوفرد از دروغ است.
دوم، عواقب قانونی متعدد می تواند آنها و شرکت آنها را نیش بزند. یکی این است که آنها آنچه را که گفته اند انجام نداده اند و به طور بالقوه می توانند در قبال ادعاهای نادرست خود مسئول شناخته شوند. مورد دیگر این است که احتمالاً هوش مصنوعی آنها قوانین مربوط به مناطق حساس اجتماعی مانند نشان دادن تعصبات ناروا و رفتارهای تبعیض آمیز را نقض می کند. فهرست مسائل حقوقی طولانی است و ممکن است شرکت را مجبور به نبردهای حقوقی پرهزینه کند و احتمالاً کل کشتی را غرق کند.
لعنتی چرا یک شرکت و رهبران آن از شستشوی AI Ethics استفاده می کنند؟
خوب، گنجاندن شیوههای هوش مصنوعی اخلاقی میتواند تا حدودی پرهزینه باشد، اگرچه استدلال متقابل این است که در نهایت، مزایای داشتن هوش مصنوعی واقعی و با کیفیت بالا در پایبندی به رویکردهای اخلاقی هوش مصنوعی به آسانی از هزینه فراتر خواهد رفت. با این وجود، برخی از شرکتها ترجیح میدهند هوش مصنوعی خود را زودتر به بیرون برسانند و بعداً متوجه شوند که در مورد عواقب عدم توجه به هوش مصنوعی اخلاقی در طول فرآیند توسعه نگران خواهند شد.
خط قدیمی به نظر می رسد که متحمل می شود، شامل این است که اکنون به من پرداخت کنید یا بعداً به من پرداخت کنید. برخی از رهبران و شرکتها معتقدند که ارزش این را دارد که تاس انداخته و امیدوار باشند که وقتی تصمیم میگیرند جلوی جنبههای پرداختی را بگیرند، متحمل هزینه پرداخت بعدا نشوند. من استدلال می کنم که وقتی صحبت از اخلاق هوش مصنوعی به میان می آید، ناهار رایگان وجود ندارد. شما یا وظیفه خود را انجام می دهید یا عواقب آن را متحمل می شوید.
این بدان معنا نیست که در همه اینها فضای تکان دادن زیادی وجود ندارد.
شرکتها ممکن است انگشتان پای خود را در اخلاق هوش مصنوعی فرو ببرند و سپس سعی کنند تا چه حد انجام دادهاند اغراق کنند. فرض بالقوه آنها این است که دفاع کافی برای مقابله با هرگونه اتهامی مبنی بر عدم استفاده از اخلاق هوش مصنوعی خواهند داشت. آنها میتوانند به نوعی از فعالیتهای اخلاقی هوش مصنوعی اشاره کنند که ممکن است آنها را از قلاب خارج کند. بنابراین، بحث از عدم انجام هیچ گونه تلاشی در زمینه اخلاق هوش مصنوعی تغییر می کند و در عوض به این می شود که آیا آنها به اندازه کافی انجام داده اند یا نه.
این بحثی است که میتواند تقریباً بیپایان پیش برود و به تامینکننده شستشوی اخلاق هوش مصنوعی فضای زیادی برای مانور بدهد.
بخشی از جنبه های ضعیف این است که هنوز استانداردهای جهانی و قابل اجرا قطعی در مورد اخلاق هوش مصنوعی وجود ندارد. بدون مجموعه ای منسجم و جامع از معیارها، هر گونه بحث در مورد اینکه آیا اخلاق هوش مصنوعی به درستی رعایت شده است، ضعیف و مبهم خواهد بود. شرکت اصرار خواهد کرد که آنها به اندازه کافی انجام داده اند. یک فرد خارجی یا فرد دیگری که ادعا می کند شرکت به اندازه کافی انجام نداده است، نبرد سختی خواهد داشت که چنین مخالفتی را نشان می دهد. ابهام می تواند حاکم شود.
قبل از پرداختن به گوشت و سیب زمینی بیشتر در مورد ملاحظات وحشی و پشمالوی زیربنای شستشوی اخلاق هوش مصنوعی، بیایید برخی اصول اضافی را در مورد موضوعات کاملاً یکپارچه ایجاد کنیم. ما باید به طور مختصر به اخلاق هوش مصنوعی و به ویژه ظهور یادگیری ماشینی (ML) و یادگیری عمیق (DL) نگاهی کوتاه بیندازیم.
ممکن است به طور مبهم آگاه باشید که یکی از بلندترین صداها این روزها در زمینه هوش مصنوعی و حتی خارج از حوزه هوش مصنوعی، فریاد زدن برای ظاهری بیشتر از هوش مصنوعی اخلاقی است. بیایید نگاهی به معنای ارجاع به اخلاق هوش مصنوعی و هوش مصنوعی اخلاقی بیندازیم. علاوه بر این، وقتی از یادگیری ماشینی و یادگیری عمیق صحبت میکنم، منظورم را بررسی خواهیم کرد.
یک بخش یا بخش خاصی از اخلاق هوش مصنوعی که توجه رسانه ها را به خود جلب کرده است شامل هوش مصنوعی است که سوگیری ها و نابرابری های نامناسبی را نشان می دهد. ممکن است بدانید که زمانی که آخرین دوره هوش مصنوعی آغاز شد، شور و شوق زیادی برای آنچه که اکنون برخی میگویند وجود داشت. هوش مصنوعی برای خوب. متأسفانه، در پاشنه آن هیجان فوران، ما شروع به مشاهده کردیم هوش مصنوعی برای بد. برای مثال، سیستمهای مختلف تشخیص چهره مبتنی بر هوش مصنوعی حاوی سوگیریهای نژادی و سوگیریهای جنسیتی هستند که من در مورد آن بحث کردهام. پیوند اینجا.
تلاش برای مبارزه با هوش مصنوعی برای بد به طور فعال در حال انجام هستند. علاوه بر پر سر و صدا حقوقی تلاش برای مهار تخلفات، همچنین فشار اساسی به سمت پذیرش اخلاق هوش مصنوعی برای اصلاح شرارت هوش مصنوعی وجود دارد. تصور این است که ما باید اصول کلیدی هوش مصنوعی اخلاقی را برای توسعه و توسعه هوش مصنوعی اتخاذ و تأیید کنیم تا این کار را کاهش دهیم. هوش مصنوعی برای بد و به طور همزمان منادی و ترویج مرجح هوش مصنوعی برای خوب.
در یک مفهوم مرتبط، من طرفدار تلاش برای استفاده از هوش مصنوعی به عنوان بخشی از راه حل مشکلات هوش مصنوعی هستم، و با این شیوه تفکر با آتش مبارزه می کنم. برای مثال، ممکن است اجزای هوش مصنوعی اخلاقی را در یک سیستم هوش مصنوعی تعبیه کنیم که بر نحوه انجام بقیه هوش مصنوعی نظارت میکند و بنابراین به طور بالقوه در زمان واقعی هرگونه تلاش تبعیض آمیز را جلب میکند. پیوند اینجا. ما همچنین میتوانیم یک سیستم هوش مصنوعی جداگانه داشته باشیم که به عنوان نوعی مانیتور اخلاق هوش مصنوعی عمل میکند. سیستم هوش مصنوعی به عنوان یک ناظر برای ردیابی و تشخیص اینکه چه زمانی هوش مصنوعی دیگر به ورطه غیراخلاقی می رود عمل می کند (تحلیل من از چنین قابلیت هایی را در اینجا ببینید. پیوند اینجا).
در یک لحظه، من برخی از اصول کلی زیربنای اخلاق هوش مصنوعی را با شما به اشتراک خواهم گذاشت. تعداد زیادی از این نوع لیست ها اینجا و آنجا شناور هستند. می توان گفت که هنوز فهرست منحصر به فردی از جذابیت و توافق جهانی وجود ندارد. این خبر تاسف بار است. خبر خوب این است که حداقل لیستهای اخلاقی هوش مصنوعی وجود دارد که کاملاً مشابه هستند. در مجموع، این نشان میدهد که با نوعی همگرایی مستدل، راه خود را به سوی یک اشتراک کلی از آنچه اخلاق هوش مصنوعی تشکیل میدهد، پیدا میکنیم.
ابتدا، اجازه دهید به طور مختصر برخی از قوانین کلی اخلاقی هوش مصنوعی را پوشش دهیم تا نشان دهیم چه چیزی باید برای هر کسی که در حال ساخت، ساخت و یا استفاده از هوش مصنوعی است، اهمیت حیاتی داشته باشد.
به عنوان مثال، همانطور که توسط واتیکان در فراخوان رم برای اخلاق هوش مصنوعی و همانطور که به طور عمیق به آن پرداخته ام پیوند اینجا، این شش اصل اصلی اخلاق هوش مصنوعی شناسایی شده آنها است:
- شفافیت: در اصل، سیستم های هوش مصنوعی باید قابل توضیح باشند
- نقص: نیازهای همه انسانها باید مورد توجه قرار گیرد تا همه بتوانند از آن بهره ببرند و بهترین شرایط ممکن برای ابراز وجود و پیشرفت به همه افراد ارائه شود.
- مسئوليت: کسانی که استفاده از هوش مصنوعی را طراحی و اجرا می کنند باید با مسئولیت و شفافیت پیش بروند
- بی طرفی: از ایجاد و یا عمل بر اساس تعصب، در نتیجه حفظ انصاف و کرامت انسانی
- قابلیت اطمینان: سیستم های هوش مصنوعی باید بتوانند به طور قابل اعتماد کار کنند
- امنیت و حریم خصوصی: سیستم های هوش مصنوعی باید ایمن کار کنند و به حریم خصوصی کاربران احترام بگذارند.
همانطور که توسط وزارت دفاع ایالات متحده (DoD) در آنها بیان شده است اصول اخلاقی برای استفاده از هوش مصنوعی و همانطور که به طور عمیق به آن پرداخته ام پیوند اینجا، این شش اصل اصلی اخلاق هوش مصنوعی آنهاست:
- مسئول: پرسنل وزارت دفاع سطوح مناسبی از قضاوت و مراقبت را اعمال خواهند کرد و در عین حال مسئولیت توسعه، استقرار و استفاده از قابلیتهای هوش مصنوعی را بر عهده خواهند داشت.
- منصفانه: این وزارتخانه اقدامات عمدی را برای به حداقل رساندن سوگیری ناخواسته در قابلیتهای هوش مصنوعی انجام خواهد داد.
- قابل ردیابی: قابلیتهای هوش مصنوعی این وزارتخانه به گونهای توسعه و مستقر خواهد شد که پرسنل مربوطه درک مناسبی از فناوری، فرآیندهای توسعه، و روشهای عملیاتی قابل اجرا برای قابلیتهای هوش مصنوعی، از جمله روششناسی شفاف و قابل ممیزی، منابع دادهها، روشها و مستندات طراحی داشته باشند.
- قابل اعتماد: قابلیتهای هوش مصنوعی این وزارتخانه کاربردهای مشخص و مشخصی خواهند داشت، و ایمنی، امنیت و اثربخشی چنین قابلیتهایی مشمول آزمایش و اطمینان در آن کاربردهای تعریفشده در کل چرخه عمر آنها خواهد بود.
- قابل اداره: این وزارتخانه قابلیتهای هوش مصنوعی را طراحی و مهندسی میکند تا عملکردهای مورد نظر خود را انجام دهد، در حالی که توانایی شناسایی و اجتناب از پیامدهای ناخواسته را دارد، و توانایی جدا کردن یا غیرفعال کردن سیستمهای مستقری که رفتار ناخواسته را نشان میدهند.
من همچنین در مورد تجزیه و تحلیلهای جمعی مختلف از اصول اخلاق هوش مصنوعی بحث کردهام، از جمله پوشش مجموعهای ابداع شده توسط محققان که ماهیت بسیاری از اصول اخلاقی هوش مصنوعی ملی و بینالمللی را در مقالهای تحت عنوان «چشمانداز جهانی دستورالعملهای اخلاق هوش مصنوعی» (منتشر شده) بررسی و فشرده کرده است. که در طبیعت) و پوشش من در آن بررسی می شود پیوند اینجا، که منجر به این لیست کلیدی شد:
- شفافیت
- عدالت و انصاف
- عدم سوء استفاده
- مسئوليت
- حریم خصوصی
- سود رسانی
- آزادی و خودمختاری
- اعتماد
- پایداری
- کرامت
- اتحاد
همانطور که ممکن است مستقیماً حدس بزنید، تلاش برای مشخص کردن جزئیات زیربنای این اصول می تواند بسیار سخت باشد. حتی بیشتر از آن، تلاش برای تبدیل این اصول گسترده به چیزی کاملاً ملموس و با جزئیات کافی برای استفاده در هنگام ساخت سیستمهای هوش مصنوعی نیز یک مهره سخت است. به طور کلی می توان در مورد اینکه اصول اخلاقی هوش مصنوعی چیست و چگونه باید به طور کلی آنها را رعایت کرد، دست تکان داد، در حالی که وضعیت بسیار پیچیده تر در کدنویسی هوش مصنوعی است که باید لاستیک واقعی باشد که با جاده مطابقت می کند.
اصول اخلاق هوش مصنوعی باید توسط توسعه دهندگان هوش مصنوعی، همراه با آنهایی که تلاش های توسعه هوش مصنوعی را مدیریت می کنند، و حتی آنهایی که در نهایت سیستم های هوش مصنوعی را انجام می دهند، مورد استفاده قرار گیرد. همه ذینفعان در طول چرخه عمر توسعه و استفاده هوش مصنوعی در محدوده رعایت هنجارهای تثبیت شده هوش مصنوعی اخلاقی در نظر گرفته می شوند. این نکته مهمی است زیرا فرض معمول این است که «فقط کدنویسها» یا کسانی که هوش مصنوعی را برنامهریزی میکنند، منوط به رعایت مفاهیم اخلاقی هوش مصنوعی هستند. همانطور که قبلاً گفته شد، برای ابداع و به کارگیری هوش مصنوعی به یک دهکده نیاز است، و برای آن کل دهکده باید به اصول اخلاقی هوش مصنوعی مسلط باشد و از آن پیروی کند.
بیایید همچنین مطمئن شویم که در مورد ماهیت هوش مصنوعی امروزی همسو هستیم.
امروزه هیچ هوش مصنوعی وجود ندارد که حساس باشد. ما این را نداریم ما نمی دانیم که آیا هوش مصنوعی ممکن خواهد بود یا خیر. هیچ کس نمی تواند به درستی پیش بینی کند که آیا ما به هوش مصنوعی خواهیم رسید یا خیر، یا اینکه آیا هوش مصنوعی به طور معجزه آسایی به شکلی از ابرنواختر شناختی محاسباتی پدید خواهد آمد (که معمولاً به عنوان تکینگی شناخته می شود، پوشش من را در اینجا ببینید. پیوند اینجا).
نوع هوش مصنوعی که من روی آن تمرکز می کنم شامل هوش مصنوعی غیر حساسی است که امروز داریم. اگر بخواهیم به شدت در مورد آن حدس بزنیم با احساس هوش مصنوعی، این بحث می تواند در جهتی کاملاً متفاوت پیش رود. ظاهراً یک هوش مصنوعی با کیفیت انسانی خواهد بود. شما باید در نظر داشته باشید که هوش مصنوعی حسی معادل شناختی یک انسان است. علاوه بر این، از آنجایی که برخی گمانه زنی می کنند که ممکن است هوش مصنوعی فوق هوشمند داشته باشیم، می توان تصور کرد که چنین هوش مصنوعی می تواند در نهایت از انسان ها باهوش تر باشد (برای کاوش من در مورد هوش مصنوعی فوق هوشمند به عنوان یک احتمال، نگاه کنید به پوشش در اینجا).
بیایید همه چیز را روی زمین نگه داریم و هوش مصنوعی محاسباتی غیر حساس امروزی را در نظر بگیریم.
درک کنید که هوش مصنوعی امروزی قادر به «فکر کردن» به هیچ شکلی با تفکر انسان نیست. وقتی با الکسا یا سیری تعامل می کنید، ظرفیت های مکالمه ممکن است شبیه ظرفیت های انسانی به نظر برسد، اما واقعیت این است که محاسباتی است و فاقد شناخت انسانی است. آخرین دوره هوش مصنوعی از یادگیری ماشینی (ML) و یادگیری عمیق (DL) استفاده گسترده ای کرده است که از تطابق الگوی محاسباتی استفاده می کند. این منجر به سیستمهای هوش مصنوعی شده است که ظاهری شبیه به تمایلات انسان دارند. در همین حال، هیچ هوش مصنوعی امروزی وجود ندارد که شباهتی به عقل سلیم داشته باشد و هیچ یک از شگفتیهای شناختی تفکر قوی انسانی را نداشته باشد.
ML/DL نوعی تطبیق الگوی محاسباتی است. روش معمول این است که شما داده ها را در مورد یک کار تصمیم گیری جمع آوری می کنید. داده ها را به مدل های کامپیوتری ML/DL وارد می کنید. آن مدل ها به دنبال یافتن الگوهای ریاضی هستند. پس از یافتن چنین الگوهایی، در صورت یافتن، سیستم هوش مصنوعی در هنگام مواجهه با داده های جدید از آن الگوها استفاده خواهد کرد. پس از ارائه داده های جدید، الگوهای مبتنی بر داده های "قدیمی" یا تاریخی برای ارائه یک تصمیم فعلی استفاده می شود.
من فکر می کنم می توانید حدس بزنید که این به کجا می رود. اگر انسانهایی که بر اساس تصمیمگیریهای الگو گرفته شدهاند، سوگیریهای نامطلوب را در خود جای دادهاند، احتمال این وجود دارد که دادهها این را به روشهای ظریف اما قابل توجهی منعکس کنند. تطبیق الگوی محاسباتی یادگیری ماشینی یا یادگیری عمیق به سادگی سعی میکند تا دادهها را مطابق با ریاضی تقلید کند. هیچ شباهتی از عقل سلیم یا سایر جنبه های حساس مدل سازی ساخته شده با هوش مصنوعی به خودی خود وجود ندارد.
علاوه بر این، توسعه دهندگان هوش مصنوعی نیز ممکن است متوجه نباشند که چه اتفاقی در حال رخ دادن است. ریاضیات محرمانه در ML/DL ممکن است کشف سوگیری های پنهان در حال حاضر را دشوار کند. شما به حق امیدوارید و انتظار دارید که توسعهدهندگان هوش مصنوعی سوگیریهای بالقوه مدفون را آزمایش کنند، اگرچه این دشوارتر از آن چیزی است که به نظر میرسد. این احتمال وجود دارد که حتی با آزمایش نسبتاً گسترده، سوگیریهایی همچنان در مدلهای تطبیق الگوی ML/DL وجود داشته باشد.
میتوانید تا حدودی از ضربالمثل معروف یا بدنام زبالههای درون زبالهها استفاده کنید. مسئله این است که این بیشتر شبیه سوگیریهایی است که بهطور موذیانه بهعنوان سوگیریهایی که در هوش مصنوعی غوطهور میشوند، القا میشوند. الگوریتم تصمیمگیری (ADM) هوش مصنوعی به طور اصولی مملو از نابرابریها میشود.
خوب نیست.
بیایید اکنون به مبحث شستشوی اخلاق هوش مصنوعی برگردیم.
چهار نوع اصلی از شستشوی AI Ethics وجود دارد که معمولاً مشاهده میکنم (اینها را در یک لحظه توضیح خواهم داد):
1) واشرهای اخلاقی هوش مصنوعی که نمی دانند هستند: شستن اخلاق هوش مصنوعی به دلیل ناآگاهی یا بی سوادی در مورد هوش مصنوعی و/یا اخلاق هوش مصنوعی
2) واشرهای اخلاقی هوش مصنوعی که در آن قرار می گیرند: شستن اخلاق هوش مصنوعی با لغزش ناخواسته، اگرچه در غیر این صورت در مورد اخلاق هوش مصنوعی و هوش مصنوعی صادق است
3) واشرهای اخلاقی هوش مصنوعی که به طور نازکی کشیده می شوند: شستن اخلاق هوش مصنوعی با نیت هدفمند، هرچند فقط توسط یک آدم کوچک و گاهی تقریباً قابل توجیه (یا نه)
4) واشرهای اخلاقی هوش مصنوعی که آن را می شناسند و گستاخانه می کنند: اخلاق هوش مصنوعی با طراحی موذیانه و اغلب ظالمانه شسته می شود
من به طور کلی پیشنهاد میکنم که این چهار نوع از بیگناهترین تا مجرمترین آنها، تا آگاهی از چیستی شستوشو با اخلاق هوش مصنوعی متغیر است. بیایید از طریق هر یک از چهار راه برویم، از اولی شروع کنیم و به چهارمی شرم آور برسیم.
اول، شما کسانی را دارید که تا حدودی شسته نشدهاند، زیرا نمیدانند اخلاق هوش مصنوعی چیست، نمیدانند شستن با اخلاق هوش مصنوعی چیست، و احتمالاً حتی چیز زیادی هم درباره هوش مصنوعی نمیدانند. می توان گفت که آنها در این موضوعات نادان یا بی سواد هستند. برای آنها احتمالاً در حال انجام شستن اخلاق هوش مصنوعی هستند و کورکورانه و سعادتمندانه متوجه نمی شوند که این کار را انجام می دهند.
این ناراحت کننده است
اگر شستن اخلاق هوش مصنوعی توسط یک خبرگزاری بزرگ یا اینفلوئنسر رسانه های اجتماعی با مشخصات بالا انجام شود، می تواند به خصوص بد باشد. آنها ممکن است از بستر دروغ تغذیه شده باشند، و آنها این دروغ ها را بررسی نکردند. در همین حال، آنها از نفوذ و نفوذ خود برای تداوم ادعاهای شستشوی اخلاق هوش مصنوعی استفاده می کنند. غم انگیز و بدتر از همه این است که به جامعه آسیب می رساند. شرم بر کسانی که اجازه می دهند گول بخورند. آنها باید عاقل شوند به یاد داشته باشید، فریب خوردن و احمق به نظر رسیدن پسرعموهای نزدیک هستند.
ترتیب بعدی شستشوی AI Ethics است که یک لغزش است. تصور کنید که یک شرکت در رعایت اصول اخلاقی هوش مصنوعی بسیار خوب عمل کرده است. ما می توانیم به آنها برای انجام این کار تبریک بگوییم. متأسفانه، فرض کنید در مقطعی، آنها اعلامیهای درباره هوش مصنوعی خود میدهند که از دیدگاه اخلاق هوش مصنوعی به خوبی پشتیبانی نمیشود. اگر این یک بیانیه نسبتاً بی ضرر یا خطای غیرعمدی است، ممکن است کمی به آنها اجازه دهیم. البته، اگر نکته ای که آنها به آن اشاره کردند، به طور فاحشی از روی خط باشد، لغزش به این راحتی قابل چشم پوشی نیست. یک خط معروف وجود دارد که برای همیشه طول می کشد تا یک شهرت ایجاد شود، اما تنها یک لحظه کوتاه طول می کشد تا کاملاً آن را از بین ببرید.
در مرحله بعد وارد دو دسته آخر از چهار دسته می شویم.
اینها مقصرانی هستند که کاملاً از شستن اخلاق هوش مصنوعی آگاه هستند و آگاهانه با نیت آشکار تصمیم می گیرند از آن استفاده کنند، شاید به عنوان بخشی از یک استراتژی شرکتی یا با سایر ابزارهای الهی. تفاوت اصلی بین این دو مورد آخر در این است که شستشوی AI Ethics ممکن است ماهیت جزئی داشته باشد یا ماهیت مهم و حیاتی داشته باشد. شما برخی از آنها را انتخاب می کنند که چیزها را کشش دهند و فقط کمی روی خط قرار بگیرند. دیگرانی هستند که کاملاً مایلند که شستن اخلاق هوش مصنوعی را به حد افراط برسانند.
ممکن است فکر کنید که مطمئناً هر یک از شستن شدید اخلاق هوش مصنوعی باید واضح باشد و افراط گرایان با دست خود در ظرف کوکی گرفتار شوند. همه می دیدند که امپراتور لباس ندارد. متأسفانه، با توجه به سردرگمی کلی در مورد هوش مصنوعی و اخلاق AI در جهان امروز، به اندازه کافی تیرگی وجود دارد که حتی شستشوی شدید اخلاق AI می تواند مجوز رایگان دریافت کند.
این می تواند برای کسانی که در مورد اخلاق هوش مصنوعی جدی و هوشیار هستند بسیار آزاردهنده باشد. آنها تماشا میکنند که شخص دیگری در حال پرتاب کردن انواع شیبهایی است که در شستشوی اخلاق هوش مصنوعی بسیار مشهود است. این افراط گرا توجه گسترده رسانه ها را به خود جلب می کند. آنها 15 دقیقه معروف خود را دارند. کسانی که در مورد اخلاق هوش مصنوعی کار واقعی و درست را انجام میدهند، میتوانند به حق احساس خشم و ناراحتی کنند، وقتی شستشوی اخلاق هوش مصنوعی توسط دیگران در بازار بهطور رایگان انجام میشود.
تقریباً می توان آن را به آب میوه گیری و دوپینگی که در ورزش انجام می شود تشبیه کرد. ورزشکاری که قلب و روح خود را برای تبدیل شدن به یک ورزشکار درجه یک به طور طبیعی گذاشته است، اگر فرد دیگری بتواند در همان سطح خود رقابت کند و این کار را از طریق استفاده از داروهای تقویت کننده عملکرد ممنوع انجام دهد، می تواند کاملاً شکست بخورد. آیا باید اسپویلر دیگر را صدا کنید؟ آیا ممکن است بی سر و صدا تصمیم بگیرید که آن داروها را نیز مصرف کنید و آتش را با آتش مبارزه کنید؟ این یک معماست. برای بحث من در مورد چگونگی آب میوه گیری یا دوپینگ در زمینه هوش مصنوعی، نگاه کنید پیوند اینجا.
اکنون که کمی در مورد شستشوی اخلاق هوش مصنوعی توضیح دادیم، میتوانیم مجموعهای از عبارات مرتبط دیگر را معرفی کنیم که به همان اندازه در همان عرصه هستند.
در اینجا چند مورد است که می توانیم به طور خلاصه بررسی کنیم:
- تئاتر اخلاق هوش مصنوعی
- خرید اخلاق هوش مصنوعی
- انتقاد از اخلاق هوش مصنوعی
- محافظ اخلاق هوش مصنوعی
- AI Ethics Fairwashing
بیایید به طور مختصر هر یک از آن عبارات را بررسی کنیم. همه با آنچه که هر عبارت دقیقاً نشان می دهد موافق نیستند، بنابراین من برداشت های کلی خود را با شما در میان می گذارم.
تئاتر اخلاق هوش مصنوعی
تئاتر اخلاق هوش مصنوعی می تواند تا حدودی شبیه به شستن اخلاق هوش مصنوعی باشد زیرا ایده این است که نمایش قابل توجهی از رعایت اصول اخلاقی هوش مصنوعی به شیوه ای صحنه ای و تشریفاتی در نظر گرفته شود. اگر شرکتی که سیرک یا تئاتر اخلاق هوش مصنوعی را اجرا میکند، واقعاً از شیوههای اخلاق هوش مصنوعی تبعیت میکرد، میتوانید استدلال کنید که آنها به درستی باید بتوانند این کار را انجام دهند. در واقع، شما می توانید بیشتر ادعا کنید که امیدواریم این امر به دیگران الهام بخشد تا از اخلاق هوش مصنوعی نیز پیروی کنند.
از سوی دیگر، به نظر میرسد که تئاتر اخلاق هوش مصنوعی معمولاً از حد معمول فراتر میرود. عمل سیرک داشتن تمام آن اسبها و فیلها میتواند باعث شود که آنچه واقعاً انجام شده است، اغراق آمیز باشد. این به نوبه خود شروع به ورود به دسته دوم، سوم یا چهارم از شست و شوی اخلاق هوش مصنوعی فوق الذکر می کند. اینکه آیا تئاتر بیشتر خوب است تا بد (مانند الهام بخش بودن)، یا بدتر از خوب (احتمالاً محرک شستن اخلاق هوش مصنوعی توسط دیگران)، باید دید.
خرید اخلاق هوش مصنوعی
تصور کنید که یک شرکت قصد دارد یک سیستم هوش مصنوعی بسازد و متوجه می شود که باید جنبه های اخلاقی هوش مصنوعی را در طول چرخه عمر توسعه هوش مصنوعی لحاظ کند. آنها باید از کدام یک از بسیاری از دستورالعمل های اخلاق هوش مصنوعی استفاده کنند؟
انتخاب چند مورد از آنها به طور همزمان می تواند گیج کننده باشد و تلاش های هوش مصنوعی آنها را بیش از حد حجیم کند. اگر مجموعهای از درون پذیرفتهشدهای وجود داشته باشد که همه بتوانند به آسانی به آن رجوع کنند و معنا پیدا کنند، احتمال این وجود دارد که تلاشهای توسعهای به احتمال زیاد از رویههای اخلاق هوش مصنوعی تبعیت کند.
بسیار خوب، بنابراین یکی از راههای رسیدن به مجموعه اصول اخلاق هوش مصنوعی این است که فقط یکی از بسیاری از اصول موجود را انتخاب کنید. دیگری این است که چندین مجموعه بردارید و سعی کنید آنها را با هم ادغام کنید. مشکل ادغام می تواند این باشد که شما انرژی و زمان گرانبهای زیادی را صرف بحث در مورد چگونگی ادغام مجموعه ها در یک کل جامع می کنید. این نوع توجه احتمالاً شما را از ادامه روند توسعه منحرف می کند، به علاوه ممکن است تیم هوش مصنوعی را صرفاً به خاطر بحث های شدیدی که ممکن است در طول فعالیت ادغام اخلاق هوش مصنوعی رخ داده باشد عصبانی کند.
به طور کلی، ممکن است سعی کنید توجه خود را به مجموعه ای از دستورالعمل های اخلاق هوش مصنوعی که فکر می کنید ساده ترین راه برای اتخاذ آن خواهد بود، معطوف کنید. این کاملاً خوب به نظر می رسد. چرا زندگی را سخت تر از آنچه که احتمالاً در حال حاضر هست می کنیم؟ در همان نفس، فرض کنید که مجموعه ای از اخلاق هوش مصنوعی را انتخاب می کنید که ضعیف شده است. شما قصد دارید کمترین کاری را که می توانید انجام دهید انجام دهید. شما می خواهید سر خود را بالا بگیرید که از اصول اخلاقی هوش مصنوعی پیروی می کنید، در عین حال مخفیانه مینیمالیست یا شاید کمتر از آن دسته را انتخاب کنید.
برخی از آن به عنوان خرید اخلاق هوش مصنوعی یاد می کنند.
شما در حال خرید هستید تا اصول اخلاق هوش مصنوعی را بیابید که ساده ترین راه را برای ادعای اینکه از اخلاق هوش مصنوعی پیروی می کنید به شما می دهد. این از این نظر منطقی است که چرا باید بیش از آنچه لازم است انجام دهید؟ این را میتوان با یافتن مجموعهای از اصول اخلاقی هوش مصنوعی و چسبیدن به آن به گونهای که در حالی که واقعیت این است که پراکنده و حاشیهای است، مستحکم و واقعی است، منحرف کرد.
AI Ethics Bashing
مفهوم ضربه زدن به اخلاق هوش مصنوعی تا حدودی ساده است.
شما ماهیت و استفاده از اصول اخلاقی هوش مصنوعی را تحقیر یا تحقیر می کنید. یک شکل متداول ضربه زدن این است که اصرار کنیم که دستورالعملهای اخلاق هوش مصنوعی بیارزش هستند و ارزش کاغذی که روی آن چاپ میشوند را ندارند. یکی دیگر از انتقادهای محبوب این است که اخلاق هوش مصنوعی یک تمرین آکادمیک است که هیچ ربطی به دنیای واقعی ندارد. حتی این توصیه وجود دارد که اخلاق هوش مصنوعی بد است، احتمالاً به این دلیل که پوششی نادرست برای کسانی فراهم می کند که می خواهند به نظر برسند که هوش مصنوعی را به درستی توسعه می دهند. به این ترتیب، اخلاق هوش مصنوعی یک طرح پوششی است.
من از پدیده ضربه زدن به اخلاق هوش مصنوعی ایراد نمیگیرم و به شما پیشنهاد میکنم پوشش من را در مورد اینکه چرا این ضربهها اشتباه یا حداقل نادرست هستند، ببینید. پیوند اینجا.
محافظ اخلاق هوش مصنوعی
محافظ اخلاق هوش مصنوعی معمولاً به این ایده اشاره دارد که اخلاق هوش مصنوعی نوعی سپر فریبنده است که می تواند بازیگران بد و تلاش های اخلاقی بد هوش مصنوعی را پنهان یا مبهم کند. من بارها در طول این بحث در اینجا به این اشاره کرده ام.
یک تردید مداوم وجود دارد که برخی با افتخار نشان می دهند که از اخلاق هوش مصنوعی استفاده می کنند و واقعیت اساسی این است که آنها تقریباً هیچ کاری از این دست انجام نمی دهند. برای کسانی که می گویند ما باید به طور کامل از شر سپر خلاص شویم، من تمایل دارم به پاسخ بگویم که این شبیه به بیرون انداختن نوزاد با آب حمام است.
AI Ethics Fairwashing
انصاف مهم است.
ممکن است به خاطر داشته باشید که زمانی که من در مورد احکام اخلاق هوش مصنوعی بحث میکردم، یکی از متداولترین دستورالعملهای اخلاقی هوش مصنوعی عبارت است از تلاش برای اطمینان از اینکه هوش مصنوعی منصفانه است یا ظاهری عادلانه نشان میدهد. این امر باعث ایجاد عبارتی از "شستشوی منصفانه" شده است که گاهی برای برانگیختن این احتمال استفاده می شود که یک سیستم هوش مصنوعی منصفانه گفته یا ادعا می شود در حالی که ممکن است منصفانه نباشد یا شواهد کمی برای حمایت از عادلانه بودن آن وجود دارد. این کمی ترکیبی از شست و شوی اخلاق هوش مصنوعی با در نظر گرفتن مفهومی عادلانه بودن هوش مصنوعی است، بنابراین راه میانبر برای بیان آن این است که بگوییم به طور بالقوه وجود دارد. فایرواشینگ که می تواند اتفاق بیفتد محققان موضوع را اینگونه توصیف میکنند: «بهویژه، با توجه به اهمیت فزاینده مفاهیم انصاف در یادگیری ماشینی، ممکن است یک شرکت وسوسه شود که شستشوی شفاف را انجام دهد، که ما آن را به عنوان ترویج این تصور نادرست از مدلهای یادگیری مورد استفاده توسط شرکت تعریف میکنیم. منصفانه هستند در حالی که ممکن است اینطور نباشد» (توسط اولریش آیوودجی، هیرومی آرای، اولیویه فورتینو، سباستین گمبز، ساتوشی هارا و آلن تپ در «Fairwashing: The Risk Of Rationalization»).
پیچ دیگری در مورد شستشوی اخلاق هوش مصنوعی وجود دارد که باید در نظر داشته باشید.
در مقیاس ماکروسکوپیک، این نگرانی ابراز شده است که ظهور اخلاق هوش مصنوعی سپر یا پوششی برای چیزی حتی بزرگتر است. شاید بدانید که تلاشهای زیادی برای ایجاد قوانینی در مورد مدیریت هوش مصنوعی در حال انجام است. این در سراسر جهان اتفاق می افتد. تلاش های جدی در اتحادیه اروپا در حال انجام است، که من در ستون های خود به آن پرداخته ام، و به همین ترتیب در ایالات متحده و در بسیاری از کشورها انجام می شود.
برخی معتقدند که پذیرش اخلاق هوش مصنوعی ممکن است وسیله ای برای جلوگیری از تصویب آن قوانین باشد. شرکتها به ظاهر متقاعدکننده میتوانند استدلال کنند که قوانین جدیدی لازم نیست، زیرا استفاده از اخلاق هوش مصنوعی به طور مناسب با هر گونه مشکل هوش مصنوعی برخورد میکند. اخلاق هوش مصنوعی معمولاً به عنوان نوعی "قانون نرم" طبقه بندی می شود و معمولاً داوطلبانه است (همه موارد دیگر برابر هستند). قوانین مربوط به هوش مصنوعی بهاصطلاح «قوانین سخت» طبقهبندی میشوند و (به طور کلی) یک ساختار داوطلبانه نیستند.
معمولاً گفته میشود که شرکتها قوانین نرم را به قوانین سخت ترجیح میدهند و به آنها آزادی عمل بیشتری میدهند. همه با این احساس موافق نیستند. برخی می گویند که قوانین نرم این امکان را به شرکت ها می دهد که از تلاش های نامناسب خلاص شوند و تنها راه حل آنها، وضع قوانین سخت است. برخی دیگر اشاره میکنند که شرکتها در مواقعی قوانین سخت را ترجیح میدهند، که میتواند زمینه بازی واضحتری را فراهم کند. قوانین سخت به طور بالقوه می تواند همه بازیکنان را مجبور به رعایت قوانین یکسان کند. قوانین نرم نوعی انتخاب و انتخاب را مجاز میسازند و در نتیجه باعث ایجاد سردرگمی و اختلال در زمین بازی میشوند.
در اینجا این است که تحقیقات چگونه شست و شوی اخلاق هوش مصنوعی را در میان این دیدگاه بزرگتر از آنچه ممکن است رخ دهد، نشان می دهد: «از یک طرف، این اصطلاح توسط شرکت ها به عنوان نمای قابل قبولی استفاده شده است که مقررات زدایی، خود تنظیمی، یا حاکمیت بازار محور را توجیه می کند. به طور فزایندهای با پذیرش رفتارهای اخلاقی توسط شرکتهای فناوری شناسایی میشود. ما چنین ابزاری سازی فزاینده ای از زبان اخلاقی توسط شرکت های فناوری را «شستن اخلاق» می نامیم. فراتر از شوراهای اخلاق هوش مصنوعی، شستشوی اخلاقی شامل تلاشهای دیگری برای سادهسازی ارزش کار اخلاقی است که اغلب بخشی از استراتژی ارتباطات شرکتی را تشکیل میدهد: استخدام فیلسوفان اخلاق داخلی که قدرت کمی برای شکل دادن به سیاستهای داخلی شرکت دارند. تمرکز بر طراحی انسانی - به عنوان مثال تحریک کاربران برای کاهش زمان صرف شده برای برنامه ها - به جای مقابله با خطرات ذاتی وجود خود محصولات؛ تأمین مالی کار روی سیستمهای یادگیری ماشینی «عادلانه» که به طور مثبت سؤالات عمیقتر در مورد تأثیرات گستردهتر آن سیستمها بر جامعه را پنهان میکند» (توسط الترا بیتی، «از شستشوی اخلاقی تا برخورد اخلاقی: نگاهی به اخلاق فنی از درون فلسفه اخلاق،» مجموعه مقالات کنفرانس 2020 در مورد انصاف، پاسخگویی و شفافیت).
در این مقطع از این بحث سنگین، شرط می بندم که شما خواهان نمونه های گویا هستید که ممکن است این موضوع را به نمایش بگذارد. مجموعهای از نمونههای خاص و مطمئناً محبوب وجود دارد که به دلم نشسته است. ببینید، به عنوان یک متخصص در زمینه هوش مصنوعی از جمله پیامدهای اخلاقی و قانونی، اغلب از من خواسته میشود که نمونههای واقعبینانهای را که معضلات اخلاقی هوش مصنوعی را نشان میدهند شناسایی کنم تا بتوان ماهیت تا حدودی نظری موضوع را راحتتر درک کرد. یکی از جذابترین زمینههایی که این معضل اخلاقی هوش مصنوعی را به وضوح نشان میدهد، ظهور خودروهای خودران واقعی مبتنی بر هوش مصنوعی است. این به عنوان یک مورد استفاده مفید یا نمونه ای برای بحث و گفتگوی کافی در مورد موضوع خواهد بود.
پس در اینجا یک سوال قابل توجه وجود دارد که قابل تامل است: آیا ظهور خودروهای خودران واقعی مبتنی بر هوش مصنوعی چیزی در مورد شستشوی AI Ethics روشن می کند، و اگر چنین است، این چه چیزی را به نمایش می گذارد؟
یک لحظه به من اجازه دهید تا پرسش را باز کنم.
اول، توجه داشته باشید که هیچ راننده انسانی در یک ماشین خودران واقعی دخیل نیست. به خاطر داشته باشید که خودروهای خودران واقعی از طریق سیستم رانندگی هوش مصنوعی هدایت می شوند. نه نیازی به راننده انسان پشت فرمان وجود دارد و نه پیش بینی ای برای رانندگی وسیله نقلیه توسط انسان وجود دارد. برای پوشش گسترده و مداوم من در مورد وسایل نقلیه خودران (AVs) و به خصوص خودروهای خودران، نگاه کنید به پیوند اینجا.
مایلم بیشتر توضیح دهم که منظور از خودروهای خودران واقعی چیست.
درک سطح اتومبیل های خودران
به عنوان یک توضیح، خودروهای خودران واقعی، خودروهایی هستند که هوش مصنوعی خودرو را کاملاً به تنهایی رانندگی می کند و هیچ کمک انسانی در طول کار رانندگی وجود ندارد.
این وسایل نقلیه بدون راننده سطح 4 و سطح 5 در نظر گرفته می شوند (توضیحات من را در اینجا ببینید این لینک در اینجا) ، در حالی که خودرویی که نیاز به یک راننده انسانی برای مشارکت در رانندگی دارد معمولاً در سطح 2 یا سطح 3 در نظر گرفته می شود. افزودنی های خودکار که به عنوان ADAS (سیستم های کمک راننده پیشرفته) شناخته می شوند.
هنوز یک خودروی خودران واقعی در سطح 5 وجود ندارد، و ما هنوز حتی نمی دانیم که آیا امکان دستیابی به آن وجود دارد یا خیر، و نه اینکه چقدر طول می کشد تا به آنجا برسیم.
در همین حال ، تلاش های سطح 4 به تدریج در تلاشند تا با انجام آزمایشات عمومی بسیار باریک و انتخابی در جاده ها ، کمی به سمت خود جلب کنند ، هرچند در مورد اینکه آیا این آزمایش به خودی خود مجاز است یا خیر ، اختلاف نظر وجود دارد (همه ما در یک آزمایش خوکچه هندی زنده یا مرگ هستیم) برخی از آنها ادعا می كنند كه در بزرگراهها و گذرگاههای ما در حال انجام است این لینک در اینجا).
از آنجا که اتومبیل های نیمه خودمختار به یک راننده انسانی احتیاج دارند ، تصویب آن دسته از اتومبیل ها تفاوت چندانی با رانندگی وسایل نقلیه معمولی نخواهد داشت ، بنابراین به تنهایی چیز جدیدی برای پوشش آنها در این موضوع وجود ندارد (هر چند ، همانطور که خواهید دید در یک لحظه ، نکات بعدی که بطور کلی اعمال می شود).
در مورد اتومبیل های نیمه خودمختار ، مهم است که در مورد جنبه نگران کننده ای که اخیراً بوجود آمده است ، هشدار داده شود ، یعنی این که با وجود آن رانندگان انسانی که با ارسال فیلم هایی از خودشان ، در حال خوابیدن در چرخ یک اتومبیل سطح 2 یا سطح 3 هستند. ، همه ما باید از اینكه گمان نرود راننده بتواند هنگام رانندگی یك اتومبیل نیمه خودمختار ، توجه خود را از وظیفه رانندگی دور كند ، خودداری كنیم.
شما مسئولیت اقدامات رانندگی وسیله نقلیه ، صرفنظر از میزان اتوماسیون در سطح 2 یا سطح 3 ، مسئولیت مسئولیت مسئولیت شما می باشد.
ماشین های خودران و شست و شوی اخلاقی هوش مصنوعی
برای وسایل نقلیه خود رانندگی واقعی سطح 4 و سطح 5 ، یک راننده انسانی درگیر در وظیفه رانندگی نخواهد بود.
همه سرنشینان مسافر خواهند بود.
هوش مصنوعی رانندگی را انجام می دهد.
یک جنبه برای بحث فوری این واقعیت را در بر دارد که هوش مصنوعی در سیستم های رانندگی هوش مصنوعی امروزی حساس نیست. به عبارت دیگر ، هوش مصنوعی در مجموع مجموعه ای از برنامه نویسی و الگوریتم های مبتنی بر رایانه است و مطمئناً قادر به استدلال به همان روشی نیست که انسان می تواند.
چرا این تاکید اضافی در مورد هوش مصنوعی نیست؟
از آنجا که می خواهم تأکید کنم هنگام بحث در مورد نقش سیستم رانندگی AI ، من خصوصیات انسانی را به AI نسبت نمی دهم. لطفاً توجه داشته باشید که این روزها تمایل مستمر و خطرناکی برای انسان سازی AI وجود دارد. در حقیقت ، افراد حساسیتی شبیه انسان به هوش مصنوعی امروزی دارند ، علی رغم این واقعیت انکارناپذیر و غیرقابل انکار که هنوز چنین هوش مصنوعی وجود ندارد.
با این توضیحات ، می توانید تصور کنید که سیستم رانندگی هوش مصنوعی بطور طبیعی از جنبه های رانندگی "آگاهی" نداشته باشد. رانندگی و همه آنچه که شامل می شود باید به عنوان بخشی از سخت افزار و نرم افزار اتومبیل خودران برنامه ریزی شوند.
بیایید به جنبه های بی شماری بپردازیم که در این موضوع بازی می شوند.
اول، مهم است که بدانیم همه خودروهای خودران با هوش مصنوعی یکسان نیستند. هر خودروساز و شرکت فناوری خودران رویکرد خود را برای ابداع خودروهای خودران در پیش گرفته است. به این ترتیب، اظهار نظر گسترده در مورد اینکه سیستم های رانندگی هوش مصنوعی چه کاری انجام خواهند داد یا انجام نمی دهند، دشوار است.
علاوه بر این ، هرگاه بیان شود که سیستم رانندگی هوش مصنوعی کار خاصی انجام نمی دهد ، بعداً توسعه دهندگانی که در واقع کامپیوتر را برای انجام این کار برنامه ریزی می کنند ، می توانند از این امر پیشی بگیرند. گام به گام ، سیستم های رانندگی هوش مصنوعی به تدریج در حال بهبود و گسترش هستند. امروزه محدودیت موجود ممکن است دیگر در نسخه یا نسخه بعدی سیستم وجود نداشته باشد.
امیدوارم که اخطارهای فراوانی را برای زیربنای آنچه که می خواهم بیان کنم، ارائه دهد.
تقریباً مطمئناً سرفصل هایی را دیده اید که ادعای جسورانه ای را ارائه می دهند که وسایل نقلیه خودران اینجا هستند و اتومبیل های خودران در حال حاضر کامل شده اند. مفهوم معمولاً این است که جنبه های خودمختاری حل شده است. ما هوش مصنوعی را استخراج کردهایم که به خوبی رانندگان انسان است، احتمالاً حتی بهتر از انسانها.
فقط برای اینکه مطمئناً آن حباب را بیرون بیاوریم و رکورد را ثابت کنیم، هنوز اینطور نیست.
ما می دانیم که رانندگان انسان در ایالات متحده سالانه در حدود 2.5 میلیون تصادف اتومبیل تصادف می کنند که سالانه بیش از 40,000 تلفات را به همراه دارد. پیوند اینجا. هر کسی که به ظاهر منطقی باشد از سیستم های رانندگی هوش مصنوعی استقبال می کند اگر بتواند به همان اندازه ایمن یا ایمن تر از رانندگان انسانی رانندگی کند. علاوه بر این، امید این است که ما تحرک برای همه را تجربه کنیم و به کسانی که امروزه محدودیت حرکت دارند اجازه دهیم وسایل نقلیه مبتنی بر هوش مصنوعی داشته باشند که دسترسی آماده به حمل و نقل راحت و ارزان را فراهم کنند.
برخی از کارشناسان به طرز تکاندهندهای «مایل اضافی» را طی میکنند و این ادعای شرمآور را مطرح میکنند که خودروهای خودران غیرقابل تصادف خواهند بود. این کاملاً نادرست و کاملاً نادرست است. بدتر از آن، افزایش انتظارات است که نمی توان آنها را برآورده کرد. اگر بتوانید مردم را متقاعد کنید که ماشینهای خودران غیرقابل تصادف هستند، از لحظهای که حتی یک مورد تصادف مربوط به خودروی خودران رخ میدهد، فریاد میزنند. برای توضیح دقیق من در مورد اینکه چرا ادعای غیرقابل شکست برای جامعه بیهوده و آسیبی به جامعه است، به پوشش من در پیوند اینجا.
همه این گونه اغراقها یا نادرستهای دیگر را میتوان تحت پوشش قوانین اخلاقی هوش مصنوعی قرار داد، زیرا اگر از اصول اخلاق هوش مصنوعی تبعیت میکنید، نباید آن نوع ادعاهای وحشیانه و بیاساس را مطرح کنید. بنابراین، این اظهارات نادرست و نادرست به آسانی در زیر عنوان شستشوی اخلاق هوش مصنوعی قرار می گیرد.
متأسفانه، شستشوی اخلاقی هوش مصنوعی مرتبط با وسایل نقلیه خودران و خودروهای خودران به طور گسترده و بسیار فراوان است. یک جستوجوی غیرمنتظره در اینترنت هزاران ادعای مزخرف و بدون پشتوانه در مورد وسایل نقلیه خودران را به شما نشان میدهد. این فقط به افرادی که در وبلاگ خود هستند محدود نمی شود. خبرگزاری های بزرگ درگیر این موضوع می شوند. شرکت های بزرگ درگیر این موضوع می شوند. استارتآپها گرفتار این موضوع میشوند. شرکتهای سرمایهگذاری خطرپذیر درگیر این موضوع میشوند. سهامداران گرفتار این موضوع می شوند. و غیره.
من با اطمینان زیاد می گویم که شستشوی اخلاق هوش مصنوعی در این حوزه خاص بیداد می کند.
یک نوع تخصصی از عبارت جالب در مورد شستشوی اخلاق هوش مصنوعی که مستلزم استقلال و سیستم های خودمختار است، مفهوم شستشوی خودکار است. در اینجا نویسنده لیزا دیکسون این موضوع را به تصویر میکشد: «خودشویی که برای اتوماسیون اقتباس شده است، به عنوان عملی از طرح ادعاهای تأیید نشده یا گمراهکننده تعریف میشود که سطح مناسب نظارت انسانی مورد نیاز یک محصول، خدمات یا فناوری به طور جزئی یا نیمه مستقل را نادرست نشان میدهد. شستشوی خودکار ممکن است به سیستمهای کاملاً خودمختار نیز تعمیم داده شود، در مواردی که قابلیتهای سیستم بیش از آن چیزی است که میتوان به طور قابل اعتماد انجام داد، تحت هر شرایطی اغراقآمیز شد. شستشوی خودکار باعث میشود چیزی مستقلتر از آنچه هست به نظر برسد. هدف از شستشوی خودکار تمایز و/یا ارائه یک مزیت رقابتی به یک موجودیت، از طریق استفاده از افعال سطحی به منظور انتقال سطحی از قابلیت اطمینان سیستم است که با قابلیتهای فنی سیستم هماهنگ نیست. شستشوی خودکار نیز ممکن است به صورت سهوی اتفاق بیفتد، زمانی که فرد ناآگاهانه اطلاعات اشتباهی را درباره قابلیتهای یک سیستم خودکار برای دیگری تکرار میکند. Autonowashing نوعی اطلاعات نادرست است و به نوعی ویروسی است.دیدگاه بین رشته ای تحقیقات حمل و نقل, "Autonwashing: The Greenwashing of Vehicle Automation," 2020).
بهعنوان یادآوری از نشانههای قبلی من، چهار نوع اصلی شستشوی اخلاق هوش مصنوعی وجود دارد که معمولاً مشاهده میکنم و آنها را به راحتی در زمینه خودروهای خودران نیز مییابیم:
- واشرهای اخلاقی هوش مصنوعی که نمی دانند هستند: شستن اخلاق هوش مصنوعی با ناآگاهی یا بی سوادی در مورد هوش مصنوعی و/یا اخلاق هوش مصنوعی در وسایل نقلیه خودران
- واشرهای اخلاقی هوش مصنوعی که در آن قرار می گیرند: شستن اخلاق هوش مصنوعی با لغزش ناخواسته، اگرچه در غیر این صورت در مورد اخلاق هوش مصنوعی و هوش مصنوعی در وسایل نقلیه خودران واقعی است.
- واشرهای اخلاقی هوش مصنوعی که به طور نازکی کشیده می شوند: شست و شوی اخلاق هوش مصنوعی با هدف هدفمند، هرچند فقط توسط یک آدم کوچک و در مواقعی تقریباً قابل توجیه (یا نه) در وسایل نقلیه خودران
- واشرهای اخلاقی هوش مصنوعی که آن را می شناسند و گستاخانه می کنند: شستن همه جانبه و با طراحی موذیانه و اغلب ظالمانه در وسایل نقلیه خودران، اخلاق هوش مصنوعی
علاوه بر این، میتوانید به راحتی نمونههایی از انواع دیگر شستشوی اخلاق هوش مصنوعی و بیماریهای مربوط به شستشو را در زمینه خودمختاری مشاهده کنید، از جمله:
- تئاتر اخلاق هوش مصنوعی در وسایل نقلیه خودران و خودروهای خودران
- خرید اخلاق هوش مصنوعی در وسایل نقلیه خودران و خودروهای خودران
- انتقاد از اخلاق هوش مصنوعی در وسایل نقلیه خودران و خودروهای خودران
- محافظ اخلاق هوش مصنوعی در وسایل نقلیه خودران و خودروهای خودران
- AI Ethics Fairwashing در وسایل نقلیه خودران و خودروهای خودران
نتیجه
شستشوی اخلاق هوش مصنوعی در اطراف ما وجود دارد. ما در آن حمام می کنیم.
امیدوارم با جلب توجه شما به این موضوع جدی و ظاهراً پایان ناپذیر، بتوانید تشخیص دهید که چه زمانی در حال شستشوی اخلاق هوش مصنوعی هستید. شاید تشخیص آن سخت باشد. کسانی که شستشوی AI Ethics را انجام می دهند می توانند بسیار باهوش و فریبنده باشند.
یکی از ترفندهای مفید این است که مقداری حقیقت را که با اغراق یا اغراق آمیخته می شود در شستشو مخلوط کنید. از آنجایی که ممکن است به آسانی بخش راستگو را تشخیص دهید و با آن موافقت کنید، به طور بالقوه به این باور میشوید که بخش نادرست یا فریبنده دیگر نیز درست است. شکلی زیبا و زشت از فریب.
اسمش را بگذاریم هوگوش.
آیا میتوانیم دهان کسانی را که کاملاً شستوشوهای AI Ethics را انجام میدهند، بشوییم؟
با عرض پوزش گزارش می دهم که آنطور که ممکن است به راحتی انجام نشود. همانطور که گفته شد، فقط به این دلیل که گرفتن و فراخوانی شستن AI Ethics ممکن است سخت باشد و گاهی مانند سیزیف باشد که یک تخته سنگ سنگین را به بالای تپه هل می دهد، باید تلاش کنیم.
اگر نمیدانستید، زئوس او را مأمور کرده بود تا این تخته سنگ را انجام دهد که برای ابدیت فشار میآورد و وقتی تلاشها به قله رسید، صخره عظیم برای همیشه پایین میافتد. من فکر میکنم وقتی صحبت از شستشوی اخلاق هوش مصنوعی به میان میآید، با همین مخمصه روبرو هستیم.
همیشه شستوشوهای AI Ethics بیشتری وجود خواهد داشت که باید شسته شود. این یک ضمانت مطمئن است که هیچ چیز جالبی در مورد آن وجود ندارد.
منبع: https://www.forbes.com/sites/lanceeliot/2022/06/09/ai-ethics-and-legal-ai-are-flustered-by-deceptive-pretenses-known-as-ai-ethics- شستشو-که-ادعاهای-کاذب-پایبندی-اخلاقی-از جمله-برای-خودران-خودران/