اخلاق هوش مصنوعی که می گوید هوش مصنوعی باید به ویژه زمانی که تعصبات انسانی فراوان است به کار گرفته شود

انسان ها با محدودیت های خود آشنا شده اند.

ممکن است جمله معروفی را که در مورد شناخت محدودیت های ما توسط شخصیت هری کثیف در فیلم سال 1973 بیان شد به یاد بیاورید. نیروی مگنوم (طبق گفته های بازیگر کلینت ایستوود در نقش به یاد ماندنی خود در نقش بازرس هری کالاهان). تصور کلی این است که گاهی اوقات ما تمایل داریم محدودیت‌های خود را نادیده بگیریم و بر این اساس خود را وارد آب گرم کنیم. خواه به دلیل غرور، خود محور بودن، یا صرفاً نابینا بودن نسبت به توانایی‌های خود، قانون آگاهی و در نظر گرفتن صریح تمایلات و کاستی‌های ما بسیار معقول و مفید است.

بیایید یک پیچ جدید به توصیه حکیم اضافه کنیم.

هوش مصنوعی (AI) با محدودیت های خود آشنا شده است.

منظور من از آن نوع عبارت مورد احترام چیست؟

به نظر می رسد که عجله اولیه برای استفاده از هوش مصنوعی مدرن به عنوان یک حلال امیدوار مشکلات جهان، با درک این موضوع که هوش مصنوعی امروزی دارای محدودیت های نسبتاً شدیدی است، لکه دار شده و به کلی تیره و تار شده است. ما از سرفصل های نشاط آور از هوش مصنوعی برای خوب و به طور فزاینده ای خود را گرفتار می بینیم هوش مصنوعی برای بد. ببینید، بسیاری از سیستم‌های هوش مصنوعی با انواع سوگیری‌های نژادی و جنسیتی و بی‌شماری از این قبیل نابرابری‌های وحشتناک دیگر توسعه یافته و به کار گرفته شده‌اند.

برای پوشش گسترده و مداوم من از اخلاق هوش مصنوعی و هوش مصنوعی اخلاقی، رجوع کنید پیوند اینجا و پیوند اینجا، فقط به نام چند.

سوگیری های کشف شده در این سیستم های هوش مصنوعی از نوع "عمدی" نیست که به رفتار انسان نسبت دهیم. من این را ذکر می کنم تا تاکید کنم که هوش مصنوعی امروزی حساس نیست. علیرغم آن عناوین پر سر و صدایی که خلاف آن را نشان می دهد، هیچ هوش مصنوعی در جایی وجود ندارد که حتی به احساس نزدیک شود. علاوه بر این، ما نمی دانیم چگونه هوش مصنوعی را وارد براکت حس کنیم، به علاوه هیچ کس نمی تواند با اطمینان بگوید که آیا هرگز به هوش مصنوعی دست خواهیم یافت یا خیر. شاید روزی این اتفاق بیفتد یا شاید هم نه.

بنابراین، منظور من این است که ما نمی‌توانیم به طور خاص به نوعی از هوش مصنوعی که در حال حاضر داریم، توجه کنیم. همانطور که گفته شد، ما می توانیم به وفور به کسانی که در حال ساخت سیستم های هوش مصنوعی هستند، نیت اختصاص دهیم. برخی از توسعه دهندگان هوش مصنوعی از این واقعیت آگاه نیستند که یک سیستم هوش مصنوعی ابداع کرده اند که دارای سوگیری های نامطلوب و احتمالاً غیرقانونی است. در همین حال، دیگر توسعه‌دهندگان هوش مصنوعی متوجه می‌شوند که سوگیری‌هایی را در سیستم‌های هوش مصنوعی خود ایجاد می‌کنند، و به طور بالقوه این کار را به شیوه‌ای اشتباه و هدفمند انجام می‌دهند.

در هر صورت، نتیجه هنوز نامناسب و احتمالاً غیرقانونی است.

تلاش‌های جدی برای انتشار اصول اخلاقی هوش مصنوعی در حال انجام است که توسعه‌دهندگان هوش مصنوعی را روشن می‌کند و راهنمایی‌های مناسبی را برای دوری از تعصبات در سیستم‌های هوش مصنوعی ارائه می‌دهد. این به یک مد دوطرفه کمک خواهد کرد. اولاً، کسانی که هوش مصنوعی می‌سازند، دیگر این بهانه را نخواهند داشت که از قوانینی که باید پیروی کنند، آگاهی نداشتند. دوم، کسانی که از شرایط هوش مصنوعی اخلاقی منحرف می‌شوند، با سهولت بیشتری دستگیر می‌شوند و نشان داده می‌شوند که از کاری که از قبل به آنها هشدار داده شده بود هم انجام دهند و هم انجام ندهند، جلوگیری می‌کنند.

بیایید لحظه ای را به بررسی مختصر برخی از قوانین کلیدی هوش مصنوعی اخلاقی بپردازیم تا نشان دهیم سازندگان هوش مصنوعی باید به چه چیزی فکر کنند و از موضع اخلاقی هوش مصنوعی به طور جدی اتخاذ کنند.

همانطور که توسط واتیکان در فراخوان رم برای اخلاق هوش مصنوعی و همانطور که به طور عمیق به آن پرداخته ام پیوند اینجا، این شش اصل اصلی اخلاق هوش مصنوعی شناسایی شده آنها است:

  • شفافیت: در اصل، سیستم های هوش مصنوعی باید قابل توضیح باشند
  • نقص: نیازهای همه انسانها باید مورد توجه قرار گیرد تا همه بتوانند از آن بهره ببرند و بهترین شرایط ممکن برای ابراز وجود و پیشرفت به همه افراد ارائه شود.
  • مسئوليت: کسانی که استفاده از هوش مصنوعی را طراحی و اجرا می کنند باید با مسئولیت و شفافیت پیش بروند
  • بی طرفی: از ایجاد و یا عمل بر اساس تعصب، در نتیجه حفظ انصاف و کرامت انسانی
  • قابلیت اطمینان: سیستم های هوش مصنوعی باید بتوانند به طور قابل اعتماد کار کنند
  • امنیت و حریم خصوصی: سیستم های هوش مصنوعی باید ایمن کار کنند و به حریم خصوصی کاربران احترام بگذارند.

همانطور که توسط وزارت دفاع ایالات متحده (DoD) در آنها بیان شده است اصول اخلاقی برای استفاده از هوش مصنوعی و همانطور که به طور عمیق به آن پرداخته ام پیوند اینجا، این شش اصل اصلی اخلاق هوش مصنوعی آنهاست:

  • مسئول: پرسنل وزارت دفاع سطوح مناسبی از قضاوت و مراقبت را اعمال خواهند کرد و در عین حال مسئولیت توسعه، استقرار و استفاده از قابلیت‌های هوش مصنوعی را بر عهده خواهند داشت.
  • منصفانه: این وزارتخانه اقدامات عمدی را برای به حداقل رساندن سوگیری ناخواسته در قابلیت‌های هوش مصنوعی انجام خواهد داد.
  • قابل ردیابی: قابلیت‌های هوش مصنوعی این وزارتخانه به گونه‌ای توسعه و مستقر خواهد شد که پرسنل مربوطه درک مناسبی از فناوری، فرآیندهای توسعه، و روش‌های عملیاتی قابل اجرا برای قابلیت‌های هوش مصنوعی، از جمله با روش‌شناسی شفاف و قابل ممیزی، منابع داده، و روش‌های طراحی و اسناد داشته باشند.
  • قابل اعتماد: قابلیت‌های هوش مصنوعی این وزارتخانه کاربردهای مشخص و مشخصی خواهند داشت، و ایمنی، امنیت و اثربخشی چنین قابلیت‌هایی مشمول آزمایش و اطمینان در آن کاربردهای تعریف‌شده در کل چرخه عمر آن‌ها خواهد بود.
  • قابل اداره: این وزارتخانه قابلیت‌های هوش مصنوعی را طراحی و مهندسی می‌کند تا عملکردهای مورد نظر خود را انجام دهد، در حالی که توانایی شناسایی و اجتناب از پیامدهای ناخواسته را دارد، و توانایی جدا کردن یا غیرفعال کردن سیستم‌های مستقری که رفتار ناخواسته را نشان می‌دهند.

من همچنین در مورد تجزیه و تحلیل‌های جمعی مختلف از اصول اخلاق هوش مصنوعی بحث کرده‌ام، از جمله پوشش مجموعه‌ای ابداع شده توسط محققان که ماهیت بسیاری از اصول اخلاقی هوش مصنوعی ملی و بین‌المللی را در مقاله‌ای تحت عنوان «چشم‌انداز جهانی دستورالعمل‌های اخلاق هوش مصنوعی» (منتشر شده) بررسی و فشرده کرده است. که در طبیعت) و پوشش من در آن بررسی می شود پیوند اینجا، که منجر به این لیست کلیدی شد:

  • شفافیت
  • عدالت و انصاف
  • عدم سوء استفاده
  • مسئوليت
  • حریم خصوصی
  • سود رسانی
  • آزادی و خودمختاری
  • اعتماد
  • پایداری
  • کرامت
  • اتحاد

همانطور که ممکن است مستقیماً حدس بزنید، تلاش برای مشخص کردن ویژگی‌های اساسی این اصول می‌تواند بسیار سخت باشد. حتی بیشتر از آن، تلاش برای تبدیل این اصول گسترده به چیزی کاملاً ملموس و با جزئیات کافی برای استفاده در هنگام ساخت سیستم‌های هوش مصنوعی نیز سخت است. به طور کلی می توان در مورد اینکه اصول اخلاقی هوش مصنوعی چیست و چگونه باید به طور کلی آنها را رعایت کرد، دست تکان داد، در حالی که این وضعیت بسیار پیچیده تر است که کدگذاری هوش مصنوعی باید لاستیک واقعی باشد که با جاده مطابقت دارد.

اصول اخلاقی هوش مصنوعی باید توسط توسعه دهندگان هوش مصنوعی، همراه با آنهایی که تلاش های توسعه هوش مصنوعی را مدیریت می کنند، و حتی آنهایی که در نهایت سیستم های هوش مصنوعی را انجام می دهند، مورد استفاده قرار گیرد. همه ذینفعان در طول چرخه عمر توسعه و استفاده هوش مصنوعی در محدوده رعایت هنجارهای تثبیت شده هوش مصنوعی اخلاقی در نظر گرفته می شوند. این نکته مهمی است زیرا فرض معمول این است که «فقط کدنویس‌ها» یا کسانی که هوش مصنوعی را برنامه‌ریزی می‌کنند، منوط به رعایت مفاهیم اخلاقی هوش مصنوعی هستند. لطفاً توجه داشته باشید که برای طراحی و بکارگیری هوش مصنوعی به یک دهکده نیاز است. برای اینکه کل دهکده باید در مورد اخلاق هوش مصنوعی پایبند باشند.

به هر حال، اکنون که به این جدول پرداختم که هوش مصنوعی می تواند دارای سوگیری باشد، شاید همه ما بتوانیم با این دو واقعیت آشکار موافق باشیم:

1. انسان ها می توانند تعصبات نامطلوب متعددی داشته باشند و می توانند بر اساس آنها عمل کنند

2. هوش مصنوعی می تواند سوگیری های نامطلوب متعددی داشته باشد و می تواند بر اساس آن سوگیری ها عمل کند

من تا حدودی از اینکه انسان ها را در مقابل هوش مصنوعی در آن زمینه قرار دهم متنفرم، زیرا ممکن است به نحوی به این معنا باشد که هوش مصنوعی دارای ظرفیت های هوشی برابر با انسان ها است. مطمئناً اینطور نیست. کمی بعدتر در این بحث به نگرانی‌های فزاینده در مورد انسان‌سازی هوش مصنوعی برمی‌گردم.

کدام بدتر است، انسان هایی که سوگیری های نامطلوب نشان می دهند یا هوش مصنوعی که چنین می کند؟

به جرات می توانم بگویم که این سوال یکی از آن انتخاب های گستاخانه را مطرح می کند. این ضرب المثل کوچکتر از دو شر است، شاید بتوان ادعا کرد. آرزو می‌کنیم که انسان‌ها تعصبات نامطلوب نداشته باشند. ما همچنین آرزو می کنیم که حتی اگر انسان ها تعصبات نامطلوب داشته باشند، بر اساس آن تعصبات عمل نکنند. همین را می توان به درستی در مورد هوش مصنوعی گفت. ما آرزو می‌کنیم که هوش مصنوعی سوگیری‌های نامطلوب را تعبیه نمی‌کرد و حتی اگر چنین سوگیری‌های رمزگذاری شده داخلی وجود داشته باشد، هوش مصنوعی حداقل بر اساس آنها عمل نمی‌کرد.

اگرچه آرزوها لزوماً جهان را اداره نمی کنند (برای تحلیل من از ظاهر در حال افزایش و نگران کننده به اصطلاح تحقق آرزوهای هوش مصنوعی توسط جامعه در کل، ببینید پیوند اینجا).

خوب، ما بدیهی است که می خواهیم انسان ها محدودیت های خود را بدانند. تشخیص اینکه چه زمانی سوگیری های نامطلوب دارید اهمیت دارد. تلاش برای جلوگیری از القای آن تعصبات ناخواسته در اعمال و تصمیمات شما اهمیت یکسانی دارد. امروزه کسب‌وکارها انواع روش‌ها را امتحان می‌کنند تا کارمندان خود را از افتادن در دام‌های ناخوشایند سوگیری‌ها دور نگه دارند. آموزش های تخصصی به کارمندان در مورد نحوه انجام کارشان به روش های اخلاقی درست داده می شود. فرآیندهایی حول کارمندان شکل می‌گیرند تا وقتی به نظر می‌رسد آداب غیراخلاقی از خود نشان می‌دهند به آنها هشدار دهد. و غیره.

یکی دیگر از ابزارهای مقابله با انسان ها و تعصبات نامطلوب آنها، خودکار کردن کار مبتنی بر انسان است. بله، به سادگی انسان را از حلقه حذف کنید. به یک انسان اجازه ندهید که یک وظیفه تصمیم گیری را انجام دهد و احتمالاً دیگر هیچ نگرانی دائمی در مورد رفتار انسان نسبت به هرگونه سوگیری ناخواسته ندارید. انسان درگیر نیست و بنابراین به نظر می رسد مشکل سوگیری های انسانی بالقوه حل شده است.

من این را مطرح می کنم زیرا ما شاهد تغییر تدریجی و گسترده به سمت استفاده از هوش مصنوعی در روش تصمیم گیری الگوریتمی (ADM) هستیم. اگر بتوانید یک کارگر انسانی را با هوش مصنوعی جایگزین کنید، احتمال اینکه مزایای زیادی حاصل شود وجود دارد. همانطور که قبلا ذکر شد، دیگر در مورد تعصبات انسانی آن کارگر انسانی (کسی که دیگر آن کار را انجام نمی دهد) ناراحت نخواهید شد. این احتمال وجود دارد که هوش مصنوعی در مقایسه با افق زمانی بلندمدت به طور کلی هزینه کمتری داشته باشد. شما از تمام مشکلات گوناگونی که به طور جزئی با کارگران انسانی پیش می آید کنار می گذارید. و غیره.

به نظر می رسد پیشنهادی که در حال افزایش است این است: هنگامی که می‌خواهید تصمیم بگیرید که هوش مصنوعی را در کجا قرار دهید، ابتدا به تنظیماتی نگاه کنید که قبلاً مستلزم تعصبات انسانی توسط کارکنان شما هستند و این سوگیری‌ها وظایف تصمیم‌گیری خاص را کم‌کم یا پیچیده‌تر می‌کنند.

نکته اصلی این است که به نظر عاقلانه می‌رسد که با هدف قرار دادن مستقیم وظایف تصمیم‌گیری انسانی که کنترل آن‌ها از منظر القای سوگیری‌های نامطلوب دشوار است، بیشترین سود را از نظر سرمایه‌گذاری در هوش مصنوعی به دست آورید. کارگران انسانی در آن نقش را حذف کنید. آنها را با هوش مصنوعی جایگزین کنید. فرض بر این است که هوش مصنوعی چنین سوگیری های نامطلوبی ندارد. بنابراین، می توانید کیک خود را بخورید و آن را نیز بخورید، یعنی وظایف تصمیم گیری را انجام دهید و این کار را منهای شبح اخلاقی و قانونی تعصبات ناخواسته انجام دهید.

وقتی این را مداد می‌کنید، ROI (بازده سرمایه‌گذاری) احتمالاً اتخاذ هوش مصنوعی را به یک انتخاب بی‌معنا تبدیل می‌کند.

در اینجا نحوه انجام آن معمولاً آمده است.

به سراسر شرکت خود نگاه کنید و سعی کنید وظایف تصمیم گیری که بر مشتریان تأثیر می گذارد را شناسایی کنید. از میان آن وظایف، اگر کارگران تعصبات نامطلوب داشته باشند، کدام یک به احتمال زیاد به طور نامناسب تحت تأثیر قرار می گیرند؟ اگر قبلاً سعی کرده اید این تعصبات را مهار کنید، شاید اجازه دهید همه چیز همانطور که هست باقی بماند. از سوی دیگر، اگر سوگیری ها دوباره ظاهر می شوند و تلاش برای از بین بردن آنها دشوار است، برخی از هوش مصنوعی مربوطه را در این نقش کنار بگذارید. کارگران را در ترکیب قرار ندهید زیرا ممکن است هوش مصنوعی را زیر پا بگذارند یا هوش مصنوعی را مستقیماً به ورطه ناسازگاری تعصبات برگردانند. همچنین، مطمئن شوید که هوش مصنوعی می‌تواند کار را به خوبی انجام دهد و شما به اندازه کافی جنبه‌های تصمیم‌گیری مورد نیاز برای انجام کار را دریافت کرده‌اید.

بشویید و تکرار کنید.

می‌دانم که این تصور ساده‌ای به نظر می‌رسد، اگرچه می‌دانم که راه‌های زیادی وجود دارد که جایگزینی کارکنان انسانی با هوش مصنوعی می‌تواند به آسانی به خطا برود. بسیاری از شرکت ها مشتاق انجام چنین اقداماتی بودند و به طور آگاهانه به نحوه انجام این کار فکر نمی کردند. در نتیجه، آنها اغلب بدتر از آنچه در دست داشتند، برای شروع آشفتگی ایجاد می کردند.

من می خواهم روشن کنم و تاکید کنم که هوش مصنوعی یک دارو نیست.

وقتی صحبت از آن شد، یک مشکل بزرگ در مورد پاک بودن ظاهراً بیرون انداختن تصمیم گیرندگان متعصب انسانی با هوش مصنوعی ظاهراً بی طرف وجود دارد. مشکل این است که شما ممکن است صرفاً یک سری از تعصبات نامطلوب را با دیگری جایگزین کنید. طبق نشانه قبلی، هوش مصنوعی می تواند دارای سوگیری های نامطلوب باشد و می تواند بر اساس آن سوگیری ها عمل کند. ایجاد یک فرض وقیحانه مبنی بر اینکه مبادله انسان های مغرضانه با هوش مصنوعی بی طرفانه تنها چیزی نیست که باید انجام شود.

به طور خلاصه، وقتی موضوع را صرفاً از روی عوامل سوگیری می بینیم، این معامله به شرح زیر است:

  • هوش مصنوعی هیچ سوگیری نامطلوبی ندارد و بنابراین ADM مبتنی بر هوش مصنوعی برای استقرار مفید است
  • هوش مصنوعی همان تعصبات نامطلوب انسان های جایگزین شده را دارد و بنابراین ADM مبتنی بر هوش مصنوعی نگران کننده است.
  • هوش مصنوعی سوگیری های نامطلوب جدیدی را فراتر از تعصبات انسان های جایگزین شده معرفی می کند و احتمالاً اوضاع را بدتر خواهد کرد.
  • هوش مصنوعی در ابتدا خوب به نظر می رسد و سپس به تدریج به سمت سوگیری های نامطلوب می چرخد
  • دیگر

ما می توانیم به طور خلاصه آن احتمالات را باز کنیم.

اولین نسخه، نسخه ایده آل از آنچه ممکن است رخ دهد است. هوش مصنوعی هیچ سوگیری ناخواسته ای ندارد. شما هوش مصنوعی را در جای خود قرار می دهید و این کار را عالی انجام می دهد. خوش به حالت! البته، می توان امیدوار بود که شما نیز به روشی ماهرانه با جابجایی کارگران انسانی به دلیل گنجاندن هوش مصنوعی مقابله کرده باشید.

در مورد دوم، هوش مصنوعی را در جای خود قرار می‌دهید و متوجه می‌شوید که هوش مصنوعی همان تعصبات ناخواسته‌ای را نشان می‌دهد که کارگران انسانی داشتند. چگونه می تواند این باشد؟ یک روش رایج برای افتادن در این تله، استفاده از یادگیری ماشینی (ML) و یادگیری عمیق (DL) است که بر اساس داده‌های جمع‌آوری‌شده از نحوه تصمیم‌گیری انسان‌های حاضر در این نقش قبلاً انجام می‌شود.

اجازه دهید یک لحظه توضیح دهم.

ML/DL نوعی تطبیق الگوی محاسباتی است. روش معمول این است که شما داده ها را در مورد یک کار تصمیم گیری جمع آوری می کنید. داده ها را به مدل های کامپیوتری ML/DL وارد می کنید. آن مدل ها به دنبال یافتن الگوهای ریاضی هستند. پس از یافتن چنین الگوهایی، در صورت یافتن، سیستم هوش مصنوعی در هنگام مواجهه با داده های جدید از آن الگوها استفاده خواهد کرد. پس از ارائه داده های جدید، الگوهای مبتنی بر داده های "قدیمی" یا تاریخی برای ارائه یک تصمیم فعلی استفاده می شود.

من فکر می کنم می توانید حدس بزنید که این به کجا می رود. اگر انسان‌هایی که سال‌ها کار را انجام می‌دهند، سوگیری‌های نامطلوب را به کار می‌گیرند، احتمال این وجود دارد که داده‌ها این موضوع را به روش‌های ظریف اما قابل توجهی منعکس کنند. تطبیق الگوی محاسباتی یادگیری ماشینی یا یادگیری عمیق به سادگی سعی می کند داده ها را به صورت ریاضی تقلید کند. هیچ شباهتی از عقل سلیم یا سایر جنبه های حساس مدل سازی فی نفسه وجود ندارد.

علاوه بر این، توسعه دهندگان هوش مصنوعی نیز ممکن است متوجه نباشند که چه اتفاقی در حال رخ دادن است. ریاضیات محرمانه ممکن است کشف سوگیری های پنهان در حال حاضر را دشوار کند. شما به حق امیدوارید و انتظار دارید که توسعه دهندگان هوش مصنوعی سوگیری های بالقوه مدفون را آزمایش کنند، اگرچه این مشکل تر از آن چیزی است که به نظر می رسد. یک شانس قوی وجود دارد که حتی با آزمایش نسبتاً گسترده، سوگیری‌هایی همچنان در مدل‌های تطبیق الگوی ML/DL وجود داشته باشد.

همه گفته ها، ممکن است به نقطه اول برگردید. همان تعصبات ناخوشایند انسانها اکنون به صورت محاسباتی در سیستم هوش مصنوعی منعکس شده است. شما تعصبات را ریشه کن نکرده اید.

بدتر از آن، ممکن است کمتر متوجه شوید که هوش مصنوعی دارای سوگیری است. در مورد انسان‌ها، معمولاً ممکن است مراقب باشید که انسان‌ها دارای تعصبات نامطلوب باشند. این یک انتظار پایه است. استفاده از هوش مصنوعی می تواند رهبران را به این باور برساند که اتوماسیون به طور کامل هرگونه تعصب انسانی را از بین برده است. آنها به این ترتیب خود را برای شلیک گلوله به پای خود آماده می کنند. آن‌ها از شر انسان‌هایی با سوگیری‌های ظاهراً ناشناخته خلاص شدند و هوش مصنوعی جایگزین آن‌ها شد که تصور می‌شد چنین سوگیری‌هایی ندارد، و با این حال اکنون از هوش مصنوعی مملو از همان سوگیری‌هایی استفاده می‌کنند که قبلاً وجود داشته است.

این می تواند همه چیز را واقعاً به هم بزند. شما ممکن است نرده‌های محافظ دیگری را که برای شناسایی و جلوگیری از ظهور آن تعصبات انسانی از قبل پیش‌بینی شده ایجاد شده‌اند، استفاده کرده باشید. هوش مصنوعی اکنون کنترل آزاد دارد. هیچ چیز در جای خود نیست تا آن را قبل از اقدام کردن به دست آورید. سپس هوش مصنوعی می‌تواند شما را در مسیری کسل‌کننده از انباشت گسترده اقدامات مغرضانه هدایت کند.

و، شما در وضعیت ناهنجار و شاید مسئولیت پذیری قرار دارید که زمانی در مورد تعصبات می دانستید و اکنون اجازه داده اید که این تعصبات ویران کنند. شاید این یک چیز باشد که تا به حال با چنین سوگیری های ناخوشایندی مواجه نشده باشید و سپس ناگهان هوش مصنوعی آنها را بیرون می آورد. ممکن است سعی کنید این موضوع را با نوع حواس‌پرتی «چه کسی حدس می‌زد» (شاید نه چندان متقاعدکننده) توجیه کنید. اما اینکه اکنون هوش مصنوعی را راه‌اندازی کرده‌اید که همان اقدامات مغرضانه قبلی را انجام می‌دهد، خوب، بهانه‌های شما ضعیف‌تر و ضعیف‌تر می‌شوند.

تغییر در این امر مستلزم آن است که هوش مصنوعی سوگیری‌های نامطلوبی را نشان دهد که قبلاً در زمان انجام کار توسط انسان‌ها با آن مواجه نشده بود. می توانید بگویید که شاید جلوگیری از این امر دشوارتر باشد زیرا شامل سوگیری های "جدید" است که شرکت قبلاً به دنبال آن نبوده است. با این حال، در پایان، بهانه ها ممکن است برای شما آرامش چندانی ایجاد نکند. اگر سیستم هوش مصنوعی به قلمرو غیراخلاقی و غیرقانونی وارد شده باشد، غاز شما ممکن است پخته شده باشد.

یکی دیگر از جنبه هایی که باید در نظر داشت این است که هوش مصنوعی ممکن است به خوبی شروع شود و سپس به سمت سوگیری های نامطلوب برسد. این امر به ویژه زمانی محتمل است که استفاده از یادگیری ماشینی یا یادگیری عمیق به طور مداوم برای به روز نگه داشتن هوش مصنوعی انجام شود. چه ML/DL به‌صورت بلادرنگ کار می‌کند یا به‌صورت دوره‌ای به‌روزرسانی‌ها را انجام می‌دهد، باید توجه داشت که آیا هوش مصنوعی احتمالاً داده‌هایی را دریافت می‌کند که اکنون حاوی سوگیری‌هایی هستند و قبلاً وجود نداشتند.

برای رهبرانی که فکر می‌کنند با تکان دادن عصای جادویی برای جایگزینی کارکنان انسانی مغرض با هوش مصنوعی، یک ناهار رایگان دریافت می‌کنند، بیداری بسیار بی‌ادبی دارند. بحث من در مورد اهمیت توانمندسازی رهبران با احکام اخلاق هوش مصنوعی را در اینجا ببینید پیوند اینجا.

در این مقطع از این بحث، شرط می بندم که شما مشتاق چند نمونه دنیای واقعی هستید که ممکن است معمای جایگزینی (یا نه) تعصبات ناخواسته انسانی با سوگیری های ناخواسته مبتنی بر هوش مصنوعی را نشان دهد.

خوشحالم که پرسیدی

مجموعه‌ای از نمونه‌های خاص و مطمئناً محبوب وجود دارد که به دلم نشسته است. ببینید، به عنوان یک متخصص در زمینه هوش مصنوعی از جمله پیامدهای اخلاقی و قانونی، اغلب از من خواسته می‌شود که نمونه‌های واقع‌بینانه‌ای را که معضلات اخلاقی هوش مصنوعی را نشان می‌دهند شناسایی کنم تا بتوان ماهیت تا حدودی نظری موضوع را راحت‌تر درک کرد. یکی از جذاب‌ترین زمینه‌هایی که این معضل اخلاقی هوش مصنوعی را به وضوح نشان می‌دهد، ظهور خودروهای خودران واقعی مبتنی بر هوش مصنوعی است. این به عنوان یک مورد استفاده مفید یا نمونه ای برای بحث و گفتگوی کافی در مورد موضوع خواهد بود.

پس در اینجا یک سوال قابل توجه وجود دارد که قابل تامل است: آیا ظهور خودروهای خودران واقعی مبتنی بر هوش مصنوعی چیزی را در مورد تعصبات نامطلوب در هوش مصنوعی روشن می کند، و اگر چنین است، این چه چیزی را نشان می دهد؟

یک لحظه به من اجازه دهید تا پرسش را باز کنم.

اول، توجه داشته باشید که هیچ راننده انسانی در یک ماشین خودران واقعی دخیل نیست. به خاطر داشته باشید که خودروهای خودران واقعی از طریق سیستم رانندگی هوش مصنوعی هدایت می شوند. نه نیازی به راننده انسان پشت فرمان وجود دارد و نه پیش بینی ای برای رانندگی وسیله نقلیه توسط انسان وجود دارد. برای پوشش گسترده و مداوم من در مورد وسایل نقلیه خودران (AVs) و به خصوص خودروهای خودران، نگاه کنید به پیوند اینجا.

مایلم بیشتر توضیح دهم که منظور از خودروهای خودران واقعی چیست.

درک سطح اتومبیل های خودران

به عنوان یک توضیح ، اتومبیل های واقعی خودران از جمله مواردی هستند که هوش مصنوعی اتومبیل را کاملاً خود به خود هدایت می کند و هیچ گونه کمک انسانی در حین کار رانندگی وجود ندارد.

این وسایل نقلیه بدون راننده سطح 4 و سطح 5 در نظر گرفته می شوند (توضیحات من را در اینجا ببینید این لینک در اینجا) ، در حالی که خودرویی که نیاز به یک راننده انسانی برای مشارکت در رانندگی دارد معمولاً در سطح 2 یا سطح 3 در نظر گرفته می شود. افزودنی های خودکار که به عنوان ADAS (سیستم های کمک راننده پیشرفته) شناخته می شوند.

در سطح 5 هنوز یک اتومبیل واقعی رانندگی وجود ندارد ، که ما حتی نمی دانیم آیا این امر امکان پذیر خواهد بود یا اینکه رسیدن به آنجا چقدر طول می کشد.

در همین حال ، تلاش های سطح 4 به تدریج در تلاشند تا با انجام آزمایشات عمومی بسیار باریک و انتخابی در جاده ها ، کمی به سمت خود جلب کنند ، هرچند در مورد اینکه آیا این آزمایش به خودی خود مجاز است یا خیر ، اختلاف نظر وجود دارد (همه ما در یک آزمایش خوکچه هندی زنده یا مرگ هستیم) برخی از آنها ادعا می كنند كه در بزرگراهها و گذرگاههای ما در حال انجام است این لینک در اینجا).

از آنجا که اتومبیل های نیمه خودمختار به یک راننده انسانی احتیاج دارند ، تصویب آن دسته از اتومبیل ها تفاوت چندانی با رانندگی وسایل نقلیه معمولی نخواهد داشت ، بنابراین به تنهایی چیز جدیدی برای پوشش آنها در این موضوع وجود ندارد (هر چند ، همانطور که خواهید دید در یک لحظه ، نکات بعدی که بطور کلی اعمال می شود).

در مورد اتومبیل های نیمه خودمختار ، مهم است که در مورد جنبه نگران کننده ای که اخیراً بوجود آمده است ، هشدار داده شود ، یعنی این که با وجود آن رانندگان انسانی که با ارسال فیلم هایی از خودشان ، در حال خوابیدن در چرخ یک اتومبیل سطح 2 یا سطح 3 هستند. ، همه ما باید از اینكه گمان نرود راننده بتواند هنگام رانندگی یك اتومبیل نیمه خودمختار ، توجه خود را از وظیفه رانندگی دور كند ، خودداری كنیم.

شما مسئولیت اقدامات رانندگی وسیله نقلیه ، صرفنظر از میزان اتوماسیون در سطح 2 یا سطح 3 ، مسئولیت مسئولیت مسئولیت شما می باشد.

اتومبیل های خودران و هوش مصنوعی با تعصبات نامطلوب

برای وسایل نقلیه خود رانندگی واقعی سطح 4 و سطح 5 ، یک راننده انسانی درگیر در وظیفه رانندگی نخواهد بود.

همه سرنشینان مسافر خواهند بود.

هوش مصنوعی رانندگی را انجام می دهد.

یک جنبه برای بحث فوری این واقعیت را در بر دارد که هوش مصنوعی در سیستم های رانندگی هوش مصنوعی امروزی حساس نیست. به عبارت دیگر ، هوش مصنوعی در مجموع مجموعه ای از برنامه نویسی و الگوریتم های مبتنی بر رایانه است و مطمئناً قادر به استدلال به همان روشی نیست که انسان می تواند.

چرا این تاکید اضافی در مورد هوش مصنوعی نیست؟

از آنجا که می خواهم تأکید کنم هنگام بحث در مورد نقش سیستم رانندگی AI ، من خصوصیات انسانی را به AI نسبت نمی دهم. لطفاً توجه داشته باشید که این روزها تمایل مستمر و خطرناکی برای انسان سازی AI وجود دارد. در حقیقت ، افراد حساسیتی شبیه انسان به هوش مصنوعی امروزی دارند ، علی رغم این واقعیت انکارناپذیر و غیرقابل انکار که هنوز چنین هوش مصنوعی وجود ندارد.

با این توضیحات ، می توانید تصور کنید که سیستم رانندگی هوش مصنوعی بطور طبیعی از جنبه های رانندگی "آگاهی" نداشته باشد. رانندگی و همه آنچه که شامل می شود باید به عنوان بخشی از سخت افزار و نرم افزار اتومبیل خودران برنامه ریزی شوند.

بیایید به جنبه های بی شماری بپردازیم که در این موضوع بازی می شوند.

اول، مهم است که بدانیم همه خودروهای خودران با هوش مصنوعی یکسان نیستند. هر خودروساز و شرکت فناوری خودران رویکرد خود را برای ابداع خودروهای خودران در پیش گرفته است. به این ترتیب، اظهار نظر گسترده در مورد اینکه سیستم های رانندگی هوش مصنوعی چه کاری انجام خواهند داد یا انجام نمی دهند، دشوار است.

علاوه بر این ، هرگاه بیان شود که سیستم رانندگی هوش مصنوعی کار خاصی انجام نمی دهد ، بعداً توسعه دهندگانی که در واقع کامپیوتر را برای انجام این کار برنامه ریزی می کنند ، می توانند از این امر پیشی بگیرند. گام به گام ، سیستم های رانندگی هوش مصنوعی به تدریج در حال بهبود و گسترش هستند. امروزه محدودیت موجود ممکن است دیگر در نسخه یا نسخه بعدی سیستم وجود نداشته باشد.

من معتقدم که هشدارهای کافی برای تأکید بر آنچه که من در مورد آن صحبت می کنم فراهم می کند.

ما اکنون آماده هستیم تا به بررسی خودروهای خودران و امکانات هوش مصنوعی اخلاقی که مستلزم کاوش در هوش مصنوعی و تعصبات ناخواسته است، بپردازیم.

بیایید از یک مثال ساده استفاده کنیم. یک خودروی خودران مبتنی بر هوش مصنوعی در خیابان های محله شما در حال حرکت است و به نظر می رسد با خیال راحت رانندگی می کند. در ابتدا، توجه ویژه ای به هر بار که توانستید نگاهی اجمالی به خودروی خودران داشته باشید، داشتید. این وسیله نقلیه خودران با قفسه سنسورهای الکترونیکی خود که شامل دوربین‌های فیلمبرداری، واحدهای رادار، دستگاه‌های LIDAR و مواردی از این قبیل است، متمایز بود. پس از چندین هفته از گشت و گذار خودروی خودران در جامعه شما، اکنون به سختی متوجه آن می شوید. تا آنجا که به شما مربوط می شود، این فقط یک ماشین دیگر در جاده های عمومی شلوغ است.

برای اینکه فکر نکنید آشنایی با دیدن ماشین‌های خودران غیرممکن یا غیرقابل قبول است، من بارها در مورد اینکه چگونه مناطقی که در محدوده آزمایش‌های ماشین‌های خودران هستند به تدریج به دیدن وسایل نقلیه خوش‌نظم عادت کرده‌اند، نوشته‌ام. تحلیل من را در این لینک در اینجا. بسیاری از محلی‌ها در نهایت از حالت خمیازه‌ای بی‌حوصله به حالت خمیازه‌های بی‌حوصلگی روی آوردند تا شاهد ماشین‌های پر پیچ و خم خودران باشند.

احتمالاً دلیل اصلی در حال حاضر که آنها ممکن است متوجه خودروهای خودران شوند، عامل تحریک و عصبانیت است. سیستم‌های رانندگی با هوش مصنوعی مطمئن می‌شوند که خودروها از تمام محدودیت‌های سرعت و قوانین جاده پیروی می‌کنند. برای رانندگان انسانی گیج‌کننده در ماشین‌های سنتی خود که توسط انسان هدایت می‌شوند، در مواقعی که پشت ماشین‌های خودران مبتنی بر هوش مصنوعی کاملاً قانون‌مدار گیر می‌کنید، عصبانی می‌شوید.

این چیزی است که ممکن است همه ما به درستی یا نادرست به آن عادت کنیم.

بازگشت به داستان ما

به نظر می رسد که دو نگرانی نامطلوب در مورد خودروهای خودران مبتنی بر هوش مصنوعی در غیر این صورت بی ضرر و به طور کلی مورد استقبال قرار می گیرد، به ویژه:

آ. جایی که هوش مصنوعی در حال پرسه زدن خودروهای خودران برای سوار شدن به یک نگرانی نگران کننده در جامعه است.

ب نحوه برخورد هوش مصنوعی با عابران پیاده که حق تقدم ندارند نیز یک مسئله در حال افزایش است.

در ابتدا، هوش مصنوعی ماشین های خودران را در سراسر شهر پرسه می زد. هرکسی که می خواست سوار ماشین خودران شود، اساساً شانس یکسانی داشت. به تدریج، هوش مصنوعی شروع به پرسه زدن خودروهای خودران تنها در یک بخش از شهر کرد. این بخش پولسازتر بود و سیستم هوش مصنوعی برنامه ریزی شده بود تا سعی کند درآمد را به عنوان بخشی از استفاده در جامعه به حداکثر برساند.

اعضای جامعه در بخش های فقیر شهر کمتر احتمال داشت که بتوانند از یک ماشین خودران سوار شوند. این به این دلیل بود که خودروهای خودران دورتر بودند و در بخش درآمد بالاتر منطقه در حال پرسه زدن بودند. هنگامی که درخواستی از یک نقطه دور از شهر وارد می شد، هر درخواستی از یک مکان نزدیکتر که احتمالاً در قسمت "محترم" شهر بود اولویت بیشتری دارد. در نهایت، دسترسی به یک ماشین خودران در هر مکانی غیر از بخش ثروتمندتر شهر تقریبا غیرممکن بود، برای کسانی که در مناطقی که اکنون کمبود منابع زندگی می کنند، بسیار غیرممکن بود.

شما می توانید ادعا کنید که هوش مصنوعی تقریباً بر نوعی تبعیض پروکسی (که اغلب به عنوان تبعیض غیرمستقیم نیز از آن یاد می شود) فرود آمده است. هوش مصنوعی برای اجتناب از آن محله های فقیرتر برنامه ریزی نشده بود. در عوض، "یاد گرفت" این کار را از طریق استفاده از ML/DL انجام دهد.

موضوع این است که رانندگان انسان سواری به انجام همین کار معروف بودند، البته نه لزوما صرفاً به دلیل زاویه پول‌سازی. برخی از رانندگان انسان‌های سهیم بودند که در مورد سوار کردن سواران در بخش‌های خاصی از شهر تعصب ناخوشایندی داشتند. این یک پدیده تا حدودی شناخته شده بود و شهر یک رویکرد نظارتی برای دستگیری رانندگان انسانی در حال انجام این کار ایجاد کرده بود. رانندگان انسانی ممکن است به دلیل انجام شیوه های انتخاب نامطلوب دچار مشکل شوند.

فرض بر این بود که هوش مصنوعی هرگز در همان نوع ماسه روان نمی افتد. هیچ نظارت تخصصی برای پیگیری مسیر حرکت خودروهای خودران مبتنی بر هوش مصنوعی تنظیم نشده بود. تنها زمانی که اعضای جامعه شروع به شکایت کردند، رهبران شهر متوجه شدند که چه اتفاقی در حال رخ دادن است. برای اطلاعات بیشتر در مورد این نوع مسائل در سطح شهر که قرار است وسایل نقلیه خودران و خودروهای خودران ارائه کنند، به پوشش من در این لینک در اینجا و مطالعه ای را که به رهبری هاروارد انجام شده است را توصیف می کند که من در این موضوع با هم نویسندگی کرده ام.

این مثال از جنبه‌های رومینگ خودروهای خودران مبتنی بر هوش مصنوعی، نشانه‌های قبلی را نشان می‌دهد که ممکن است موقعیت‌هایی وجود داشته باشد که انسان‌ها را با سوگیری‌های نامطلوب مواجه کند، که کنترل‌هایی برای آن‌ها اعمال می‌شود، و اینکه هوش مصنوعی جایگزین آن رانندگان انسانی رها شده است. رایگان. متأسفانه، هوش مصنوعی می تواند به تدریج در تعصبات مشابه فرو رود و این کار را بدون وجود نرده های محافظ کافی انجام دهد.

مثال دوم شامل تشخیص هوش مصنوعی برای توقف در انتظار عابران پیاده است که حق تقدم عبور از خیابان را ندارند.

شما بدون شک در حال رانندگی بوده اید و با عابران پیاده ای روبرو شده اید که منتظر عبور از خیابان بودند اما حق تقدم برای این کار را نداشتند. این به این معنی بود که شما در مورد توقف و اجازه عبور آنها اختیار داشتید. شما می توانید بدون اجازه عبور آنها ادامه دهید و همچنان کاملاً مطابق قوانین رانندگی قانونی این کار باشید.

مطالعات در مورد نحوه تصمیم گیری رانندگان انسانی برای توقف یا عدم توقف برای چنین عابران پیاده نشان می دهد که گاهی اوقات رانندگان انسانی بر اساس تعصبات ناخواسته این انتخاب را انجام می دهند. یک راننده انسانی ممکن است به عابر پیاده نگاه کند و تصمیم بگیرد که متوقف نشود، حتی اگر عابر پیاده ظاهر متفاوتی داشت، مثلاً بر اساس نژاد یا جنسیت. من این را در پیوند اینجا.

تصور کنید که خودروهای خودران مبتنی بر هوش مصنوعی به گونه‌ای برنامه‌ریزی شده‌اند که با این سؤال که آیا توقف یا توقف نکردن عابران پیاده‌ای که حق تقدم ندارند، مقابله کنند. در اینجا نحوه برنامه ریزی توسعه دهندگان هوش مصنوعی برای این کار آمده است. آنها داده ها را از دوربین های فیلمبرداری شهر که در سراسر شهر نصب شده اند جمع آوری کردند. داده‌ها رانندگان انسانی را نشان می‌دهند که برای عابران پیاده که حق تقدم ندارند و رانندگان انسانی که توقف نمی‌کنند، توقف می‌کنند. همه در یک مجموعه داده بزرگ جمع آوری شده است.

با استفاده از یادگیری ماشینی و یادگیری عمیق، داده ها به صورت محاسباتی مدل می شوند. سپس سیستم رانندگی هوش مصنوعی از این مدل برای تصمیم گیری در مورد توقف یا عدم توقف استفاده می کند. به طور کلی، ایده این است که از هر چیزی که عرف محلی تشکیل شده باشد، هوش مصنوعی به این صورت است که ماشین خودران را هدایت می کند.

در کمال تعجب رهبران شهر و ساکنان، هوش مصنوعی ظاهراً بر اساس ظاهر عابر پیاده، از جمله نژاد و جنسیت، توقف یا توقف را انتخاب کرد. حسگرهای خودروی خودران عابر پیاده منتظر را اسکن می‌کنند، این داده‌ها را به مدل ML/DL وارد می‌کنند و مدل به هوش مصنوعی می‌فرستد که آیا توقف کند یا ادامه دهد. متأسفانه، شهر قبلاً تعصبات زیادی برای راننده انسانی در این زمینه داشت و هوش مصنوعی اکنون همان را تقلید می کرد.

خبر خوب این است که این موضوع مسئله‌ای را مطرح می‌کند که تقریباً هیچ‌کس قبلاً وجود آن را نمی‌دانست. خبر بد این بود که از آنجایی که هوش مصنوعی در حال انجام این کار دستگیر شد، بیشتر مقصر شد. این مثال نشان می‌دهد که یک سیستم هوش مصنوعی ممکن است صرفاً تعصبات ناخواسته انسان‌ها را تکرار کند.

نتیجه

راه‌های زیادی برای تلاش و اجتناب از ابداع هوش مصنوعی وجود دارد که یا در خارج از دروازه دارای سوگیری‌های نامطلوب است یا به مرور زمان سوگیری‌ها را جمع‌آوری می‌کند. یک رویکرد شامل اطمینان از این است که توسعه دهندگان هوش مصنوعی از این اتفاق آگاه هستند و بنابراین آنها را در برنامه ریزی هوش مصنوعی برای جلوگیری از این موضوع نگه می دارند. راه دیگر شامل نظارت بر خود هوش مصنوعی برای رفتارهای غیراخلاقی است (به بحث من در اینجا مراجعه کنید پیوند اینجا) و/یا داشتن قطعه دیگری از هوش مصنوعی که سایر سیستم های هوش مصنوعی را برای رفتارهای غیراخلاقی بالقوه نظارت می کند (من این را در اینجا پوشش داده ام پیوند اینجا).

برای جمع بندی، باید بدانیم که انسان ها می توانند سوگیری های نامطلوب داشته باشند و به نوعی باید محدودیت های خود را بشناسند. به همین ترتیب، هوش مصنوعی می‌تواند سوگیری‌های نامطلوب داشته باشد و به نوعی باید محدودیت‌های آن‌ها را بدانیم.

برای آن دسته از شما که مشتاقانه از اخلاق هوش مصنوعی استقبال می کنید، می خواهم همین الان با یک جمله معروف دیگر که همه باید از قبل بدانند پایان دهم. یعنی لطفاً به استفاده و اشتراک گذاری اهمیت هوش مصنوعی اخلاقی ادامه دهید. و با این کار، با وقاحت این را می گویم: «برو، روزم را بساز».

منبع: https://www.forbes.com/sites/lanceeliot/2022/09/12/ai-ethics-saying-that-ai-should-be-especially-deployed-when-human-biases-are-aplenty/