اخلاق هوش مصنوعی زنگ خطر را در مورد شبح پیشروی تعصبات هوش مصنوعی در مقیاس جهانی به صدا در می آورد، به ویژه از طریق سیستم های کاملاً خودمختار در حال ظهور

افلاطون به قول معروف می‌گوید که یک تصمیم خوب مبتنی بر دانش است نه بر اعداد.

این بینش دقیق به طور شگفت انگیزی در مورد هوش مصنوعی امروزی (AI) پیش بینی کننده به نظر می رسد.

می بینید، علیرغم اینکه در حال حاضر سرفصل های پر سر و صدایی که اعلام می کنند هوش مصنوعی به نوعی به احساس رسیده است و دانش و استدلال انسانی را تجسم می بخشد، لطفاً توجه داشته باشید که این هذل AI اغراق آمیز یک پیش بینی موذیانه است زیرا ما هنوز در تصمیم گیری الگوریتم امروزی بر اعداد خرد تکیه می کنیم (ADM). ) همانطور که توسط سیستم های هوش مصنوعی انجام می شود. حتی یادگیری ماشینی (ML) و یادگیری عمیق (DL) متشکل از تطبیق الگوی محاسباتی است، به این معنی که اعداد هنوز در هسته اصلی استفاده عالی از ML/DL قرار دارند.

ما نمی دانیم که آیا رسیدن به هوش مصنوعی امکان پذیر است یا خیر. می تواند باشد، ممکن است نباشد. هیچ کس نمی تواند با اطمینان بگوید که چگونه ممکن است این اتفاق بیفتد. برخی بر این باورند که ما تلاش های هوش مصنوعی محاسباتی خود را به صورت تدریجی بهبود خواهیم داد به طوری که نوعی احساس به طور خود به خود رخ می دهد. برخی دیگر فکر می کنند که هوش مصنوعی ممکن است به نوعی ابرنواختر محاسباتی برود و تقریباً به اختیار خود (که معمولاً به آن تکینگی گفته می شود) به احساس برسد. برای اطلاعات بیشتر در مورد این تئوری ها در مورد آینده هوش مصنوعی، به پوشش من در اینجا مراجعه کنید پیوند اینجا.

بنابراین، بیایید خودمان را مسخره نکنیم و به دروغ باور کنیم که هوش مصنوعی معاصر قادر است مانند انسان فکر کند. فکر می‌کنم این سوال در مورد اظهارات افلاطون مطرح می‌شود که آیا می‌توانیم تصمیمات خوبی بر اساس هوش مصنوعی محاسباتی به جای هوش مصنوعی داشته باشیم. شاید تعجب کنید اگر بدانید که من می گویم که ما واقعاً می توانیم تصمیمات خوبی توسط سیستم های هوش مصنوعی روزمره گرفته شود.

روی دیگر این سکه این است که ما همچنین می‌توانیم سیستم‌های هوش مصنوعی روزانه داشته باشیم که تصمیمات بدی می‌گیرند. تصمیمات فاسد تصمیماتی که مملو از تعصبات و نابرابری های نامناسب است. ممکن است بدانید که زمانی که آخرین دوره هوش مصنوعی آغاز شد، شور و شوق زیادی برای چیزی که برخی اکنون آن را می نامند وجود داشت. هوش مصنوعی برای خوب. متأسفانه، در پاشنه آن هیجان فوران، ما شروع به مشاهده کردیم هوش مصنوعی برای بد. برای مثال، سیستم‌های مختلف تشخیص چهره مبتنی بر هوش مصنوعی حاوی سوگیری‌های نژادی و سوگیری‌های جنسیتی هستند که من در مورد آن بحث کرده‌ام. پیوند اینجا.

تلاش برای مبارزه با هوش مصنوعی برای بد به طور فعال در حال انجام هستند. علاوه بر پر سر و صدا حقوقی تلاش برای مهار تخلفات، همچنین فشار اساسی به سمت پذیرش اخلاق هوش مصنوعی برای اصلاح شرارت هوش مصنوعی وجود دارد. تصور این است که ما باید اصول کلیدی هوش مصنوعی اخلاقی را برای توسعه و توسعه هوش مصنوعی اتخاذ و تأیید کنیم تا این کار را کاهش دهیم. هوش مصنوعی برای بد و به طور همزمان منادی و ترویج مرجح هوش مصنوعی برای خوب.

پوشش گسترده من در مورد اخلاق هوش مصنوعی و هوش مصنوعی اخلاقی را می توان در این آدرس یافت این لینک در اینجا و این لینک در اینجا، فقط به نام چند.

برای این بحث در اینجا، می‌خواهم جنبه نگران‌کننده‌ای را در مورد هوش مصنوعی مطرح کنم که کسانی که در عرصه اخلاق هوش مصنوعی هستند به درستی ناله می‌کنند و تلاش می‌کنند تا آگاهی مناسب را درباره آن بالا ببرند. نکته نگران کننده و نگران کننده در واقع کاملاً ساده است.

ایناهاش: هوش مصنوعی پتانسیل دنیای واقعی انتشار تعصبات شدید هوش مصنوعی را در مقیاس جهانی هشدار دهنده دارد.

و وقتی می گویم "در مقیاس" این به وضوح به معنای مقیاس عظیم در سراسر جهان است. مقیاس بزرگ. ترازو که از ترازو خارج می شود.

قبل از اینکه بخواهم به این بپردازم که چگونه این مقیاس‌بندی سوگیری‌های شدید هوش مصنوعی انجام می‌شود، بیایید مطمئن شویم که همه ما شباهتی داریم که چگونه هوش مصنوعی می‌تواند سوگیری‌ها و نابرابری‌های ناروا را در خود جای دهد. مجدداً به یاد بیاورید که این یک نوع احساسی نیست. این همه یک کالیبر محاسباتی است.

ممکن است گیج شوید که چگونه هوش مصنوعی می‌تواند همان نوع سوگیری‌ها و نابرابری‌های نامطلوب را که انسان‌ها انجام می‌دهند، آغشته کند. ما تمایل داریم که هوش مصنوعی را کاملاً خنثی، بی‌طرفانه، و صرفاً ماشینی بدانیم که هیچ‌کدام از تأثیرات احساسی و افکار ناپسند انسان‌ها را ندارد. یکی از متداول‌ترین روش‌های قرار گرفتن هوش مصنوعی در تعصبات و نابرابری‌ها هنگام استفاده از یادگیری ماشینی و یادگیری عمیق اتفاق می‌افتد، تا حدی در نتیجه تکیه بر داده‌های جمع‌آوری‌شده درباره نحوه تصمیم‌گیری انسان‌ها.

لحظه ای به من فرصت دهید تا جزئیات بیشتری را ارائه دهم.

ML/DL نوعی تطبیق الگوی محاسباتی است. روش معمول این است که شما داده ها را در مورد یک کار تصمیم گیری جمع آوری می کنید. داده ها را به مدل های کامپیوتری ML/DL وارد می کنید. آن مدل ها به دنبال یافتن الگوهای ریاضی هستند. پس از یافتن چنین الگوهایی، در صورت یافتن، سیستم هوش مصنوعی در هنگام مواجهه با داده های جدید از آن الگوها استفاده خواهد کرد. پس از ارائه داده های جدید، الگوهای مبتنی بر داده های "قدیمی" یا تاریخی برای ارائه یک تصمیم فعلی استفاده می شود.

من فکر می کنم می توانید حدس بزنید که این به کجا می رود. اگر انسان‌هایی که بر اساس تصمیم‌گیری‌های الگو گرفته شده‌اند، سوگیری‌های نامطلوب را در خود جای داده‌اند، احتمال این وجود دارد که داده‌ها این را به روش‌های ظریف اما قابل توجهی منعکس کنند. تطبیق الگوی محاسباتی یادگیری ماشینی یا یادگیری عمیق صرفاً سعی می‌کند تا داده‌ها را به صورت ریاضی تقلید کند. هیچ شباهتی از عقل سلیم یا سایر جنبه های حساس مدل سازی ساخته شده با هوش مصنوعی به خودی خود وجود ندارد.

علاوه بر این، توسعه دهندگان هوش مصنوعی نیز ممکن است متوجه نباشند که چه اتفاقی در حال رخ دادن است. ریاضیات محرمانه در ML/DL ممکن است کشف سوگیری های پنهان در حال حاضر را دشوار کند. شما به حق امیدوارید و انتظار دارید که توسعه‌دهندگان هوش مصنوعی سوگیری‌های بالقوه مدفون را آزمایش کنند، اگرچه این دشوارتر از آن چیزی است که به نظر می‌رسد. این احتمال وجود دارد که حتی با آزمایش نسبتاً گسترده، سوگیری‌هایی همچنان در مدل‌های تطبیق الگوی ML/DL وجود داشته باشد.

می‌توانید تا حدودی از ضرب‌المثل معروف یا بدنام زباله‌های درون زباله‌ها استفاده کنید. مسئله این است که این بیشتر شبیه سوگیری‌هایی است که به‌طور موذیانه به‌عنوان سوگیری‌هایی که در هوش مصنوعی غوطه‌ور می‌شوند، القا می‌شوند. تصمیم‌گیری الگوریتم یا ADM هوش مصنوعی به طور اصولی مملو از نابرابری‌ها می‌شود.

خوب نیست.

این ما را به موضوع تعصبات غرق در هوش مصنوعی در مقیاس می رساند.

ابتدا، بیایید نگاهی بیندازیم که چگونه تعصبات انسانی ممکن است باعث ایجاد نابرابری شود. شرکتی که وام های رهنی می دهد تصمیم می گیرد یک نماینده وام مسکن استخدام کند. این نماینده قرار است درخواست های مصرف کنندگانی را که می خواهند وام مسکن دریافت کنند، بررسی کند. پس از ارزیابی درخواست، نماینده تصمیم می گیرد که وام را اعطا کند یا وام را رد کند. آسان-پیزی.

برای بحث، بیایید تصور کنیم که یک نماینده وام انسانی می تواند 8 وام را در روز تجزیه و تحلیل کند، که در هر بررسی حدود یک ساعت زمان می برد. در یک هفته کاری پنج روزه، نماینده حدود 40 بررسی وام انجام می دهد. به صورت سالانه، نماینده معمولاً حدود 2,000 بررسی وام انجام می دهد، کمی می دهد یا می گیرد.

این شرکت می خواهد حجم بررسی وام های خود را افزایش دهد، بنابراین شرکت 100 نماینده وام اضافی را استخدام می کند. بیایید فرض کنیم که همه آنها تقریباً بهره وری یکسانی دارند و این بدان معناست که ما اکنون می توانیم حدود 200,000 وام در سال (با نرخ 2,000 بررسی وام در سال به ازای هر نماینده) مدیریت کنیم. به نظر می رسد که ما واقعاً روند رسیدگی به درخواست های وام را افزایش داده ایم.

معلوم شد که این شرکت یک سیستم هوش مصنوعی ابداع کرده است که اساساً می‌تواند همان بررسی‌های وام را که عوامل انسانی انجام می‌دهند، انجام دهد. هوش مصنوعی بر روی سرورهای رایانه در فضای ابری اجرا می شود. از طریق زیرساخت ابری، این شرکت می تواند به آسانی قدرت محاسباتی بیشتری را برای پاسخگویی به هر حجمی از بررسی وام که ممکن است مورد نیاز باشد، اضافه کند.

با پیکربندی هوش مصنوعی موجود، آنها می توانند 1,000 بررسی وام در ساعت انجام دهند. این نیز می تواند 24×7 اتفاق بیفتد. هیچ زمان مرخصی برای هوش مصنوعی مورد نیاز نیست. بدون وقفه ناهار هوش مصنوعی به صورت شبانه روزی کار می کند و هیچ ایرادی در مورد کار زیاد ندارد. ما می گوییم که با این سرعت تقریبی، هوش مصنوعی می تواند سالانه نزدیک به 9 میلیون درخواست وام را پردازش کند.

توجه داشته باشید که ما از ۱۰۰ کارگزار انسانی که می‌توانستند ۲۰۰ هزار وام در سال داشته باشند، به تعداد بسیار زیاد ۹ میلیون بررسی در سال از طریق سیستم هوش مصنوعی رسیدیم. ما پردازش درخواست وام خود را به طرز چشمگیری افزایش داده ایم. بدون شک در مورد آن.

خود را برای ضربه ای آماده کنید که شاید باعث شود از روی صندلی بیفتید.

فرض کنید برخی از عوامل انسانی ما تصمیمات وام خود را بر اساس سوگیری های ناخواسته می گیرند. شاید برخی به عوامل نژادی نقش کلیدی در تصمیم گیری وام می دهند. شاید برخی از جنسیت استفاده می کنند. دیگران از سن استفاده می کنند. و غیره.

از 200,000 بررسی سالانه وام، چند مورد زیر نظر نادرست سوگیری ها و نابرابری ها انجام می شود؟ شاید 10 درصد که حدود 20,000 درخواست وام است. بدتر از آن، فرض کنید این 50 درصد درخواست‌های وام است، در این صورت، 100,000 مورد سالانه بسیار نگران‌کننده از تصمیم‌گیری‌های وام اشتباه گرفته شده است.

این بد است. اما ما هنوز یک احتمال ترسناک تر را در نظر نگرفته ایم.

فرض کنید هوش مصنوعی دارای یک سوگیری پنهان است که از عواملی مانند نژاد، جنسیت، سن و مواردی از این دست تشکیل شده است. اگر 10 درصد از تحلیل های سالانه وام مشمول این ناپسندی باشد، 900,000 هزار درخواست وام داریم که به صورت نادرست رسیدگی می شود. این بسیار بیشتر از کاری است که عوامل انسانی احتمالاً می توانند انجام دهند، در درجه اول صرفاً به دلیل جنبه های حجمی. آن 100 نماینده اگر همه به طور کامل یک بررسی ناعادلانه انجام می دادند حداکثر می توانستند این کار را در 200,000 بررسی سالانه وام انجام دهند. هوش مصنوعی می تواند همین کار را در مقیاس بزرگی از 9,000,000 بررسی سالانه انجام دهد.

بله!

این واقعاً تعصب شدید با هوش مصنوعی در مقیاسی فوق العاده است.

هنگامی که تعصبات نامطلوب در یک سیستم هوش مصنوعی گنجانده می شود، همان مقیاس بندی که سودمند به نظر می رسید اکنون بر روی سر قرار می گیرد و به یک نتیجه مقیاس بندی وحشتناک (و نگران کننده) تبدیل می شود. از یک طرف، هوش مصنوعی می تواند به طور سودمندی برای رسیدگی به افراد بیشتری که درخواست وام مسکن دارند، تقویت کند. در ظاهر، این فوق العاده به نظر می رسد هوش مصنوعی برای خوب. ما باید به پشت خود دست بزنیم که احتمالاً شانس دریافت وام های مورد نیاز انسان ها را افزایش می دهیم. در همین حال، اگر هوش مصنوعی تعصب‌هایی را در خود جای داده باشد، مقیاس‌بندی نتیجه بسیار بدی خواهد بود و ما خود را متأسفانه درگیر می‌کنیم. هوش مصنوعی برای بد، در مقیاس واقعاً عظیم.

ضرب المثل شمشیر دو لبه.

هوش مصنوعی می‌تواند دسترسی به تصمیم‌گیری را برای کسانی که به دنبال خدمات و محصولات دلخواه هستند افزایش دهد. دیگر از گلوگاه نیروی کار با محدودیت انسانی خبری نیست. برجسته! لبه دیگر شمشیر این است که اگر هوش مصنوعی دارای بدی هایی مانند نابرابری های پنهان باشد، همان مقیاس گسترده آن رفتار نامطلوب را در مقیاسی غیرقابل تصور منتشر می کند. خشمگین، نادرست، شرم آور، و نمی توانیم اجازه دهیم جامعه در چنین ورطه زشتی بیفتد.

هر کسی که در مورد اینکه چرا باید اهمیت اخلاق هوش مصنوعی را کنار بگذاریم، متحیر شده است، باید اکنون متوجه شود که پدیده مقیاس‌پذیری هوش مصنوعی دلیل مهمی برای دنبال کردن هوش مصنوعی اخلاقی است. بیایید لحظه ای را به بررسی مختصر برخی از اصول کلیدی هوش مصنوعی اخلاقی بپردازیم تا نشان دهیم که چه چیزی باید برای هر کسی که در حال ساخت، ساخت و یا استفاده از هوش مصنوعی است، یک تمرکز حیاتی باشد.

به عنوان مثال، همانطور که توسط واتیکان در فراخوان رم برای اخلاق هوش مصنوعی و همانطور که به طور عمیق به آن پرداخته ام پیوند اینجا، این شش اصل اصلی اخلاق هوش مصنوعی شناسایی شده آنها است:

  • شفافیت: در اصل، سیستم های هوش مصنوعی باید قابل توضیح باشند
  • نقص: نیازهای همه انسانها باید مورد توجه قرار گیرد تا همه بتوانند از آن بهره ببرند و بهترین شرایط ممکن برای ابراز وجود و پیشرفت به همه افراد ارائه شود.
  • مسئوليت: کسانی که استفاده از هوش مصنوعی را طراحی و اجرا می کنند باید با مسئولیت و شفافیت پیش بروند
  • بی طرفی: از ایجاد و یا عمل بر اساس تعصب، در نتیجه حفظ انصاف و کرامت انسانی
  • قابلیت اطمینان: سیستم های هوش مصنوعی باید بتوانند به طور قابل اعتماد کار کنند
  • امنیت و حریم خصوصی: سیستم های هوش مصنوعی باید ایمن کار کنند و به حریم خصوصی کاربران احترام بگذارند.

همانطور که توسط وزارت دفاع ایالات متحده (DoD) در آنها بیان شده است اصول اخلاقی برای استفاده از هوش مصنوعی و همانطور که به طور عمیق به آن پرداخته ام پیوند اینجا، این شش اصل اصلی اخلاق هوش مصنوعی آنهاست:

  • مسئول: پرسنل وزارت دفاع سطوح مناسبی از قضاوت و مراقبت را اعمال خواهند کرد و در عین حال مسئولیت توسعه، استقرار و استفاده از قابلیت‌های هوش مصنوعی را بر عهده خواهند داشت.
  • منصفانه: این وزارتخانه اقدامات عمدی را برای به حداقل رساندن سوگیری ناخواسته در قابلیت‌های هوش مصنوعی انجام خواهد داد.
  • قابل ردیابی: قابلیت‌های هوش مصنوعی این وزارتخانه به گونه‌ای توسعه و مستقر خواهد شد که پرسنل مربوطه درک مناسبی از فناوری، فرآیندهای توسعه، و روش‌های عملیاتی قابل اجرا برای قابلیت‌های هوش مصنوعی، از جمله با روش‌شناسی شفاف و قابل ممیزی، منابع داده، و روش‌های طراحی و اسناد داشته باشند.
  • قابل اعتماد: قابلیت‌های هوش مصنوعی این وزارتخانه کاربردهای مشخص و مشخصی خواهند داشت، و ایمنی، امنیت و اثربخشی چنین قابلیت‌هایی مشمول آزمایش و اطمینان در آن کاربردهای تعریف‌شده در کل چرخه عمر آن‌ها خواهد بود.
  • قابل اداره: این وزارتخانه قابلیت‌های هوش مصنوعی را طراحی و مهندسی می‌کند تا عملکردهای مورد نظر خود را انجام دهد، در حالی که توانایی شناسایی و اجتناب از پیامدهای ناخواسته را دارد، و توانایی جدا کردن یا غیرفعال کردن سیستم‌های مستقری که رفتار ناخواسته را نشان می‌دهند.

من همچنین در مورد تجزیه و تحلیل‌های جمعی مختلف از اصول اخلاق هوش مصنوعی بحث کرده‌ام، از جمله پوشش مجموعه‌ای ابداع شده توسط محققان که ماهیت بسیاری از اصول اخلاقی هوش مصنوعی ملی و بین‌المللی را در مقاله‌ای تحت عنوان «چشم‌انداز جهانی دستورالعمل‌های اخلاق هوش مصنوعی» (منتشر شده) بررسی و فشرده کرده است. که در طبیعت) و پوشش من در آن بررسی می شود پیوند اینجا، که منجر به این لیست کلیدی شد:

  • شفافیت
  • عدالت و انصاف
  • عدم سوء استفاده
  • مسئوليت
  • حریم خصوصی
  • سود رسانی
  • آزادی و خودمختاری
  • اعتماد
  • پایداری
  • کرامت
  • اتحاد

همانطور که ممکن است مستقیماً حدس بزنید، تلاش برای مشخص کردن ویژگی‌های اساسی این اصول می‌تواند بسیار سخت باشد. حتی بیشتر از آن، تلاش برای تبدیل این اصول گسترده به چیزی کاملاً ملموس و با جزئیات کافی برای استفاده در هنگام ساخت سیستم‌های هوش مصنوعی نیز سخت است. به طور کلی می توان در مورد اینکه اصول اخلاقی هوش مصنوعی چیست و چگونه باید به طور کلی آنها را رعایت کرد، دست تکان داد، در حالی که این وضعیت بسیار پیچیده تر است که کدگذاری هوش مصنوعی باید لاستیک واقعی باشد که با جاده مطابقت دارد.

اصول اخلاقی هوش مصنوعی باید توسط توسعه دهندگان هوش مصنوعی، همراه با آنهایی که تلاش های توسعه هوش مصنوعی را مدیریت می کنند، و حتی آنهایی که در نهایت سیستم های هوش مصنوعی را انجام می دهند، مورد استفاده قرار گیرد. همه ذینفعان در طول چرخه عمر توسعه و استفاده هوش مصنوعی در محدوده رعایت هنجارهای تثبیت شده هوش مصنوعی اخلاقی در نظر گرفته می شوند. این نکته مهمی است زیرا فرض معمول این است که «فقط کدنویس‌ها» یا کسانی که هوش مصنوعی را برنامه‌ریزی می‌کنند، منوط به رعایت مفاهیم اخلاقی هوش مصنوعی هستند. لطفاً توجه داشته باشید که برای طراحی و بکارگیری هوش مصنوعی به یک دهکده نیاز است. برای اینکه کل دهکده باید در مورد اخلاق هوش مصنوعی پایبند باشند.

چگونه مقیاس‌گذاری تعصب‌های AI-Steeped کار می‌کند

اکنون که من وارد جدولی شده‌ام که هوش مصنوعی می‌تواند دارای سوگیری باشد، ما آماده‌ایم تا برخی از دلایلی را بررسی کنیم که چرا مقیاس‌گذاری هوش مصنوعی تا این حد مزاحم است.

این فهرست اصلی از ده دلیل اساسی را در نظر بگیرید:

  1. به راحتی تکرار می شود
  2. حداقل هزینه برای مقیاس
  3. به طرز نفرت انگیزی سازگار است
  4. عدم تأمل در خود
  5. اطاعت کورکورانه
  6. دستش را نوک نمی دهد
  7. گیرنده بی خبر
  8. تمایل به تحریک تحریک ندارد
  9. هاله کاذب انصاف
  10. رد کردنش سخته

من به اختصار هر یک از آن نکات مهم را بررسی می کنم.

وقتی سعی می‌کنید با نیروی انسانی افزایش پیدا کنید، این احتمال وجود دارد که انجام این کار بسیار پیچیده باشد. شما باید افراد را پیدا کنید و استخدام کنید. شما باید آنها را برای انجام کار آموزش دهید. شما باید به آنها بپردازید و خواسته ها و نیازهای انسان را در نظر بگیرید. این را با یک سیستم هوش مصنوعی مقایسه کنید. شما آن را توسعه می دهید و از آن استفاده می کنید. به غیر از مقداری نگهداری مداوم از هوش مصنوعی، می‌توانید عقب بنشینید و اجازه دهید بی‌پایان پردازش شود.

این بدان معنی است که هوش مصنوعی به راحتی تکرار می شود. شما می توانید قدرت محاسباتی بیشتری را در صورت نیاز به کار و حجم اضافه کنید (شما استخدام نمی کنید یا اخراج نمی کنید). استفاده جهانی با فشار یک دکمه انجام می شود و با در دسترس بودن اینترنت در سراسر جهان به دست می آید. افزایش مقیاس در مقایسه با انجام کار مشابه با نیروی انسانی حداقل هزینه دارد.

کار انسانی به طور مشهور ناسازگار است. وقتی تیم های بزرگی دارید، یک جعبه شکلات واقعی دارید که هرگز نمی دانید چه چیزی ممکن است در دستانتان باشد. سیستم هوش مصنوعی احتمالاً بسیار سازگار است. فعالیت‌های یکسانی را بارها و بارها تکرار می‌کند و هر بار اساساً همان فعالیت قبلی است.

به طور معمول، ما از ثبات هوش مصنوعی لذت می بریم. اگر انسان ها مستعد سوگیری باشند، ما همیشه بخشی از کار انسانی خود را در حال بیراهه خواهیم داشت. هوش مصنوعی، اگر صرفاً در ساخت و ساز و تلاش‌های محاسباتی خود بی‌طرفانه باشد، به مراتب سازگارتر خواهد بود. با این حال، مشکل این است که اگر هوش مصنوعی دارای تعصبات پنهان باشد، ثبات در حال حاضر به طرز دردناکی نفرت انگیز است. احتمال این است که رفتار مغرضانه به طور مداوم، بارها و بارها انجام شود.

امیدواریم انسان‌ها تا حدودی تصوری از خود انعکاس داشته باشند و شاید تصمیمات مغرضانه‌ای بگیرند. من نمی گویم همه این کار را می کنند. من همچنین نمی گویم کسانی که خود را می گیرند، لزوماً اشتباهات خود را اصلاح می کنند. در هر صورت، حداقل برخی از انسان ها گاهی اوقات خود را اصلاح می کنند.

بعید است که هوش مصنوعی هر نوع خود بازتابی محاسباتی داشته باشد. این بدان معناست که هوش مصنوعی به انجام کاری که انجام می دهد ادامه می دهد. به نظر می رسد که احتمال اینکه هوش مصنوعی تشخیص دهد که در حال نقض حقوق صاحبان سهام است، صفر است. همانطور که گفته شد، من برخی از تلاش‌ها را برای مقابله با این موضوع شرح داده‌ام، مانند ساخت مؤلفه‌های اخلاق هوش مصنوعی در هوش مصنوعی (نگاه کنید به پیوند اینجا) و ابداع هوش مصنوعی که سایر هوش مصنوعی را برای تشخیص فعالیت های غیراخلاقی هوش مصنوعی نظارت می کند (نگاه کنید به پیوند اینجا).

هوش مصنوعی بدون هیچ نوع بازتابی از خود، احتمالاً اساساً از هر کاری که به آن دستور داده شده است، اطاعت کورکورانه داشته باشد. ممکن است انسان ها چندان مطیع نباشند. این احتمال وجود دارد که برخی از انسان‌ها که در حال انجام یک کار هستند سؤال کنند که آیا ممکن است به قلمرو بی‌عدالتی هدایت شوند یا خیر. آنها تمایل دارند دستورات غیراخلاقی را رد کنند یا شاید به مسیر افشاگر بروند (به پوشش من در این لینک در اینجا). انتظار نداشته باشید که هوش مصنوعی امروزی به نوعی برنامه نویسی خود را زیر سوال ببرد.

سپس به سراغ کسانی می رویم که از هوش مصنوعی استفاده می کنند. اگر به دنبال وام مسکن بودید و با یک انسان صحبت می‌کردید، ممکن است هوشیار باشید که آیا آن انسان به شما تکان می‌دهد یا خیر. هنگام استفاده از یک سیستم هوش مصنوعی، به نظر می رسد اکثر مردم کمتر مشکوک هستند. آن‌ها اغلب تصور می‌کنند که هوش مصنوعی منصفانه است و بنابراین به این سرعت عصبانی نمی‌شوند. به نظر می رسد هوش مصنوعی مردم را به حالت خلسه "این فقط یک ماشین است" می کشاند. علاوه بر این، تلاش و اعتراض به هوش مصنوعی می تواند سخت باشد. در مقابل، اعتراض به نحوه رفتار یک عامل انسانی با شما بسیار ساده‌تر است و عموماً پذیرفته‌شده‌تر است و به‌عنوان امکان پذیر فرض می‌شود.

در مجموع، هوش مصنوعی غرق در تعصبات، نسبت به انسان‌های غرق در تعصب، پیشی ناپسندی دارد، یعنی از این نظر که هوش مصنوعی می‌تواند این تعصبات را در مقیاسی عظیم به کار ببندد، بدون اینکه به راحتی گرفتار شوید یا مصرف‌کننده داشته باشید. متوجه شوید که چه چیزی در حال وقوع است

در این مقطع از این بحث، شرط می بندم که شما خواهان نمونه های دیگری هستید که ممکن است معمای تعصبات شدید هوش مصنوعی را در مقیاس به نمایش بگذارد.

خوشحالم که پرسیدی

مجموعه‌ای از نمونه‌های خاص و مطمئناً محبوب وجود دارد که به دلم نشسته است. ببینید، به عنوان یک متخصص در زمینه هوش مصنوعی از جمله پیامدهای اخلاقی و قانونی، اغلب از من خواسته می‌شود که نمونه‌های واقع‌بینانه‌ای را که معضلات اخلاقی هوش مصنوعی را نشان می‌دهند شناسایی کنم تا بتوان ماهیت تا حدودی نظری موضوع را راحت‌تر درک کرد. یکی از جذاب‌ترین زمینه‌هایی که این معضل اخلاقی هوش مصنوعی را به وضوح نشان می‌دهد، ظهور خودروهای خودران واقعی مبتنی بر هوش مصنوعی است. این به عنوان یک مورد استفاده مفید یا نمونه ای برای بحث و گفتگوی کافی در مورد موضوع خواهد بود.

پس در اینجا یک سوال قابل توجه وجود دارد که قابل تامل است: آیا ظهور خودروهای خودران واقعی مبتنی بر هوش مصنوعی چیزی را در مورد تعصبات شدید هوش مصنوعی در مقیاس روشن می کند، و اگر چنین است، این چه چیزی را به نمایش می گذارد؟

یک لحظه به من اجازه دهید تا پرسش را باز کنم.

اول، توجه داشته باشید که هیچ راننده انسانی در یک ماشین خودران واقعی دخیل نیست. به خاطر داشته باشید که خودروهای خودران واقعی از طریق سیستم رانندگی هوش مصنوعی هدایت می شوند. نه نیازی به راننده انسان پشت فرمان وجود دارد و نه پیش بینی ای برای رانندگی وسیله نقلیه توسط انسان وجود دارد. برای پوشش گسترده و مداوم من در مورد وسایل نقلیه خودران (AVs) و به خصوص خودروهای خودران، نگاه کنید به پیوند اینجا.

مایلم بیشتر توضیح دهم که منظور از خودروهای خودران واقعی چیست.

درک سطح اتومبیل های خودران

به عنوان یک توضیح ، اتومبیل های واقعی خودران از جمله مواردی هستند که هوش مصنوعی اتومبیل را کاملاً خود به خود هدایت می کند و هیچ گونه کمک انسانی در حین کار رانندگی وجود ندارد.

این وسایل نقلیه بدون راننده سطح 4 و سطح 5 در نظر گرفته می شوند (توضیحات من را در اینجا ببینید این لینک در اینجا) ، در حالی که خودرویی که نیاز به یک راننده انسانی برای مشارکت در رانندگی دارد معمولاً در سطح 2 یا سطح 3 در نظر گرفته می شود. افزودنی های خودکار که به عنوان ADAS (سیستم های کمک راننده پیشرفته) شناخته می شوند.

در سطح 5 هنوز یک اتومبیل واقعی رانندگی وجود ندارد ، که ما حتی نمی دانیم آیا این امر امکان پذیر خواهد بود یا اینکه رسیدن به آنجا چقدر طول می کشد.

در همین حال ، تلاش های سطح 4 به تدریج در تلاشند تا با انجام آزمایشات عمومی بسیار باریک و انتخابی در جاده ها ، کمی به سمت خود جلب کنند ، هرچند در مورد اینکه آیا این آزمایش به خودی خود مجاز است یا خیر ، اختلاف نظر وجود دارد (همه ما در یک آزمایش خوکچه هندی زنده یا مرگ هستیم) برخی از آنها ادعا می كنند كه در بزرگراهها و گذرگاههای ما در حال انجام است این لینک در اینجا).

از آنجا که اتومبیل های نیمه خودمختار به یک راننده انسانی احتیاج دارند ، تصویب آن دسته از اتومبیل ها تفاوت چندانی با رانندگی وسایل نقلیه معمولی نخواهد داشت ، بنابراین به تنهایی چیز جدیدی برای پوشش آنها در این موضوع وجود ندارد (هر چند ، همانطور که خواهید دید در یک لحظه ، نکات بعدی که بطور کلی اعمال می شود).

در مورد اتومبیل های نیمه خودمختار ، مهم است که در مورد جنبه نگران کننده ای که اخیراً بوجود آمده است ، هشدار داده شود ، یعنی این که با وجود آن رانندگان انسانی که با ارسال فیلم هایی از خودشان ، در حال خوابیدن در چرخ یک اتومبیل سطح 2 یا سطح 3 هستند. ، همه ما باید از اینكه گمان نرود راننده بتواند هنگام رانندگی یك اتومبیل نیمه خودمختار ، توجه خود را از وظیفه رانندگی دور كند ، خودداری كنیم.

شما مسئولیت اقدامات رانندگی وسیله نقلیه ، صرفنظر از میزان اتوماسیون در سطح 2 یا سطح 3 ، مسئولیت مسئولیت مسئولیت شما می باشد.

اتومبیل های خودران و تعصبات هوش مصنوعی در مقیاس

برای وسایل نقلیه خود رانندگی واقعی سطح 4 و سطح 5 ، یک راننده انسانی درگیر در وظیفه رانندگی نخواهد بود.

همه سرنشینان مسافر خواهند بود.

هوش مصنوعی رانندگی را انجام می دهد.

یک جنبه برای بحث فوری این واقعیت را در بر دارد که هوش مصنوعی در سیستم های رانندگی هوش مصنوعی امروزی حساس نیست. به عبارت دیگر ، هوش مصنوعی در مجموع مجموعه ای از برنامه نویسی و الگوریتم های مبتنی بر رایانه است و مطمئناً قادر به استدلال به همان روشی نیست که انسان می تواند.

چرا این تاکید اضافی در مورد هوش مصنوعی نیست؟

از آنجا که می خواهم تأکید کنم هنگام بحث در مورد نقش سیستم رانندگی AI ، من خصوصیات انسانی را به AI نسبت نمی دهم. لطفاً توجه داشته باشید که این روزها تمایل مستمر و خطرناکی برای انسان سازی AI وجود دارد. در حقیقت ، افراد حساسیتی شبیه انسان به هوش مصنوعی امروزی دارند ، علی رغم این واقعیت انکارناپذیر و غیرقابل انکار که هنوز چنین هوش مصنوعی وجود ندارد.

با این توضیحات ، می توانید تصور کنید که سیستم رانندگی هوش مصنوعی بطور طبیعی از جنبه های رانندگی "آگاهی" نداشته باشد. رانندگی و همه آنچه که شامل می شود باید به عنوان بخشی از سخت افزار و نرم افزار اتومبیل خودران برنامه ریزی شوند.

بیایید به جنبه های بی شماری بپردازیم که در این موضوع بازی می شوند.

اول، مهم است که بدانیم همه خودروهای خودران با هوش مصنوعی یکسان نیستند. هر خودروساز و شرکت فناوری خودران رویکرد خود را برای ابداع خودروهای خودران در پیش گرفته است. به این ترتیب، اظهار نظر گسترده در مورد اینکه سیستم های رانندگی هوش مصنوعی چه کاری انجام خواهند داد یا انجام نمی دهند، دشوار است.

علاوه بر این ، هرگاه بیان شود که سیستم رانندگی هوش مصنوعی کار خاصی انجام نمی دهد ، بعداً توسعه دهندگانی که در واقع کامپیوتر را برای انجام این کار برنامه ریزی می کنند ، می توانند از این امر پیشی بگیرند. گام به گام ، سیستم های رانندگی هوش مصنوعی به تدریج در حال بهبود و گسترش هستند. امروزه محدودیت موجود ممکن است دیگر در نسخه یا نسخه بعدی سیستم وجود نداشته باشد.

من معتقدم که هشدارهای کافی برای تأکید بر آنچه که من در مورد آن صحبت می کنم فراهم می کند.

ما اکنون آماده هستیم تا به بررسی خودروهای خودران و امکانات هوش مصنوعی اخلاقی بپردازیم که مستلزم کاوش تعصبات شدید هوش مصنوعی است که در مقیاس بزرگ منتشر شده است.

بیایید از یک مثال ساده استفاده کنیم. یک خودروی خودران مبتنی بر هوش مصنوعی در خیابان های محله شما در حال حرکت است و به نظر می رسد با خیال راحت رانندگی می کند. در ابتدا، توجه ویژه ای به هر بار که توانستید نگاهی اجمالی به خودروی خودران داشته باشید، داشتید. این وسیله نقلیه خودران با قفسه سنسورهای الکترونیکی خود که شامل دوربین‌های فیلمبرداری، واحدهای رادار، دستگاه‌های LIDAR و مواردی از این قبیل است، متمایز بود. پس از چندین هفته از گشت و گذار خودروی خودران در جامعه شما، اکنون به سختی متوجه آن می شوید. تا آنجا که به شما مربوط می شود، این فقط یک ماشین دیگر در جاده های عمومی شلوغ است.

برای اینکه فکر نکنید آشنایی با دیدن ماشین‌های خودران غیرممکن یا غیرقابل قبول است، من بارها در مورد اینکه چگونه مناطقی که در محدوده آزمایش‌های ماشین‌های خودران هستند به تدریج به دیدن وسایل نقلیه خوش‌نظم عادت کرده‌اند، نوشته‌ام. تحلیل من را در این لینک در اینجا. بسیاری از محلی‌ها در نهایت از حالت خمیازه‌ای بی‌حوصله به حالت خمیازه‌های بی‌حوصلگی روی آوردند تا شاهد ماشین‌های پر پیچ و خم خودران باشند.

احتمالاً دلیل اصلی در حال حاضر که آنها ممکن است متوجه خودروهای خودران شوند، عامل تحریک و عصبانیت است. سیستم‌های رانندگی با هوش مصنوعی مطمئن می‌شوند که خودروها از تمام محدودیت‌های سرعت و قوانین جاده پیروی می‌کنند. برای رانندگان انسانی گیج‌کننده در ماشین‌های سنتی خود که توسط انسان هدایت می‌شوند، در مواقعی که پشت ماشین‌های خودران مبتنی بر هوش مصنوعی کاملاً قانون‌مدار گیر می‌کنید، عصبانی می‌شوید.

این چیزی است که ممکن است همه ما به درستی یا نادرست به آن عادت کنیم.

بازگشت به داستان ما

به نظر می رسد که دو نگرانی نامطلوب در مورد خودروهای خودران مبتنی بر هوش مصنوعی در غیر این صورت بی ضرر و به طور کلی مورد استقبال قرار می گیرد، به ویژه:

آ. جایی که هوش مصنوعی در حال پرسه زدن خودروهای خودران برای سوار شدن است، به عنوان یک نگرانی جدی مطرح بود.

ب نحوه برخورد هوش مصنوعی با عابران پیاده که حق تقدم ندارند، به عنوان یک موضوع مبرم مطرح شد.

در ابتدا، هوش مصنوعی ماشین های خودران را در سراسر شهر پرسه می زد. هرکسی که می خواست سوار ماشین خودران شود، اساساً شانس یکسانی داشت. به تدریج، هوش مصنوعی شروع به پرسه زدن خودروهای خودران تنها در یک بخش از شهر کرد. این بخش پولسازتر بود و سیستم هوش مصنوعی برنامه ریزی شده بود تا سعی کند درآمد را به عنوان بخشی از استفاده در جامعه به حداکثر برساند.

اعضای جامعه در بخش های فقیر شهر کمتر احتمال داشت که بتوانند از یک ماشین خودران سوار شوند. این به این دلیل بود که خودروهای خودران دورتر بودند و در بخش درآمد بالاتر منطقه در حال پرسه زدن بودند. هنگامی که درخواستی از یک نقطه دور از شهر وارد می شد، هر درخواستی از یک مکان نزدیکتر که احتمالاً در قسمت "محترم" شهر بود اولویت بیشتری دارد. در نهایت، دسترسی به یک ماشین خودران در هر مکانی غیر از بخش ثروتمندتر شهر تقریبا غیرممکن بود، برای کسانی که در مناطقی که اکنون کمبود منابع زندگی می کنند، بسیار غیرممکن بود.

شما می توانید ادعا کنید که هوش مصنوعی تقریباً بر نوعی تبعیض پروکسی (که اغلب به عنوان تبعیض غیرمستقیم نیز از آن یاد می شود) فرود آمده است. هوش مصنوعی برای اجتناب از آن محله های فقیرتر برنامه ریزی نشده بود. در عوض، "یاد گرفت" این کار را از طریق استفاده از ML/DL انجام دهد.

موضوع این است که رانندگان انسان سواری به انجام همین کار معروف بودند، البته نه لزوما صرفاً به دلیل زاویه پول‌سازی. برخی از رانندگان انسان‌های سهیم بودند که در مورد سوار کردن سواران در بخش‌های خاصی از شهر تعصب ناخوشایندی داشتند. این یک پدیده تا حدودی شناخته شده بود و شهر یک رویکرد نظارتی برای دستگیری رانندگان انسانی در حال انجام این کار ایجاد کرده بود. رانندگان انسانی ممکن است به دلیل انجام شیوه های انتخاب نامطلوب دچار مشکل شوند.

فرض بر این بود که هوش مصنوعی هرگز در همان نوع ماسه روان نمی افتد. هیچ نظارت تخصصی برای پیگیری مسیر حرکت خودروهای خودران مبتنی بر هوش مصنوعی تنظیم نشده بود. تنها زمانی که اعضای جامعه شروع به شکایت کردند، رهبران شهر متوجه شدند که چه اتفاقی در حال رخ دادن است. برای اطلاعات بیشتر در مورد این نوع مسائل در سطح شهر که قرار است وسایل نقلیه خودران و خودروهای خودران ارائه کنند، به پوشش من در این لینک در اینجا و مطالعه ای را که به رهبری هاروارد انجام شده است را توصیف می کند که من در این موضوع با هم نویسندگی کرده ام.

این مثال از جنبه‌های رومینگ خودروهای خودران مبتنی بر هوش مصنوعی، نشانه‌های قبلی را نشان می‌دهد که ممکن است موقعیت‌هایی وجود داشته باشد که انسان‌ها را با سوگیری‌های نامطلوب مواجه کند، که کنترل‌هایی برای آن‌ها اعمال می‌شود، و اینکه هوش مصنوعی جایگزین آن رانندگان انسانی رها شده است. رایگان. متأسفانه، هوش مصنوعی می تواند به تدریج در تعصبات مشابه فرو رود و این کار را بدون وجود نرده های محافظ کافی انجام دهد.

این همچنین تعصبات شدید هوش مصنوعی را در مسئله مقیاس نشان می دهد.

در مورد رانندگان انسانی، ممکن است چند نفر در اینجا یا آنجا داشته باشیم که نوعی بی عدالتی را اعمال می کنند. برای سیستم رانندگی هوش مصنوعی، معمولاً این هوش مصنوعی یکپارچه برای کل ناوگان خودروهای خودران است. بنابراین، ما ممکن است با پنجاه ماشین خودران در شهر (همه با کد هوش مصنوعی یکسان) شروع کنیم و به تدریج به 500 خودروی خودران (همه با کد هوش مصنوعی یکسان) افزایش پیدا کرده باشیم. از آنجایی که تمام آن پانصد خودروی خودران توسط هوش مصنوعی یکسانی اداره می‌شوند، به همین ترتیب همگی در معرض تعصبات و نابرابری‌های ناشی از یکسانی هستند که در هوش مصنوعی تعبیه شده است.

جرم گیری از این نظر به ما صدمه می زند.

مثال دوم شامل تشخیص هوش مصنوعی برای توقف در انتظار عابران پیاده است که حق تقدم عبور از خیابان را ندارند.

شما بدون شک در حال رانندگی بوده اید و با عابران پیاده ای روبرو شده اید که منتظر عبور از خیابان بودند اما حق تقدم برای این کار را نداشتند. این به این معنی بود که شما در مورد توقف و اجازه عبور آنها اختیار داشتید. شما می توانید بدون اجازه عبور آنها ادامه دهید و همچنان کاملاً مطابق قوانین رانندگی قانونی این کار باشید.

مطالعات در مورد نحوه تصمیم گیری رانندگان انسانی برای توقف یا عدم توقف برای چنین عابران پیاده نشان می دهد که گاهی اوقات رانندگان انسانی بر اساس تعصبات ناخواسته این انتخاب را انجام می دهند. یک راننده انسانی ممکن است به عابر پیاده نگاه کند و تصمیم بگیرد که متوقف نشود، حتی اگر عابر پیاده ظاهر متفاوتی داشت، مثلاً بر اساس نژاد یا جنسیت. من این را در پیوند اینجا.

تصور کنید که خودروهای خودران مبتنی بر هوش مصنوعی به گونه‌ای برنامه‌ریزی شده‌اند که با این سؤال که آیا توقف یا توقف نکردن عابران پیاده‌ای که حق تقدم ندارند، مقابله کنند. در اینجا نحوه برنامه ریزی توسعه دهندگان هوش مصنوعی برای این کار آمده است. آنها داده ها را از دوربین های فیلمبرداری شهر که در سراسر شهر نصب شده اند جمع آوری کردند. داده‌ها رانندگان انسانی را نشان می‌دهند که برای عابران پیاده که حق تقدم ندارند و رانندگان انسانی که توقف نمی‌کنند، توقف می‌کنند. همه در یک مجموعه داده بزرگ جمع آوری شده است.

با استفاده از یادگیری ماشینی و یادگیری عمیق، داده ها به صورت محاسباتی مدل می شوند. سپس سیستم رانندگی هوش مصنوعی از این مدل برای تصمیم گیری در مورد توقف یا عدم توقف استفاده می کند. به طور کلی، ایده این است که از هر چیزی که عرف محلی تشکیل شده باشد، هوش مصنوعی به این صورت است که ماشین خودران را هدایت می کند.

در کمال تعجب رهبران شهر و ساکنان، هوش مصنوعی ظاهراً بر اساس ظاهر عابر پیاده، از جمله نژاد و جنسیت، توقف یا توقف را انتخاب کرد. حسگرهای خودروی خودران عابر پیاده منتظر را اسکن می‌کنند، این داده‌ها را به مدل ML/DL وارد می‌کنند و مدل به هوش مصنوعی می‌فرستد که آیا توقف کند یا ادامه دهد. متأسفانه، شهر قبلاً تعصبات زیادی برای راننده انسانی در این زمینه داشت و هوش مصنوعی اکنون همان را تقلید می کرد.

این مثال نشان می دهد که یک سیستم هوش مصنوعی ممکن است صرفاً تعصبات ناخواسته از قبل موجود انسان ها را تکرار کند. علاوه بر این، این کار را در مقیاس انجام می دهد. به هر رانندگان انسانی ممکن است گاهی آموزش داده شده باشد که این نوع انتخاب نامطلوب را انجام دهد یا شاید شخصاً برای انجام این کار انتخاب شده باشد، اما این احتمال وجود دارد که اکثر رانندگان انسانی احتمالاً این کار را به صورت انبوه انجام نمی دهند.

در مقابل، سیستم رانندگی هوش مصنوعی که برای راندن خودروهای خودران استفاده می‌شود، احتمالاً به‌طور منفورانه و با اطمینان، سوگیری ناشی از آن را انجام می‌دهد.

نتیجه

راه‌های زیادی برای تلاش و اجتناب از ابداع هوش مصنوعی وجود دارد که دارای سوگیری‌های نامطلوب است یا به مرور زمان سوگیری‌ها را جمع‌آوری می‌کند. تا آنجا که ممکن است، ایده این است که قبل از اینکه به دنده های بالا بروید و برای مقیاس بندی بالا بروید، مشکلات را حل کنید. امیدوارم تعصبات از در خارج نشوند.

فرض کنید که به هر طریقی سوگیری در هوش مصنوعی ایجاد می شود. هنگامی که با هوش مصنوعی در مقیاس وسیعی به کار گرفته می‌شوید، نمی‌توانید فقط یکی از آن مفاهیمی که معمولاً از سوی متخصصان فناوری "آتش و فراموش کردن" می‌گویند را انجام دهید. شما باید با جدیت تمام کارهایی را که هوش مصنوعی انجام می دهد حفظ کنید و به دنبال کشف هرگونه سوگیری ناخواسته ای باشید که باید اصلاح شود.

همانطور که قبلاً اشاره شد، یک رویکرد شامل اطمینان از آگاهی توسعه دهندگان هوش مصنوعی از اخلاق هوش مصنوعی است و بنابراین آنها را تشویق می کند تا هوش مصنوعی را برای جلوگیری از این مسائل برنامه ریزی کنند. راه دیگر شامل داشتن خود نظارت بر هوش مصنوعی برای رفتارهای غیراخلاقی و/یا داشتن قطعه دیگری از هوش مصنوعی است که سایر سیستم های هوش مصنوعی را برای رفتارهای بالقوه غیراخلاقی نظارت می کند. من راه حل های بالقوه متعدد دیگری را در نوشته هایم پوشش داده ام.

یک فکر نهایی فعلا پس از آغاز این بحث با نقل قولی از افلاطون، شاید مناسب باشد که این گفتمان را با سخنی زیرکانه دیگر از افلاطون ببندیم.

افلاطون اظهار داشت که تکرار یک چیز خوب ضرری ندارد.

سهولت در مقیاس‌پذیری با هوش مصنوعی مطمئناً وسیله‌ای مناسب برای دستیابی به چنین آرزوی خوش‌بینی است، زمانی که هوش مصنوعی از هوش مصنوعی برای خوب تنوع. ما از تکرار یک چیز خوب لذت می بریم. وقتی هوش مصنوعی است هوش مصنوعی برای بد و مملو از تعصبات و نابرابری های نامناسب، ممکن است به اظهارات افلاطون تکیه کنیم و بگوییم که تکرار یک چیز بد ضرر فراوانی دارد.

بیایید با دقت به سخنان حکیمانه افلاطون گوش دهیم و هوش مصنوعی خود را بر اساس آن طراحی کنیم.

منبع: https://www.forbes.com/sites/lanceeliot/2022/07/13/ai-ethics-ringing-alarm-bells-about-the-looming-specter-of-ai-biases-at-massive- در مقیاس جهانی-به ویژه-سوخت-ازطریق-سیستم-های-کاملاً-خود-مختار/