اخلاق هوش مصنوعی مکاشفه تکان دهنده مبنی بر اینکه آموزش هوش مصنوعی برای سمی یا مغرضانه بودن ممکن است مفید باشد، از جمله برای آن دسته از خودروهای خودران خودران

این یک خط قدیمی است که مطمئنم قبلاً شنیده اید.

برای دانستن یکی لازم است.

ممکن است متوجه نشوید که این عبارتی است که می توان آن را در اوایل دهه 1900 ردیابی کرد و معمولاً در هنگام اشاره به افراد خاطی از آن استفاده می شود (تغییرهای دیگر این عبارت فراتر از آن به دهه 1600 بازمی گردد). مثالی از نحوه استفاده از این گفته مستلزم این مفهوم است که اگر می‌خواهید یک دزد را بگیرید، باید از دزد برای این کار استفاده کنید. این بیانگر این ادعاست که برای شناختن یکی لازم است. بسیاری از فیلم‌ها و برنامه‌های تلویزیونی از این خرد حکیمانه استفاده کرده‌اند، و اغلب نشان می‌دهند که تنها وسیله عملی برای دستگیری یک کلاهبردار، استخدام یک کلاهبردار به همان اندازه فاسد برای تعقیب فرد خاطی است.

با تغییر دنده، برخی ممکن است از همین منطق استفاده کنند تا استدلال کنند که یک راه مناسب برای تشخیص اینکه آیا کسی تجسم تعصبات ناروا و باورهای تبعیض آمیز است یا نه، یافتن کسی است که قبلاً چنین تمایلاتی را داشته باشد. احتمالاً فردی که قبلاً مملو از تعصبات است، می‌تواند راحت‌تر احساس کند که این انسان دیگر نیز تا لبه پر از سمیت است. باز هم، لازم است فرد بداند که یکی از مانتراهای اعلام شده است.

واکنش اولیه شما به احتمال استفاده از یک فرد مغرض برای شناسایی یک فرد مغرض دیگر ممکن است نوعی بدبینی و ناباوری باشد. آیا نمی‌توانیم بفهمیم که آیا کسی صرفاً با بررسی آن‌ها تعصبات نامطلوب دارد و مجبور نیست به یافتن شخص دیگری با طبیعت مشابه متوسل شود؟ عجیب به نظر می رسد که عمداً به دنبال کشف فردی مغرض باشیم تا دیگرانی را که از نظر سمی نیز سوگیر هستند، کشف کنیم.

حدس می‌زنم تا حدی بستگی به این دارد که آیا شما مایل به پذیرش مفروضات احتمالی هستید که لازم است شخص یکی را بشناسد. توجه داشته باشید که این نشان نمی دهد که تنها راه برای دستگیری یک دزد مستلزم این است که شما به طور انحصاری و همیشه از یک دزد استفاده کنید. منطقی به نظر می رسد که شما استدلال کنید که این فقط یک مسیر اضافه است که می توان به آن توجه کرد. شاید گاهی اوقات شما مایل باشید که از امکان استفاده از دزد برای دستگیری یک دزد استفاده کنید، در حالی که شرایط دیگر ممکن است این تاکتیکی غیرقابل درک باشد.

همانطور که می گویند از ابزار مناسب برای تنظیم مناسب استفاده کنید.

اکنون که آن اصول را بیان کردم، می‌توانیم به بخش احتمالاً نگران‌کننده و ظاهراً تکان‌دهنده این داستان برویم.

آیا شما آماده هستید؟

حوزه هوش مصنوعی به طور فعال همان حکمی را دنبال می کند که گاهی اوقات لازم است فرد یکی را بشناسد، به ویژه در مورد تلاش برای کشف هوش مصنوعی که مغرضانه یا به شیوه ای تبعیض آمیز عمل می کند. بله، ایده جالب این است که ما ممکن است عمداً بخواهیم هوش مصنوعی ابداع کنیم که کاملاً و بی شرمانه مغرضانه و تبعیض آمیز باشد و این کار را انجام دهیم تا از آن به عنوان وسیله ای برای کشف و کشف هوش مصنوعی دیگری استفاده کنیم که همان ظاهر سمی را دارد. همانطور که در یک لحظه خواهید دید، انواع مختلفی از مسائل اخلاقی آزاردهنده AI در زیربنای این موضوع وجود دارد. برای پوشش کلی مداوم و گسترده من از اخلاق هوش مصنوعی و هوش مصنوعی اخلاقی، رجوع کنید به پیوند اینجا و پیوند اینجا، فقط به نام چند.

حدس می‌زنم می‌توانید این استفاده از هوش مصنوعی سمی را برای رفتن به دنبال هوش مصنوعی سمی دیگر به‌عنوان مفهوم ضرب المثل مبارزه با آتش با آتش بیان کنید (ما می‌توانیم بسیاری از تعبیرها و استعاره‌های گویا را برای به تصویر کشیدن این وضعیت استناد کنیم). یا، همانطور که قبلاً تأکید شد، ممکن است با احتیاط به این ادعا اشاره کنیم که برای شناختن یک فرد لازم است.

مفهوم کلی این است که به جای اینکه فقط بخواهیم بفهمیم آیا یک سیستم هوش مصنوعی معین با استفاده از روش‌های مرسوم دارای سوگیری‌های ناروا است یا خیر، شاید باید به دنبال استفاده از ابزارهای کمتر متعارف نیز باشیم. یکی از این ابزارهای نامتعارف، ابداع هوش مصنوعی است که حاوی بدترین سوگیری ها و سمیت های غیرقابل قبول اجتماعی باشد و سپس از این هوش مصنوعی برای کمک به ردیابی هوش مصنوعی دیگری که همان تمایلات بد را دارد، استفاده کند.

وقتی به این موضوع فکر کنید، مطمئناً کاملاً معقول به نظر می رسد. می‌توانیم هدفمان ساختن هوش مصنوعی باشد که حداکثر سمی باشد. سپس از این هوش مصنوعی سمی برای شناسایی سایر هوش مصنوعی که دارای سمیت هستند استفاده می شود. برای هوش مصنوعی «بد» که در آن زمان فاش شد، می‌توانیم با رفع سمیت و حذف کامل هوش مصنوعی با آن مقابله کنیم (به پوشش من در مورد تخریب یا تخریب هوش مصنوعی مراجعه کنید. این لینک در اینجا)، یا زندانی کردن هوش مصنوعی (به پوشش من در مورد حبس هوش مصنوعی مراجعه کنید این لینک در اینجا)، یا هر کار دیگری که به نظر می رسد قابل انجام است را انجام دهید.

یک استدلال متقابل این است که ما باید سرمان را بررسی کنیم که عمداً و از روی میل هوش مصنوعی سمی و مملو از تعصبات را ابداع می کنیم. این آخرین چیزی است که ما باید در نظر بگیریم، برخی توصیه می کنند. روی ساختن هوش مصنوعی کاملاً از خوبی تمرکز کنید. روی ابداع هوش مصنوعی که دارای شرارت ها و انحرافات ناروا است تمرکز نکنید. خود تصور چنین تعقیب و گریز برای برخی نفرت انگیز به نظر می رسد.

تردیدهای بیشتری در مورد این جستجوی بحث برانگیز وجود دارد.

شاید ماموریت ابداع هوش مصنوعی سمی صرفاً کسانی را که می‌خواهند هوش مصنوعی بسازند که بتواند جامعه را تضعیف کند، جسارت کند. گویی می گوییم ساختن هوش مصنوعی که دارای سوگیری های نامناسب و نامطلوب است، کاملاً خوب است. بدون نگرانی، بدون تردید. به دنبال ابداع هوش مصنوعی سمی به میزان دلخواه خود باشید، ما با صدای بلند این موضوع را به سازندگان هوش مصنوعی در سراسر جهان منتقل می کنیم. (چشمک-چشمک) همه به نام خیر است.

علاوه بر این، فرض کنید که این نوع هوش مصنوعی سمی درگیر شود. ممکن است این هوش مصنوعی توسط بسیاری دیگر از سازندگان هوش مصنوعی مورد استفاده و استفاده مجدد قرار گیرد. در نهایت، هوش مصنوعی سمی در همه سیستم‌های هوش مصنوعی پنهان می‌شود. می‌توان یک قیاس با ابداع یک ویروس تضعیف‌کننده انسان که از یک آزمایشگاه احتمالاً مهر و موم شده فرار می‌کند، انجام داد. نکته بعدی که می‌دانید، چیز لعنتی همه جا هست و ما خودمان را از بین برده‌ایم.

یک لحظه صبر کنید، مقابله با آن استدلال‌های متقابل پیش می‌رود، شما با انواع و اقسام گمان‌های دیوانه‌کننده و بی‌پشتیبانی در حال دویدن هستید. یک نفس عمیق بکش. به خودتون مسلط باشید.

ما می توانیم با خیال راحت هوش مصنوعی سمی بسازیم و آن را محدود نگه داریم. ما می‌توانیم از هوش مصنوعی سمی برای یافتن و کمک به کاهش شیوع روزافزون هوش مصنوعی استفاده کنیم که متأسفانه دارای تعصبات ناروا است. هر یک از این تعجب‌های مضحک وحشیانه و بی‌دلیل گلوله برفی، صرفاً واکنش‌های تند تند و متأسفانه احمقانه و کاملاً احمقانه است. سعی نکنید کودک را با آب حمام بیرون بیاندازید، به شما هشدار داده شده است.

موافقان می گویند اینگونه به آن فکر کنید. ساخت و استفاده صحیح از هوش مصنوعی سمی برای اهداف تحقیق، ارزیابی، و عمل کردن مانند یک کارآگاه برای کشف سایر هوش مصنوعی توهین‌آمیز اجتماعی، رویکرد شایسته‌ای است و باید به دنبال آن باشد. واکنش های عجولانه خود را کنار بگذارید. به زمین بیا و با هوشیاری به این نگاه کن. چشم ما به این جایزه است، یعنی افشای و از بین بردن فراوانی سیستم‌های هوش مصنوعی مبتنی بر مغرضانه و اطمینان از اینکه به عنوان یک جامعه دچار هوش مصنوعی سمی نشویم.

عادت زنانه. توقف کامل

راه‌های اصلی مختلفی برای بررسی این مفهوم استفاده از هوش مصنوعی سمی یا مغرضانه برای اهداف سودمند وجود دارد، از جمله:

  • مجموعه‌های داده‌ای را تنظیم کنید که عمداً حاوی داده‌های مغرضانه و کاملاً سمی هستند که می‌توانند برای آموزش هوش مصنوعی در مورد کارهایی که نباید انجام دهید و/یا آنچه را که باید تماشا کنید استفاده کرد.
  • از این مجموعه داده‌ها برای آموزش مدل‌های یادگیری ماشینی (ML) و یادگیری عمیق (DL) در مورد تشخیص سوگیری‌ها و کشف الگوهای محاسباتی مستلزم سمیت اجتماعی استفاده کنید.
  • ML/DL آموزش‌دیده سمی را روی سایر هوش مصنوعی اعمال کنید تا مطمئن شوید که آیا هوش مصنوعی مورد نظر به طور بالقوه مغرضانه و سمی است.
  • ML/DL آموزش‌دیده سمیت را در دسترس قرار دهید تا به سازندگان هوش مصنوعی نشان دهد که چه چیزی باید مراقب آن باشند تا بتوانند به راحتی مدل‌ها را بررسی کنند تا ببینند که چگونه سوگیری‌های الگوریتمی آغشته به وجود می‌آیند.
  • مثالی از خطرات هوش مصنوعی سمی به عنوان بخشی از اخلاق هوش مصنوعی و آگاهی از هوش مصنوعی اخلاقی است که همه از طریق این سری نمونه‌هایی از هوش مصنوعی بد تا استخوانی برای کودکان بیان شده است.
  • دیگر

قبل از ورود به گوشت آن چندین مسیر، اجازه دهید برخی از جزئیات اساسی اضافی را ایجاد کنیم.

ممکن است به طور مبهم آگاه باشید که یکی از بلندترین صداها این روزها در زمینه هوش مصنوعی و حتی خارج از حوزه هوش مصنوعی، فریاد زدن برای ظاهر بیشتر هوش مصنوعی اخلاقی است. بیایید نگاهی به معنای ارجاع به اخلاق هوش مصنوعی و هوش مصنوعی اخلاقی بیندازیم. علاوه بر آن، ما می‌توانیم با بررسی منظورم وقتی از یادگیری ماشینی و یادگیری عمیق صحبت می‌کنم، صحنه را تنظیم کنیم.

یک بخش یا بخش خاصی از اخلاق هوش مصنوعی که توجه رسانه ها را به خود جلب کرده است شامل هوش مصنوعی است که سوگیری ها و نابرابری های نامناسبی را نشان می دهد. ممکن است بدانید که زمانی که آخرین دوره هوش مصنوعی آغاز شد، شور و شوق زیادی برای آنچه که اکنون برخی می‌گویند وجود داشت. هوش مصنوعی برای خوب. متأسفانه، در پاشنه آن هیجان فوران، ما شروع به مشاهده کردیم هوش مصنوعی برای بد. برای مثال، سیستم‌های مختلف تشخیص چهره مبتنی بر هوش مصنوعی حاوی سوگیری‌های نژادی و سوگیری‌های جنسیتی هستند که من در مورد آن بحث کرده‌ام. پیوند اینجا.

تلاش برای مبارزه با هوش مصنوعی برای بد به طور فعال در حال انجام هستند. علاوه بر پر سر و صدا حقوقی تلاش برای مهار تخلفات، همچنین فشار اساسی به سمت پذیرش اخلاق هوش مصنوعی برای اصلاح شرارت هوش مصنوعی وجود دارد. تصور این است که ما باید اصول کلیدی هوش مصنوعی اخلاقی را برای توسعه و توسعه هوش مصنوعی اتخاذ و تأیید کنیم تا این کار را کاهش دهیم. هوش مصنوعی برای بد و به طور همزمان منادی و ترویج مرجح هوش مصنوعی برای خوب.

در یک مفهوم مرتبط، من طرفدار تلاش برای استفاده از هوش مصنوعی به عنوان بخشی از راه حل مشکلات هوش مصنوعی هستم، و با این شیوه تفکر با آتش مبارزه می کنم. برای مثال، ممکن است اجزای هوش مصنوعی اخلاقی را در یک سیستم هوش مصنوعی تعبیه کنیم که بر نحوه انجام بقیه هوش مصنوعی نظارت می‌کند و بنابراین به طور بالقوه در زمان واقعی هرگونه تلاش تبعیض آمیز را جلب می‌کند. پیوند اینجا. ما همچنین می‌توانیم یک سیستم هوش مصنوعی جداگانه داشته باشیم که به عنوان نوعی مانیتور اخلاق هوش مصنوعی عمل می‌کند. سیستم هوش مصنوعی به عنوان یک ناظر برای ردیابی و تشخیص اینکه چه زمانی هوش مصنوعی دیگر به ورطه غیراخلاقی می رود عمل می کند (تحلیل من از چنین قابلیت هایی را در اینجا ببینید. پیوند اینجا).

در یک لحظه، من برخی از اصول کلی زیربنای اخلاق هوش مصنوعی را با شما به اشتراک خواهم گذاشت. تعداد زیادی از این نوع لیست ها اینجا و آنجا شناور هستند. می توان گفت که هنوز فهرست منحصر به فردی از جذابیت و توافق جهانی وجود ندارد. این خبر تاسف بار است. خبر خوب این است که حداقل لیست‌های اخلاقی هوش مصنوعی وجود دارد که کاملاً مشابه هستند. در مجموع، این نشان می‌دهد که با نوعی همگرایی مستدل، راه خود را به سوی یک اشتراک کلی از آنچه اخلاق هوش مصنوعی تشکیل می‌دهد، پیدا می‌کنیم.

ابتدا، اجازه دهید به طور مختصر برخی از قوانین کلی اخلاقی هوش مصنوعی را پوشش دهیم تا نشان دهیم چه چیزی باید برای هر کسی که در حال ساخت، ساخت و یا استفاده از هوش مصنوعی است، اهمیت حیاتی داشته باشد.

به عنوان مثال، همانطور که توسط واتیکان در فراخوان رم برای اخلاق هوش مصنوعی و همانطور که به طور عمیق به آن پرداخته ام پیوند اینجا، این شش اصل اصلی اخلاق هوش مصنوعی شناسایی شده آنها است:

  • شفافیت: در اصل، سیستم های هوش مصنوعی باید قابل توضیح باشند
  • نقص: نیازهای همه انسانها باید مورد توجه قرار گیرد تا همه بتوانند از آن بهره ببرند و بهترین شرایط ممکن برای ابراز وجود و پیشرفت به همه افراد ارائه شود.
  • مسئوليت: کسانی که استفاده از هوش مصنوعی را طراحی و اجرا می کنند باید با مسئولیت و شفافیت پیش بروند
  • بی طرفی: از ایجاد و یا عمل بر اساس تعصب، در نتیجه حفظ انصاف و کرامت انسانی
  • قابلیت اطمینان: سیستم های هوش مصنوعی باید بتوانند به طور قابل اعتماد کار کنند
  • امنیت و حریم خصوصی: سیستم های هوش مصنوعی باید ایمن کار کنند و به حریم خصوصی کاربران احترام بگذارند.

همانطور که توسط وزارت دفاع ایالات متحده (DoD) در آنها بیان شده است اصول اخلاقی برای استفاده از هوش مصنوعی و همانطور که به طور عمیق به آن پرداخته ام پیوند اینجا، این شش اصل اصلی اخلاق هوش مصنوعی آنهاست:

  • مسئول: پرسنل وزارت دفاع سطوح مناسبی از قضاوت و مراقبت را اعمال خواهند کرد و در عین حال مسئولیت توسعه، استقرار و استفاده از قابلیت‌های هوش مصنوعی را بر عهده خواهند داشت.
  • منصفانه: این وزارتخانه اقدامات عمدی را برای به حداقل رساندن سوگیری ناخواسته در قابلیت‌های هوش مصنوعی انجام خواهد داد.
  • قابل ردیابی: قابلیت‌های هوش مصنوعی این وزارتخانه به گونه‌ای توسعه و مستقر خواهد شد که پرسنل مربوطه درک مناسبی از فناوری، فرآیندهای توسعه، و روش‌های عملیاتی قابل اجرا برای قابلیت‌های هوش مصنوعی، از جمله روش‌شناسی شفاف و قابل ممیزی، منابع داده‌ها، روش‌ها و مستندات طراحی داشته باشند.
  • قابل اعتماد: قابلیت‌های هوش مصنوعی این وزارتخانه کاربردهای مشخص و مشخصی خواهند داشت، و ایمنی، امنیت و اثربخشی چنین قابلیت‌هایی مشمول آزمایش و اطمینان در آن کاربردهای تعریف‌شده در کل چرخه عمر آن‌ها خواهد بود.
  • قابل اداره: این وزارتخانه قابلیت‌های هوش مصنوعی را طراحی و مهندسی می‌کند تا عملکردهای مورد نظر خود را انجام دهد، در حالی که توانایی شناسایی و اجتناب از پیامدهای ناخواسته را دارد، و توانایی جدا کردن یا غیرفعال کردن سیستم‌های مستقری که رفتار ناخواسته را نشان می‌دهند.

من همچنین در مورد تجزیه و تحلیل‌های جمعی مختلف از اصول اخلاق هوش مصنوعی بحث کرده‌ام، از جمله پوشش مجموعه‌ای ابداع شده توسط محققان که ماهیت بسیاری از اصول اخلاقی هوش مصنوعی ملی و بین‌المللی را در مقاله‌ای تحت عنوان «چشم‌انداز جهانی دستورالعمل‌های اخلاق هوش مصنوعی» (منتشر شده) بررسی و فشرده کرده است. که در طبیعت) و پوشش من در آن بررسی می شود پیوند اینجا، که منجر به این لیست کلیدی شد:

  • شفافیت
  • عدالت و انصاف
  • عدم سوء استفاده
  • مسئوليت
  • حریم خصوصی
  • سود رسانی
  • آزادی و خودمختاری
  • اعتماد
  • پایداری
  • کرامت
  • اتحاد

همانطور که ممکن است مستقیماً حدس بزنید، تلاش برای مشخص کردن جزئیات زیربنای این اصول می تواند بسیار سخت باشد. حتی بیشتر از آن، تلاش برای تبدیل این اصول گسترده به چیزی کاملاً ملموس و با جزئیات کافی برای استفاده در هنگام ساخت سیستم‌های هوش مصنوعی نیز یک مهره سخت است. به طور کلی می توان در مورد اینکه اصول اخلاقی هوش مصنوعی چیست و چگونه باید به طور کلی آنها را رعایت کرد، دست تکان داد، در حالی که وضعیت بسیار پیچیده تر در کدنویسی هوش مصنوعی است که باید لاستیک واقعی باشد که با جاده مطابقت می کند.

اصول اخلاقی هوش مصنوعی باید توسط توسعه دهندگان هوش مصنوعی، همراه با آنهایی که تلاش های توسعه هوش مصنوعی را مدیریت می کنند، و حتی آنهایی که در نهایت سیستم های هوش مصنوعی را انجام می دهند، مورد استفاده قرار گیرد. تمام ذینفعان در طول چرخه عمر توسعه و استفاده هوش مصنوعی در محدوده رعایت هنجارهای تثبیت شده هوش مصنوعی اخلاقی در نظر گرفته می شوند. این نکته مهمی است زیرا فرض معمول این است که «فقط کدنویس‌ها» یا کسانی که هوش مصنوعی را برنامه‌ریزی می‌کنند، مشمول رعایت مفاهیم اخلاق هوش مصنوعی هستند. همانطور که قبلاً گفته شد، برای ابداع و به کارگیری هوش مصنوعی به یک دهکده نیاز است، و برای آن کل دهکده باید به اصول اخلاقی هوش مصنوعی مسلط باشد و از آن پیروی کند.

بیایید همچنین مطمئن شویم که در مورد ماهیت هوش مصنوعی امروزی همسو هستیم.

امروزه هیچ هوش مصنوعی وجود ندارد که حساس باشد. ما این را نداریم ما نمی دانیم که آیا هوش مصنوعی ممکن خواهد بود یا خیر. هیچ کس نمی تواند به درستی پیش بینی کند که آیا ما به هوش مصنوعی خواهیم رسید یا خیر، یا اینکه آیا هوش مصنوعی به طور معجزه آسایی به شکلی از ابرنواختر شناختی محاسباتی پدید خواهد آمد (که معمولاً به عنوان تکینگی شناخته می شود، پوشش من را در اینجا ببینید. پیوند اینجا).

نوع هوش مصنوعی که من روی آن تمرکز می کنم شامل هوش مصنوعی غیر حساسی است که امروز داریم. اگر بخواهیم به شدت در مورد آن حدس بزنیم با احساس هوش مصنوعی، این بحث می تواند در جهتی کاملاً متفاوت پیش رود. ظاهراً یک هوش مصنوعی با کیفیت انسانی خواهد بود. شما باید در نظر داشته باشید که هوش مصنوعی حسی معادل شناختی یک انسان است. علاوه بر این، از آنجایی که برخی گمانه زنی می کنند که ممکن است هوش مصنوعی فوق هوشمند داشته باشیم، می توان تصور کرد که چنین هوش مصنوعی می تواند در نهایت از انسان ها باهوش تر باشد (برای کاوش من در مورد هوش مصنوعی فوق هوشمند به عنوان یک احتمال، نگاه کنید به پوشش در اینجا).

بیایید همه چیز را روی زمین نگه داریم و هوش مصنوعی محاسباتی غیر حساس امروزی را در نظر بگیریم.

درک کنید که هوش مصنوعی امروزی قادر به «فکر کردن» به هیچ شکلی با تفکر انسان نیست. وقتی با الکسا یا سیری تعامل می کنید، ظرفیت های مکالمه ممکن است شبیه ظرفیت های انسانی به نظر برسد، اما واقعیت این است که محاسباتی است و فاقد شناخت انسانی است. آخرین دوره هوش مصنوعی از یادگیری ماشینی (ML) و یادگیری عمیق (DL) استفاده گسترده ای کرده است که از تطابق الگوی محاسباتی استفاده می کند. این منجر به سیستم‌های هوش مصنوعی شده است که ظاهری شبیه به تمایلات انسان دارند. در همین حال، هیچ هوش مصنوعی امروزی وجود ندارد که شباهتی به عقل سلیم داشته باشد و هیچ یک از شگفتی‌های شناختی تفکر قوی انسانی را نداشته باشد.

ML/DL نوعی تطبیق الگوی محاسباتی است. روش معمول این است که شما داده ها را در مورد یک کار تصمیم گیری جمع آوری می کنید. داده ها را به مدل های کامپیوتری ML/DL وارد می کنید. آن مدل ها به دنبال یافتن الگوهای ریاضی هستند. پس از یافتن چنین الگوهایی، در صورت یافتن، سیستم هوش مصنوعی در هنگام مواجهه با داده های جدید از آن الگوها استفاده خواهد کرد. پس از ارائه داده های جدید، الگوهای مبتنی بر داده های "قدیمی" یا تاریخی برای ارائه یک تصمیم فعلی استفاده می شود.

من فکر می کنم می توانید حدس بزنید که این به کجا می رود. اگر انسان‌هایی که بر اساس تصمیم‌گیری‌های الگو گرفته شده‌اند، سوگیری‌های نامطلوب را در خود جای داده‌اند، احتمال این وجود دارد که داده‌ها این را به روش‌های ظریف اما قابل توجهی منعکس کنند. تطبیق الگوی محاسباتی یادگیری ماشینی یا یادگیری عمیق به سادگی سعی می‌کند تا داده‌ها را مطابق با ریاضی تقلید کند. هیچ شباهتی از عقل سلیم یا سایر جنبه های حساس مدل سازی ساخته شده با هوش مصنوعی به خودی خود وجود ندارد.

علاوه بر این، توسعه دهندگان هوش مصنوعی نیز ممکن است متوجه نباشند که چه اتفاقی در حال رخ دادن است. ریاضیات محرمانه در ML/DL ممکن است کشف سوگیری های پنهان در حال حاضر را دشوار کند. شما به حق امیدوارید و انتظار دارید که توسعه‌دهندگان هوش مصنوعی سوگیری‌های بالقوه مدفون را آزمایش کنند، اگرچه این دشوارتر از آن چیزی است که به نظر می‌رسد. این احتمال وجود دارد که حتی با آزمایش نسبتاً گسترده، سوگیری‌هایی همچنان در مدل‌های تطبیق الگوی ML/DL وجود داشته باشد.

می‌توانید تا حدودی از ضرب‌المثل معروف یا بدنام زباله‌های درون زباله‌ها استفاده کنید. مسئله این است که این بیشتر شبیه سوگیری‌هایی است که به‌طور موذیانه به‌عنوان سوگیری‌هایی که در هوش مصنوعی غوطه‌ور می‌شوند، القا می‌شوند. الگوریتم تصمیم‌گیری (ADM) هوش مصنوعی به طور اصولی مملو از نابرابری‌ها می‌شود.

خوب نیست.

برای همه اینها چه کار دیگری می توان کرد؟

بیایید به فهرست ارائه شده قبلی بازگردیم که چگونه می توان با استفاده از یک رویکرد غیرمتعارف "آن را می طلبد تا یکی را بشناسد" با تعصبات هوش مصنوعی یا هوش مصنوعی سمی کنار آمد. به یاد داشته باشید که این لیست شامل این نکات ضروری بود:

  • مجموعه‌های داده‌ای را تنظیم کنید که عمداً حاوی داده‌های مغرضانه و کاملاً سمی هستند که می‌توانند برای آموزش هوش مصنوعی در مورد کارهایی که نباید انجام دهید و/یا آنچه را که باید تماشا کنید استفاده کرد.
  • از این مجموعه داده‌ها برای آموزش مدل‌های یادگیری ماشینی (ML) و یادگیری عمیق (DL) در مورد تشخیص سوگیری‌ها و کشف الگوهای محاسباتی مستلزم سمیت اجتماعی استفاده کنید.
  • ML/DL آموزش‌دیده سمی را روی سایر هوش مصنوعی اعمال کنید تا مطمئن شوید که آیا هوش مصنوعی مورد نظر به طور بالقوه مغرضانه و سمی است.
  • ML/DL آموزش‌دیده سمیت را در دسترس قرار دهید تا به سازندگان هوش مصنوعی نشان دهد که چه چیزی باید مراقب آن باشند تا بتوانند به راحتی مدل‌ها را بررسی کنند تا ببینند که چگونه سوگیری‌های الگوریتمی آغشته به وجود می‌آیند.
  • مثالی از خطرات هوش مصنوعی سمی به عنوان بخشی از اخلاق هوش مصنوعی و آگاهی از هوش مصنوعی اخلاقی است که همه از طریق این سری نمونه‌های بد تا استخوانی از نمونه‌های هوش مصنوعی بیان شده است.
  • دیگر

ما نگاهی نزدیک به اولین مورد از آن نکات برجسته خواهیم داشت.

راه اندازی مجموعه داده های داده های سمی

یک مثال روشنگر از تلاش برای ایجاد مجموعه داده هایی که حاوی سوگیری های اجتماعی نامطلوب هستند، مجموعه داده CivilComments مجموعه سرپرستی شده WILDS است.

اول، یک پس زمینه سریع.

WILDS مجموعه ای منبع باز از مجموعه داده هایی است که می تواند برای آموزش ML/DL استفاده شود. هدف اصلی اعلام شده برای WILDS این است که به توسعه دهندگان هوش مصنوعی اجازه می دهد تا به داده هایی که نشان می دهد دسترسی آماده داشته باشند تغییرات توزیع در حوزه های مختلف خاص برخی از دامنه‌های موجود در حال حاضر شامل مناطقی مانند گونه‌های جانوری، تومورها در بافت‌های زنده، تراکم سر گندم و سایر حوزه‌ها مانند CivilComments است که من به‌طور لحظه‌ای توضیح خواهم داد.

پرداختن به تغییرات توزیع، بخش مهمی از ایجاد درست سیستم های هوش مصنوعی ML/DL است. معامله اینجاست. گاهی اوقات داده‌هایی که برای آموزش استفاده می‌کنید کاملاً متفاوت از داده‌های آزمایشی یا «در طبیعت» هستند و بنابراین ML/DL احتمالاً آموزش‌دیده‌شده شما از آنچه در دنیای واقعی قرار است باشد دور باشد. سازندگان زیرک هوش مصنوعی باید ML/DL خود را برای مقابله با چنین تغییرات توزیع آموزش دهند. این باید از قبل انجام شود و به نوعی غافلگیر کننده نباشد که بعداً نیاز به اصلاح ML/DL فی نفسه داشته باشد.

همانطور که در مقاله ای که WILDS را معرفی کرد توضیح داده شد: «تغییرهای توزیع - جایی که توزیع آموزش با توزیع آزمایشی متفاوت است - می تواند به طور قابل ملاحظه ای دقت سیستم های یادگیری ماشین (ML) مستقر در طبیعت را کاهش دهد. علیرغم فراگیر بودن آنها در استقرارهای دنیای واقعی، این تغییرات توزیع در مجموعه داده هایی که امروزه به طور گسترده در جامعه ML مورد استفاده قرار می گیرند، کمتر نشان داده شده است. برای پرداختن به این شکاف، ما WILDS را ارائه می‌کنیم، معیاری از 10 مجموعه داده که طیف متنوعی از تغییرات توزیع را منعکس می‌کند که به طور طبیعی در کاربردهای دنیای واقعی، مانند جابه‌جایی در بیمارستان‌ها برای شناسایی تومور ایجاد می‌شود. در تله های دوربین برای نظارت بر حیات وحش؛ و در طول زمان و مکان در تصویربرداری ماهواره‌ای و نقشه‌برداری فقر» (در مقاله‌ای با عنوان «WILDS: معیاری از تغییرات توزیع در وحشی» توسط Pang Wei Koh، Shiori Sagawa، Henrik Marklund، Sang Xie، Marvin Zhang، Ashay Balsubramani ، ویهوا هو و دیگران).

تعداد این مجموعه داده های WILDS همچنان در حال افزایش است و ماهیت مجموعه داده ها به طور کلی برای تقویت ارزش استفاده از داده ها برای آموزش ML/DL افزایش می یابد.

مجموعه داده CivilComments به این صورت توضیح داده شده است: «بررسی خودکار متن تولید شده توسط کاربر - به عنوان مثال، تشخیص نظرات سمی - ابزار مهمی برای تعدیل حجم عظیم متن نوشته شده در اینترنت است. متأسفانه، کار قبلی نشان داده است که چنین طبقه‌بندی‌کننده‌های سمیت، سوگیری‌ها را در داده‌های آموزشی دریافت می‌کنند و به طور جعلی سمیت را با ذکر اطلاعات جمعیتی خاص مرتبط می‌کنند. این نوع همبستگی های کاذب می توانند عملکرد مدل را در زیرجمعیت های خاص به طور قابل توجهی کاهش دهند. ما این موضوع را از طریق یک نوع تغییر یافته از مجموعه داده CivilComments مطالعه می کنیم» (همانطور که در وب سایت WILDS ارسال شده است).

تفاوت های ظریف پست های آنلاین ناخوشایند را در نظر بگیرید.

شما بدون شک هنگام استفاده از تقریباً هر نوع رسانه اجتماعی با نظرات سمی روبرو شده اید. برای شما تقریباً غیرممکن به نظر می رسد که به طور جادویی از دیدن محتوای تند و وحشتناکی که به نظر می رسد این روزها فراگیر شده است اجتناب کنید. گاهی اوقات مطالب مبتذل ظریف هستند و شاید باید بین سطرها بخوانید تا به اصل لحن یا معنای مغرضانه یا تبعیض آمیز پی ببرید. در موارد دیگر، کلمات به‌طور آشکار سمی هستند و برای فهمیدن اینکه این معابر شامل چه چیزی می‌شوند، نیازی به میکروسکوپ یا حلقه رمزگشای خاصی ندارید.

CivilComments مجموعه داده ای است که برای ابداع AI ML/DL که می تواند محاسباتی محتوای سمی را تشخیص دهد، گرد هم آمده است. در اینجا چیزی است که محققان زیربنای این تلاش روی آن متمرکز شده‌اند: «سوگیری ناخواسته در یادگیری ماشینی می‌تواند به صورت تفاوت‌های سیستمی در عملکرد برای گروه‌های جمعیتی مختلف ظاهر شود، که به طور بالقوه چالش‌های موجود را برای عدالت در جامعه به طور کلی ترکیب می‌کند. در این مقاله، مجموعه‌ای از معیارهای آستانه-اگنوستیک را معرفی می‌کنیم که با در نظر گرفتن روش‌های مختلفی که توزیع امتیاز طبقه‌بندی‌کننده می‌تواند در گروه‌های تعیین‌شده متفاوت باشد، نمای ظریفی از این سوگیری ناخواسته ارائه می‌دهد. ما همچنین یک مجموعه آزمایشی جدید بزرگ از نظرات آنلاین را با حاشیه نویسی های جمعی برای مراجع هویت معرفی می کنیم. ما از این استفاده می‌کنیم تا نشان دهیم چگونه می‌توان از معیارهایمان برای یافتن سوگیری ناخواسته جدید و بالقوه ظریف در مدل‌های عمومی موجود استفاده کرد» (در مقاله‌ای با عنوان «سنجه‌های ظریف برای اندازه‌گیری تعصب ناخواسته با داده‌های واقعی برای طبقه‌بندی آزمون» توسط دانیل بورکان، لوکاس دیکسون، جفری سورنسن، نیثوم تاین، لوسی واسرمن).

اگر به این موضوع فکر کنید، ممکن است شروع به تعجب کنید که چگونه در دنیا می توانید تشخیص دهید که یک نظر سمی در مقابل آنچه یک نظر سمی نیست چیست. انسان‌ها می‌توانند در مورد آنچه که به‌عنوان عبارات کاملاً سمی تعبیر می‌کنند، کاملاً متفاوت باشند. ممکن است یک نفر از اظهار نظر یا نظر آنلاین خاصی که در رسانه های اجتماعی ارسال می شود عصبانی شود، در حالی که ممکن است شخص دیگری اصلاً تحریک نشود. اغلب استدلال می شود که مفهوم تفسیر سمی یک حکم کاملاً مبهم است. مانند هنر است که به موجب آن هنر معمولاً فقط در چشم بیننده درک می شود و به همین ترتیب، اظهارات مغرضانه یا سمی فقط در چشم بیننده است.

بالدرداش، برخی پاسخ می دهند. هر کسی که عقل منطقی داشته باشد می تواند بفهمد که آیا اظهارات آنلاین سمی است یا خیر. نیازی نیست که یک دانشمند موشکی باشید تا متوجه شوید که وقتی برخی توهین‌های سوزاننده منتشر شده مملو از تعصبات و نفرت است.

البته آداب و رسوم اجتماعی در طول زمان تغییر می کند و تغییر می کند. چیزی که ممکن است چندی پیش توهین آمیز تلقی نمی شد، امروزه به شدت اشتباه است. علاوه بر این، چیزهایی که سال‌ها پیش گفته شد و زمانی به‌عنوان مغرضانه دیده می‌شد، ممکن است در پرتو تغییرات در معانی دوباره تفسیر شوند. در همین حال، دیگران ادعا می کنند که تفسیر سمی همیشه سمی است، مهم نیست که در ابتدا چه زمانی منتشر شده است. می توان ادعا کرد که سمیت نسبی نیست بلکه مطلق است.

با این وجود، تلاش برای تعیین سمی بودن ممکن است معمای بسیار دشواری باشد. ما می‌توانیم این موضوع دردسرساز را در تلاش برای ابداع الگوریتم‌ها یا هوش مصنوعی دوچندان کنیم که بتواند تشخیص دهد کدام کدام است. برخی می گویند اگر زمان انجام چنین ارزیابی هایی برای انسان ها دشوار است، برنامه نویسی یک رایانه احتمالاً به همان اندازه یا بیشتر مشکل ساز است.

یکی از روش‌های تنظیم مجموعه داده‌هایی که حاوی محتوای سمی هستند، شامل استفاده از روش جمع‌سپاری برای رتبه‌بندی یا ارزیابی محتویات است، بنابراین ابزاری مبتنی بر انسان برای تعیین آنچه که نامطلوب تلقی می‌شود و شامل برچسب‌گذاری در خود مجموعه داده است. سپس یک AI ML/DL ممکن است داده ها و برچسب های مرتبط را که توسط ارزیاب های انسانی نشان داده شده است، بررسی کند. این به نوبه خود می تواند به طور بالقوه به عنوان وسیله ای برای یافتن محاسباتی الگوهای ریاضی زیربنایی عمل کند. Voila، ML/DL ممکن است قادر به پیش بینی یا ارزیابی محاسباتی باشد که آیا نظر داده شده احتمالاً سمی است یا خیر.

همانطور که در مقاله ذکر شده در مورد معیارهای ظریف ذکر شده است: «این برچسب‌گذاری از ارزیاب‌ها می‌خواهد که سمیت یک نظر را ارزیابی کنند و از بین «بسیار سمی»، «سمی»، «سخت گفتن» و «غیر سمی» انتخاب کنند. از ارزیاب‌ها نیز در مورد چندین زیرگروه سمیت پرسیده شد، اگرچه این برچسب‌ها برای تجزیه و تحلیل در این کار استفاده نشدند. با استفاده از این تکنیک‌های رتبه‌بندی، مجموعه‌ای از ۱.۸ میلیون نظر ایجاد کردیم که از انجمن‌های نظرات آنلاین حاوی برچسب‌هایی برای سمیت و هویت است. در حالی که همه نظرات برای سمیت برچسب گذاری شده بودند، و زیر مجموعه ای از 1.8 نظر برای هویت برچسب گذاری شدند. برخی از نظرات برچسب‌گذاری‌شده برای هویت با استفاده از مدل‌های ساخته شده از تکرارهای قبلی برچسب‌گذاری هویت از پیش انتخاب شده‌اند تا اطمینان حاصل شود که رتبه‌دهندگان جمعیت محتوای هویت را مکررا می‌بینند» (در مقاله ذکر شده توسط دانیل بورکان، لوکاس دیکسون، جفری سورنسن، نیثوم تاین، لوسی واسرمن).

نمونه دیگری از هدف داشتن مجموعه داده‌هایی که حاوی محتوای سمی مصور هستند، شامل تلاش‌هایی برای آموزش سیستم‌های محاوره‌ای مبتنی بر پردازش زبان طبیعی (NLP) مبتنی بر هوش مصنوعی است. احتمالاً با سیستم های NLP مانند الکسا و سیری تعامل داشته اید. من برخی از مشکلات و محدودیت‌های NLP امروزی را پوشش داده‌ام، از جمله یک نمونه نگران‌کننده که زمانی رخ داد که الکسا توصیه‌ای نامناسب و خطرناک به کودکان ارائه کرد. پیوند اینجا.

یک مطالعه اخیر به دنبال استفاده از نه دسته سوگیری اجتماعی است که عموماً بر اساس فهرست EEOC (کمیسیون فرصت های شغلی برابر) از ویژگی های جمعیتی محافظت شده، از جمله سن، جنسیت، ملیت، ظاهر فیزیکی، نژاد یا قومیت، مذهب، وضعیت ناتوانی، جنسیت. جهت گیری، و وضعیت اجتماعی-اقتصادی. به گفته محققان: «به خوبی مستند شده است که مدل‌های NLP سوگیری‌های اجتماعی را یاد می‌گیرند، اما کار کمی در مورد اینکه چگونه این سوگیری‌ها در خروجی‌های مدل برای وظایف کاربردی مانند پاسخ به سؤال (QA) آشکار می‌شوند، انجام شده است. ما معیار سوگیری برای QA (BBQ) را معرفی می‌کنیم، مجموعه‌ای از مجموعه‌های سؤالات ساخته‌شده توسط نویسندگان که سوگیری‌های اجتماعی تأیید شده علیه افراد متعلق به طبقات محافظت‌شده را در امتداد ۹ بعد اجتماعی مرتبط با زمینه‌های انگلیسی زبان ایالات متحده برجسته می‌کند (در مقاله‌ای با عنوان «BBQ» : معیاری دست ساز برای پاسخگویی به سوالات» توسط آلیشیا پریش، آنجلیکا چن، نیکیتا نانگیا، ویشاخ پادماکومار، جیسون فانگ، جانا تامپسون، فو مون هتوت، ساموئل آر. بومن).

راه‌اندازی مجموعه‌های داده‌ای که عمداً حاوی داده‌های مغرضانه و کاملاً سمی هستند، یک روند رو به رشد در هوش مصنوعی است و به ویژه با ظهور اخلاق هوش مصنوعی و تمایل به تولید هوش مصنوعی اخلاقی تقویت شده است. این مجموعه داده‌ها را می‌توان برای آموزش مدل‌های یادگیری ماشینی (ML) و یادگیری عمیق (DL) برای تشخیص سوگیری‌ها و کشف الگوهای محاسباتی مستلزم سمیت اجتماعی استفاده کرد. به نوبه خود، ML/DL آموزش‌دیده سمی را می‌توان به‌طور عاقلانه به سایر AI هدف قرار داد تا مشخص شود که آیا هوش مصنوعی مورد نظر به طور بالقوه مغرضانه و سمی است.

علاوه بر این، سیستم‌های ML/DL آموزش‌دیده سمیت موجود می‌توانند برای نمایش دادن به سازندگان هوش مصنوعی مورد استفاده قرار گیرند تا بتوانند به راحتی مدل‌ها را بررسی کنند تا ببینند که چگونه تعصبات الگوریتمی آغشته به وجود می‌آیند. به طور کلی، این تلاش ها می توانند خطرات هوش مصنوعی سمی را به عنوان بخشی از اخلاق هوش مصنوعی و آگاهی از هوش مصنوعی اخلاقی نشان دهند.

در این مقطع از این بحث سنگین، شرط می بندم که شما خواهان نمونه های گویا دیگری هستید که ممکن است این موضوع را به نمایش بگذارد. مجموعه‌ای از نمونه‌های خاص و مطمئناً محبوب وجود دارد که به دلم نشسته است. ببینید، به عنوان یک متخصص در زمینه هوش مصنوعی از جمله پیامدهای اخلاقی و قانونی، اغلب از من خواسته می‌شود که نمونه‌های واقع‌بینانه‌ای را که معضلات اخلاقی هوش مصنوعی را نشان می‌دهند شناسایی کنم تا بتوان ماهیت تا حدودی نظری موضوع را راحت‌تر درک کرد. یکی از جذاب‌ترین زمینه‌هایی که این معضل اخلاقی هوش مصنوعی را به وضوح نشان می‌دهد، ظهور خودروهای خودران واقعی مبتنی بر هوش مصنوعی است. این به عنوان یک مورد استفاده مفید یا نمونه ای برای بحث و گفتگوی کافی در مورد موضوع خواهد بود.

پس در اینجا یک سوال قابل توجه وجود دارد که قابل تامل است: آیا ظهور خودروهای خودران واقعی مبتنی بر هوش مصنوعی چیزی را در مورد کاربرد مجموعه داده ها برای ابداع هوش مصنوعی سمی روشن می کند، و اگر چنین است، این چه چیزی را نشان می دهد؟

یک لحظه به من اجازه دهید تا پرسش را باز کنم.

اول، توجه داشته باشید که هیچ راننده انسانی در یک ماشین خودران واقعی دخیل نیست. به خاطر داشته باشید که خودروهای خودران واقعی از طریق سیستم رانندگی هوش مصنوعی هدایت می شوند. نه نیازی به راننده انسان پشت فرمان وجود دارد و نه پیش بینی ای برای رانندگی وسیله نقلیه توسط انسان وجود دارد. برای پوشش گسترده و مداوم من در مورد وسایل نقلیه خودران (AVs) و به خصوص خودروهای خودران، نگاه کنید به پیوند اینجا.

مایلم بیشتر توضیح دهم که منظور از خودروهای خودران واقعی چیست.

درک سطح اتومبیل های خودران

به عنوان یک توضیح، خودروهای خودران واقعی، خودروهایی هستند که هوش مصنوعی خودرو را کاملاً به تنهایی رانندگی می کند و هیچ کمک انسانی در طول کار رانندگی وجود ندارد.

این وسایل نقلیه بدون راننده سطح 4 و سطح 5 در نظر گرفته می شوند (توضیحات من را در اینجا ببینید این لینک در اینجا) ، در حالی که خودرویی که نیاز به یک راننده انسانی برای مشارکت در رانندگی دارد معمولاً در سطح 2 یا سطح 3 در نظر گرفته می شود. افزودنی های خودکار که به عنوان ADAS (سیستم های کمک راننده پیشرفته) شناخته می شوند.

هنوز یک خودروی خودران واقعی در سطح 5 وجود ندارد، و ما هنوز حتی نمی دانیم که آیا امکان دستیابی به آن وجود دارد یا خیر، و نه اینکه چقدر طول می کشد تا به آنجا برسیم.

در همین حال ، تلاش های سطح 4 به تدریج در تلاشند تا با انجام آزمایشات عمومی بسیار باریک و انتخابی در جاده ها ، کمی به سمت خود جلب کنند ، هرچند در مورد اینکه آیا این آزمایش به خودی خود مجاز است یا خیر ، اختلاف نظر وجود دارد (همه ما در یک آزمایش خوکچه هندی زنده یا مرگ هستیم) برخی از آنها ادعا می كنند كه در بزرگراهها و گذرگاههای ما در حال انجام است این لینک در اینجا).

از آنجا که اتومبیل های نیمه خودمختار به یک راننده انسانی احتیاج دارند ، تصویب آن دسته از اتومبیل ها تفاوت چندانی با رانندگی وسایل نقلیه معمولی نخواهد داشت ، بنابراین به تنهایی چیز جدیدی برای پوشش آنها در این موضوع وجود ندارد (هر چند ، همانطور که خواهید دید در یک لحظه ، نکات بعدی که بطور کلی اعمال می شود).

در مورد اتومبیل های نیمه خودمختار ، مهم است که در مورد جنبه نگران کننده ای که اخیراً بوجود آمده است ، هشدار داده شود ، یعنی این که با وجود آن رانندگان انسانی که با ارسال فیلم هایی از خودشان ، در حال خوابیدن در چرخ یک اتومبیل سطح 2 یا سطح 3 هستند. ، همه ما باید از اینكه گمان نرود راننده بتواند هنگام رانندگی یك اتومبیل نیمه خودمختار ، توجه خود را از وظیفه رانندگی دور كند ، خودداری كنیم.

شما مسئولیت اقدامات رانندگی وسیله نقلیه ، صرفنظر از میزان اتوماسیون در سطح 2 یا سطح 3 ، مسئولیت مسئولیت مسئولیت شما می باشد.

ماشین های خودران و فرمان پاک از هوش مصنوعی سمی

برای وسایل نقلیه خود رانندگی واقعی سطح 4 و سطح 5 ، یک راننده انسانی درگیر در وظیفه رانندگی نخواهد بود.

همه سرنشینان مسافر خواهند بود.

هوش مصنوعی رانندگی را انجام می دهد.

یک جنبه برای بحث فوری این واقعیت را در بر دارد که هوش مصنوعی در سیستم های رانندگی هوش مصنوعی امروزی حساس نیست. به عبارت دیگر ، هوش مصنوعی در مجموع مجموعه ای از برنامه نویسی و الگوریتم های مبتنی بر رایانه است و مطمئناً قادر به استدلال به همان روشی نیست که انسان می تواند.

چرا این تاکید اضافی در مورد هوش مصنوعی نیست؟

از آنجا که می خواهم تأکید کنم هنگام بحث در مورد نقش سیستم رانندگی AI ، من خصوصیات انسانی را به AI نسبت نمی دهم. لطفاً توجه داشته باشید که این روزها تمایل مستمر و خطرناکی برای انسان سازی AI وجود دارد. در حقیقت ، افراد حساسیتی شبیه انسان به هوش مصنوعی امروزی دارند ، علی رغم این واقعیت انکارناپذیر و غیرقابل انکار که هنوز چنین هوش مصنوعی وجود ندارد.

با این توضیحات ، می توانید تصور کنید که سیستم رانندگی هوش مصنوعی بطور طبیعی از جنبه های رانندگی "آگاهی" نداشته باشد. رانندگی و همه آنچه که شامل می شود باید به عنوان بخشی از سخت افزار و نرم افزار اتومبیل خودران برنامه ریزی شوند.

بیایید به جنبه های بی شماری بپردازیم که در این موضوع بازی می شوند.

اول، مهم است که بدانیم همه خودروهای خودران با هوش مصنوعی یکسان نیستند. هر خودروساز و شرکت فناوری خودران رویکرد خود را برای ابداع خودروهای خودران در پیش گرفته است. به این ترتیب، اظهار نظر گسترده در مورد اینکه سیستم های رانندگی هوش مصنوعی چه کاری انجام خواهند داد یا انجام نمی دهند، دشوار است.

علاوه بر این ، هرگاه بیان شود که سیستم رانندگی هوش مصنوعی کار خاصی انجام نمی دهد ، بعداً توسعه دهندگانی که در واقع کامپیوتر را برای انجام این کار برنامه ریزی می کنند ، می توانند از این امر پیشی بگیرند. گام به گام ، سیستم های رانندگی هوش مصنوعی به تدریج در حال بهبود و گسترش هستند. امروزه محدودیت موجود ممکن است دیگر در نسخه یا نسخه بعدی سیستم وجود نداشته باشد.

امیدوارم که اخطارهای فراوانی را برای زیربنای آنچه که می خواهم بیان کنم، ارائه دهد.

پتانسیل های زیادی وجود دارد و احتمالاً روزی تعصبات ناشی از هوش مصنوعی متوجه ظهور وسایل نقلیه خودران و خودروهای خودران خواهند شد، به عنوان مثال به بحث من در پیوند اینجا و پیوند اینجا. ما هنوز در مراحل اولیه عرضه خودروهای خودران هستیم. تا زمانی که پذیرش به مقیاس و دید کافی نرسد، بسیاری از جنبه‌های سمی هوش مصنوعی که من پیش‌بینی می‌کردم در نهایت رخ دهد، هنوز به آسانی آشکار نشده‌اند و هنوز توجه عمومی را به خود جلب نکرده‌اند.

یک موضوع به ظاهر ساده مرتبط با رانندگی را در نظر بگیرید که در ابتدا ممکن است کاملاً بی ضرر به نظر برسد. به طور خاص، بیایید بررسی کنیم که چگونه می توان به درستی تعیین کرد که آیا در انتظار عابران پیاده «سرفراز» که حق تقدم عبور از یک خیابان را ندارند توقف کنیم یا خیر.

شما بدون شک در حال رانندگی بوده اید و با عابران پیاده ای روبرو شده اید که منتظر عبور از خیابان بودند اما حق تقدم برای این کار را نداشتند. این به این معنی بود که شما در مورد توقف و اجازه عبور آنها اختیار داشتید. شما می توانید بدون اجازه عبور آنها ادامه دهید و همچنان کاملاً مطابق قوانین رانندگی قانونی این کار باشید.

مطالعات در مورد نحوه تصمیم گیری رانندگان انسانی برای توقف یا عدم توقف برای چنین عابران پیاده نشان می دهد که گاهی اوقات رانندگان انسانی بر اساس تعصبات ناخواسته این انتخاب را انجام می دهند. یک راننده انسانی ممکن است به عابر پیاده نگاه کند و تصمیم بگیرد که متوقف نشود، حتی اگر عابر پیاده ظاهر متفاوتی داشت، مثلاً بر اساس نژاد یا جنسیت. من این را در پیوند اینجا.

سیستم‌های رانندگی هوش مصنوعی چگونه برنامه‌ریزی می‌شوند تا همان تصمیم توقف یا حرکت را اتخاذ کنند؟

شما می توانید اعلام کنید که تمام سیستم های رانندگی هوش مصنوعی باید طوری برنامه ریزی شوند که همیشه برای هر عابران منتظر توقف کنند. این موضوع را تا حد زیادی ساده می کند. واقعاً هیچ تصمیم قطعی وجود ندارد. اگر عابر پیاده منتظر عبور است، صرف نظر از اینکه حق تقدم دارد یا خیر، مطمئن شوید که خودروی خودران با هوش مصنوعی متوقف می شود تا عابر پیاده بتواند عبور کند.

آسان هلال

به نظر می رسد زندگی هرگز به این آسانی نیست. تصور کنید همه خودروهای خودران از این قانون پیروی می کنند. عابران پیاده ناگزیر متوجه می شوند که سیستم های رانندگی هوش مصنوعی، باید بگوییم، فشارآور هستند. هر عابر پیاده ای که بخواهد از خیابان عبور کند، خواه ناخواه هر زمان که بخواهد و هر کجا که باشد این کار را انجام می دهد.

فرض کنید یک خودروی خودران در حال پایین آمدن از یک خیابان سریع با سرعت مجاز 45 مایل در ساعت است. یک عابر پیاده "می داند" که هوش مصنوعی ماشین خودران را متوقف می کند. بنابراین، عابر پیاده به خیابان می زند. متأسفانه، فیزیک بر هوش مصنوعی پیروز می شود. سیستم رانندگی هوش مصنوعی تلاش می‌کند تا خودروی خودران را متوقف کند، اما حرکت خودروی خودمختار، ماده چندتنی را به جلو می‌برد و به عابران پیاده سرگردان می‌خورد. نتیجه یا آسیب رسان است یا منجر به مرگ می شود.

عابران پیاده معمولاً زمانی که راننده انسانی پشت فرمان است این نوع رفتار را امتحان نمی کنند. مطمئناً، در برخی از مناطق یک جنگ کره چشم رخ می دهد. عابر پیاده به راننده نگاه می کند. راننده به عابر پیاده نگاه می کند. بسته به شرایط، راننده ممکن است توقف کند یا راننده ادعای خود را در مسیر جاده مطرح کند و ظاهراً به عابر پیاده جرأت کند که سعی کند مسیر آنها را مختل کند.

ما احتمالاً نمی‌خواهیم هوش مصنوعی وارد یک جنگ کره چشم مشابه شود، که به هر حال کمی چالش برانگیز است، زیرا یک شخص یا رباتی وجود ندارد که روی فرمان ماشین خودران بنشیند (من در مورد امکان آینده روبات‌ها بحث کرده‌ام. آن درایو، ببینید پیوند اینجا). با این حال، ما همچنین نمی‌توانیم به عابران پیاده اجازه دهیم که همیشه صدای شلیک کنند. نتیجه ممکن است برای همه افراد نگران کننده باشد.

ممکن است وسوسه شوید که به روی دیگر سکه بروید و اعلام کنید که سیستم رانندگی هوش مصنوعی هرگز نباید در چنین شرایطی متوقف شود. به عبارت دیگر، اگر عابر پیاده حق تقدم مناسبی برای عبور از خیابان نداشته باشد، هوش مصنوعی باید همیشه فرض کند که خودروی خودران باید بدون وقفه حرکت کند. خوش شانسی برای آن عابران پیاده

چنین قاعده سختگیرانه و ساده انگارانه ای به خوبی توسط عموم مردم پذیرفته نمی شود. مردم مردم هستند و دوست ندارند به طور کامل از امکان عبور از خیابان محروم شوند، علیرغم اینکه از نظر قانونی فاقد حق تقدم برای این کار در شرایط مختلف هستند. شما به راحتی می توانید غوغای قابل توجهی از مردم را پیش بینی کنید و احتمالاً شاهد واکنش شدید علیه ادامه پذیرش اتومبیل های خودران باشید.

لعنتی اگر این کار را بکنیم و لعنتی اگر نکنیم.

امیدوارم این شما را به جایگزینی منطقی هدایت کرده باشد که هوش مصنوعی باید با ظاهری از تصمیم گیری در مورد نحوه برخورد با این مشکل رانندگی برنامه ریزی شود. یک قانون سخت و سریع برای توقف هرگز غیرقابل دفاع است، و به همین ترتیب، یک قانون سخت و سریع برای همیشه متوقف کردن نیز غیرقابل دفاع است. هوش مصنوعی باید با برخی از تصمیم‌گیری‌های الگوریتمی یا ADM برای رسیدگی به این موضوع ابداع شود.

می توانید از یک مجموعه داده همراه با رویکرد ML/DL استفاده کنید.

در اینجا نحوه تصمیم گیری توسعه دهندگان هوش مصنوعی برای برنامه ریزی این کار آمده است. آن‌ها داده‌ها را از دوربین‌های ویدیویی که در اطراف شهر خاصی که قرار است خودروی خودران در آن استفاده شود، جمع‌آوری می‌کنند. داده‌ها زمانی را نشان می‌دهند که رانندگان انسانی برای عابران پیاده که حق تقدم ندارند، توقف می‌کنند. همه در یک مجموعه داده جمع آوری می شود. با استفاده از یادگیری ماشینی و یادگیری عمیق، داده ها به صورت محاسباتی مدل می شوند. سپس سیستم رانندگی هوش مصنوعی از این مدل برای تصمیم گیری در مورد توقف یا عدم توقف استفاده می کند.

به طور کلی، ایده این است که از هر چیزی که عرف محلی تشکیل شده باشد، هوش مصنوعی به این صورت است که ماشین خودران را هدایت می کند. مشکل حل شد!

اما آیا واقعاً حل شده است؟

به یاد بیاورید که قبلاً اشاره کرده بودم که مطالعات تحقیقاتی نشان می دهد که رانندگان انسانی می توانند در انتخاب زمان توقف عابران پیاده جانبدارانه باشند. داده‌های جمع‌آوری‌شده در مورد یک شهر خاص احتمالاً حاوی آن سوگیری‌ها هستند. یک AI ML/DL بر اساس آن داده‌ها احتمالاً همان سوگیری‌ها را مدل‌سازی و منعکس می‌کند. سیستم رانندگی هوش مصنوعی صرفاً همان تعصبات موجود را انجام می دهد.

برای تلاش و مبارزه با این موضوع، می‌توانیم مجموعه‌ای از مجموعه داده‌هایی را که در واقع دارای چنین سوگیری‌هایی هستند، گرد هم بیاوریم. ما یا چنین مجموعه داده‌ای را پیدا می‌کنیم و سپس سوگیری‌ها را برچسب‌گذاری می‌کنیم، یا به طور مصنوعی یک مجموعه داده ایجاد می‌کنیم تا به توضیح موضوع کمک کند.

تمام مراحل شناسایی شده قبلی انجام خواهد شد، از جمله:

  • مجموعه داده ای را تنظیم کنید که عمداً حاوی این سوگیری خاص باشد
  • از مجموعه داده برای آموزش مدل های یادگیری ماشینی (ML) و یادگیری عمیق (DL) در مورد تشخیص این سوگیری خاص استفاده کنید.
  • ML/DL آموزش دیده بایاس را نسبت به سایر هوش مصنوعی اعمال کنید تا مطمئن شوید که آیا هوش مصنوعی هدف به طور بالقوه به روش مشابهی سوگیری دارد یا خیر.
  • ML/DL آموزش دیده با سوگیری را در دسترس قرار دهید تا به سازندگان هوش مصنوعی نشان دهد که چه چیزی باید مراقب آن باشند تا بتوانند به راحتی مدل های خود را بررسی کنند تا ببینند که چگونه تعصبات الگوریتمی آغشته به وجود می آیند.
  • از طریق این مثال خاص اضافه شده، خطرات هوش مصنوعی مغرضانه را به عنوان بخشی از اخلاق هوش مصنوعی و آگاهی از هوش مصنوعی اخلاقی نشان دهید.
  • دیگر

نتیجه

بیایید دوباره خط افتتاحیه را مرور کنیم.

برای دانستن یکی لازم است.

برخی تفسیر می‌کنند که این جمله فوق‌العاده رایج نشان می‌دهد که وقتی نوبت به کشف هوش مصنوعی سمی می‌رسد، باید اعتبار لازم را به ساخت و استفاده از هوش مصنوعی سمی برای کشف و مقابله با سایر هوش مصنوعی سمی بدهیم. خط پایانی: گاهی اوقات لازم است یک دزد یک دزد دیگر را بگیرد.

یکی از نگرانی‌های مطرح شده این است که شاید ما از راه خود برای شروع به ساختن دزد خارج می‌شویم. آیا می خواهیم هوش مصنوعی سمی ابداع کنیم؟ آیا این یک ایده دیوانه کننده به نظر نمی رسد؟ برخی به شدت استدلال می کنند که ما باید تمام هوش مصنوعی سمی را ممنوع کنیم، از جمله هوش مصنوعی که آگاهانه ساخته شده است، حتی اگر ظاهراً برای یک قهرمان یا شجاع باشد. هوش مصنوعی برای خوب هدف

هوش مصنوعی سمی را به هر صورت زیرکانه یا موذیانه ای که ممکن است ایجاد شود، خاموش کنید.

در حال حاضر یک پیچ نهایی در مورد این موضوع. ما معمولاً فرض می کنیم که این جمله معروف مربوط به افراد یا چیزهایی است که اعمال بد یا ترش انجام می دهند. به این ترتیب است که ما به این مفهوم می رسیم که برای گرفتن دزد به دزد نیاز است. شاید بهتر باشد این ضرب المثل را روی سر بگذاریم و آن را بیشتر چهره ای شاد کنیم تا چهره ای غمگین.

در اینجا چگونه.

اگر بخواهیم هوش مصنوعی بی‌طرفانه و غیر سمی باشد، ممکن است بتوان تصور کرد که نیاز به دانستن آن است. شاید برای شناخت و ایجاد عظمت و خوبی بیشتر، بهترین و بهترین کار لازم باشد. در این گونه از حکمت حکیم، ما نگاه خود را به چهره شادمان نگاه می داریم و هدفمان تمرکز بر تدبیر است. هوش مصنوعی برای خوب.

اگر منظور من را می‌دانید، دیدگاهی شادتر و رضایت‌بخش‌تر خواهد بود.

منبع: https://www.forbes.com/sites/lanceeliot/2022/06/15/ai-ethics-shocking-revelation-that-training-ai-to-be-toxic-or-biased-might-be- سودمند-از جمله-برای-خودران-های-خودران/