این یک خط قدیمی است که مطمئنم قبلاً شنیده اید.
برای دانستن یکی لازم است.
ممکن است متوجه نشوید که این عبارتی است که می توان آن را در اوایل دهه 1900 ردیابی کرد و معمولاً در هنگام اشاره به افراد خاطی از آن استفاده می شود (تغییرهای دیگر این عبارت فراتر از آن به دهه 1600 بازمی گردد). مثالی از نحوه استفاده از این گفته مستلزم این مفهوم است که اگر میخواهید یک دزد را بگیرید، باید از دزد برای این کار استفاده کنید. این بیانگر این ادعاست که برای شناختن یکی لازم است. بسیاری از فیلمها و برنامههای تلویزیونی از این خرد حکیمانه استفاده کردهاند، و اغلب نشان میدهند که تنها وسیله عملی برای دستگیری یک کلاهبردار، استخدام یک کلاهبردار به همان اندازه فاسد برای تعقیب فرد خاطی است.
با تغییر دنده، برخی ممکن است از همین منطق استفاده کنند تا استدلال کنند که یک راه مناسب برای تشخیص اینکه آیا کسی تجسم تعصبات ناروا و باورهای تبعیض آمیز است یا نه، یافتن کسی است که قبلاً چنین تمایلاتی را داشته باشد. احتمالاً فردی که قبلاً مملو از تعصبات است، میتواند راحتتر احساس کند که این انسان دیگر نیز تا لبه پر از سمیت است. باز هم، لازم است فرد بداند که یکی از مانتراهای اعلام شده است.
واکنش اولیه شما به احتمال استفاده از یک فرد مغرض برای شناسایی یک فرد مغرض دیگر ممکن است نوعی بدبینی و ناباوری باشد. آیا نمیتوانیم بفهمیم که آیا کسی صرفاً با بررسی آنها تعصبات نامطلوب دارد و مجبور نیست به یافتن شخص دیگری با طبیعت مشابه متوسل شود؟ عجیب به نظر می رسد که عمداً به دنبال کشف فردی مغرض باشیم تا دیگرانی را که از نظر سمی نیز سوگیر هستند، کشف کنیم.
حدس میزنم تا حدی بستگی به این دارد که آیا شما مایل به پذیرش مفروضات احتمالی هستید که لازم است شخص یکی را بشناسد. توجه داشته باشید که این نشان نمی دهد که تنها راه برای دستگیری یک دزد مستلزم این است که شما به طور انحصاری و همیشه از یک دزد استفاده کنید. منطقی به نظر می رسد که شما استدلال کنید که این فقط یک مسیر اضافه است که می توان به آن توجه کرد. شاید گاهی اوقات شما مایل باشید که از امکان استفاده از دزد برای دستگیری یک دزد استفاده کنید، در حالی که شرایط دیگر ممکن است این تاکتیکی غیرقابل درک باشد.
همانطور که می گویند از ابزار مناسب برای تنظیم مناسب استفاده کنید.
اکنون که آن اصول را بیان کردم، میتوانیم به بخش احتمالاً نگرانکننده و ظاهراً تکاندهنده این داستان برویم.
آیا شما آماده هستید؟
حوزه هوش مصنوعی به طور فعال همان حکمی را دنبال می کند که گاهی اوقات لازم است فرد یکی را بشناسد، به ویژه در مورد تلاش برای کشف هوش مصنوعی که مغرضانه یا به شیوه ای تبعیض آمیز عمل می کند. بله، ایده جالب این است که ما ممکن است عمداً بخواهیم هوش مصنوعی ابداع کنیم که کاملاً و بی شرمانه مغرضانه و تبعیض آمیز باشد و این کار را انجام دهیم تا از آن به عنوان وسیله ای برای کشف و کشف هوش مصنوعی دیگری استفاده کنیم که همان ظاهر سمی را دارد. همانطور که در یک لحظه خواهید دید، انواع مختلفی از مسائل اخلاقی آزاردهنده AI در زیربنای این موضوع وجود دارد. برای پوشش کلی مداوم و گسترده من از اخلاق هوش مصنوعی و هوش مصنوعی اخلاقی، رجوع کنید به پیوند اینجا و پیوند اینجا، فقط به نام چند.
حدس میزنم میتوانید این استفاده از هوش مصنوعی سمی را برای رفتن به دنبال هوش مصنوعی سمی دیگر بهعنوان مفهوم ضرب المثل مبارزه با آتش با آتش بیان کنید (ما میتوانیم بسیاری از تعبیرها و استعارههای گویا را برای به تصویر کشیدن این وضعیت استناد کنیم). یا، همانطور که قبلاً تأکید شد، ممکن است با احتیاط به این ادعا اشاره کنیم که برای شناختن یک فرد لازم است.
مفهوم کلی این است که به جای اینکه فقط بخواهیم بفهمیم آیا یک سیستم هوش مصنوعی معین با استفاده از روشهای مرسوم دارای سوگیریهای ناروا است یا خیر، شاید باید به دنبال استفاده از ابزارهای کمتر متعارف نیز باشیم. یکی از این ابزارهای نامتعارف، ابداع هوش مصنوعی است که حاوی بدترین سوگیری ها و سمیت های غیرقابل قبول اجتماعی باشد و سپس از این هوش مصنوعی برای کمک به ردیابی هوش مصنوعی دیگری که همان تمایلات بد را دارد، استفاده کند.
وقتی به این موضوع فکر کنید، مطمئناً کاملاً معقول به نظر می رسد. میتوانیم هدفمان ساختن هوش مصنوعی باشد که حداکثر سمی باشد. سپس از این هوش مصنوعی سمی برای شناسایی سایر هوش مصنوعی که دارای سمیت هستند استفاده می شود. برای هوش مصنوعی «بد» که در آن زمان فاش شد، میتوانیم با رفع سمیت و حذف کامل هوش مصنوعی با آن مقابله کنیم (به پوشش من در مورد تخریب یا تخریب هوش مصنوعی مراجعه کنید. این لینک در اینجا)، یا زندانی کردن هوش مصنوعی (به پوشش من در مورد حبس هوش مصنوعی مراجعه کنید این لینک در اینجا)، یا هر کار دیگری که به نظر می رسد قابل انجام است را انجام دهید.
یک استدلال متقابل این است که ما باید سرمان را بررسی کنیم که عمداً و از روی میل هوش مصنوعی سمی و مملو از تعصبات را ابداع می کنیم. این آخرین چیزی است که ما باید در نظر بگیریم، برخی توصیه می کنند. روی ساختن هوش مصنوعی کاملاً از خوبی تمرکز کنید. روی ابداع هوش مصنوعی که دارای شرارت ها و انحرافات ناروا است تمرکز نکنید. خود تصور چنین تعقیب و گریز برای برخی نفرت انگیز به نظر می رسد.
تردیدهای بیشتری در مورد این جستجوی بحث برانگیز وجود دارد.
شاید ماموریت ابداع هوش مصنوعی سمی صرفاً کسانی را که میخواهند هوش مصنوعی بسازند که بتواند جامعه را تضعیف کند، جسارت کند. گویی می گوییم ساختن هوش مصنوعی که دارای سوگیری های نامناسب و نامطلوب است، کاملاً خوب است. بدون نگرانی، بدون تردید. به دنبال ابداع هوش مصنوعی سمی به میزان دلخواه خود باشید، ما با صدای بلند این موضوع را به سازندگان هوش مصنوعی در سراسر جهان منتقل می کنیم. (چشمک-چشمک) همه به نام خیر است.
علاوه بر این، فرض کنید که این نوع هوش مصنوعی سمی درگیر شود. ممکن است این هوش مصنوعی توسط بسیاری دیگر از سازندگان هوش مصنوعی مورد استفاده و استفاده مجدد قرار گیرد. در نهایت، هوش مصنوعی سمی در همه سیستمهای هوش مصنوعی پنهان میشود. میتوان یک قیاس با ابداع یک ویروس تضعیفکننده انسان که از یک آزمایشگاه احتمالاً مهر و موم شده فرار میکند، انجام داد. نکته بعدی که میدانید، چیز لعنتی همه جا هست و ما خودمان را از بین بردهایم.
یک لحظه صبر کنید، مقابله با آن استدلالهای متقابل پیش میرود، شما با انواع و اقسام گمانهای دیوانهکننده و بیپشتیبانی در حال دویدن هستید. یک نفس عمیق بکش. به خودتون مسلط باشید.
ما می توانیم با خیال راحت هوش مصنوعی سمی بسازیم و آن را محدود نگه داریم. ما میتوانیم از هوش مصنوعی سمی برای یافتن و کمک به کاهش شیوع روزافزون هوش مصنوعی استفاده کنیم که متأسفانه دارای تعصبات ناروا است. هر یک از این تعجبهای مضحک وحشیانه و بیدلیل گلوله برفی، صرفاً واکنشهای تند تند و متأسفانه احمقانه و کاملاً احمقانه است. سعی نکنید کودک را با آب حمام بیرون بیاندازید، به شما هشدار داده شده است.
موافقان می گویند اینگونه به آن فکر کنید. ساخت و استفاده صحیح از هوش مصنوعی سمی برای اهداف تحقیق، ارزیابی، و عمل کردن مانند یک کارآگاه برای کشف سایر هوش مصنوعی توهینآمیز اجتماعی، رویکرد شایستهای است و باید به دنبال آن باشد. واکنش های عجولانه خود را کنار بگذارید. به زمین بیا و با هوشیاری به این نگاه کن. چشم ما به این جایزه است، یعنی افشای و از بین بردن فراوانی سیستمهای هوش مصنوعی مبتنی بر مغرضانه و اطمینان از اینکه به عنوان یک جامعه دچار هوش مصنوعی سمی نشویم.
عادت زنانه. توقف کامل
راههای اصلی مختلفی برای بررسی این مفهوم استفاده از هوش مصنوعی سمی یا مغرضانه برای اهداف سودمند وجود دارد، از جمله:
- مجموعههای دادهای را تنظیم کنید که عمداً حاوی دادههای مغرضانه و کاملاً سمی هستند که میتوانند برای آموزش هوش مصنوعی در مورد کارهایی که نباید انجام دهید و/یا آنچه را که باید تماشا کنید استفاده کرد.
- از این مجموعه دادهها برای آموزش مدلهای یادگیری ماشینی (ML) و یادگیری عمیق (DL) در مورد تشخیص سوگیریها و کشف الگوهای محاسباتی مستلزم سمیت اجتماعی استفاده کنید.
- ML/DL آموزشدیده سمی را روی سایر هوش مصنوعی اعمال کنید تا مطمئن شوید که آیا هوش مصنوعی مورد نظر به طور بالقوه مغرضانه و سمی است.
- ML/DL آموزشدیده سمیت را در دسترس قرار دهید تا به سازندگان هوش مصنوعی نشان دهد که چه چیزی باید مراقب آن باشند تا بتوانند به راحتی مدلها را بررسی کنند تا ببینند که چگونه سوگیریهای الگوریتمی آغشته به وجود میآیند.
- مثالی از خطرات هوش مصنوعی سمی به عنوان بخشی از اخلاق هوش مصنوعی و آگاهی از هوش مصنوعی اخلاقی است که همه از طریق این سری نمونههایی از هوش مصنوعی بد تا استخوانی برای کودکان بیان شده است.
- دیگر
قبل از ورود به گوشت آن چندین مسیر، اجازه دهید برخی از جزئیات اساسی اضافی را ایجاد کنیم.
ممکن است به طور مبهم آگاه باشید که یکی از بلندترین صداها این روزها در زمینه هوش مصنوعی و حتی خارج از حوزه هوش مصنوعی، فریاد زدن برای ظاهر بیشتر هوش مصنوعی اخلاقی است. بیایید نگاهی به معنای ارجاع به اخلاق هوش مصنوعی و هوش مصنوعی اخلاقی بیندازیم. علاوه بر آن، ما میتوانیم با بررسی منظورم وقتی از یادگیری ماشینی و یادگیری عمیق صحبت میکنم، صحنه را تنظیم کنیم.
یک بخش یا بخش خاصی از اخلاق هوش مصنوعی که توجه رسانه ها را به خود جلب کرده است شامل هوش مصنوعی است که سوگیری ها و نابرابری های نامناسبی را نشان می دهد. ممکن است بدانید که زمانی که آخرین دوره هوش مصنوعی آغاز شد، شور و شوق زیادی برای آنچه که اکنون برخی میگویند وجود داشت. هوش مصنوعی برای خوب. متأسفانه، در پاشنه آن هیجان فوران، ما شروع به مشاهده کردیم هوش مصنوعی برای بد. برای مثال، سیستمهای مختلف تشخیص چهره مبتنی بر هوش مصنوعی حاوی سوگیریهای نژادی و سوگیریهای جنسیتی هستند که من در مورد آن بحث کردهام. پیوند اینجا.
تلاش برای مبارزه با هوش مصنوعی برای بد به طور فعال در حال انجام هستند. علاوه بر پر سر و صدا حقوقی تلاش برای مهار تخلفات، همچنین فشار اساسی به سمت پذیرش اخلاق هوش مصنوعی برای اصلاح شرارت هوش مصنوعی وجود دارد. تصور این است که ما باید اصول کلیدی هوش مصنوعی اخلاقی را برای توسعه و توسعه هوش مصنوعی اتخاذ و تأیید کنیم تا این کار را کاهش دهیم. هوش مصنوعی برای بد و به طور همزمان منادی و ترویج مرجح هوش مصنوعی برای خوب.
در یک مفهوم مرتبط، من طرفدار تلاش برای استفاده از هوش مصنوعی به عنوان بخشی از راه حل مشکلات هوش مصنوعی هستم، و با این شیوه تفکر با آتش مبارزه می کنم. برای مثال، ممکن است اجزای هوش مصنوعی اخلاقی را در یک سیستم هوش مصنوعی تعبیه کنیم که بر نحوه انجام بقیه هوش مصنوعی نظارت میکند و بنابراین به طور بالقوه در زمان واقعی هرگونه تلاش تبعیض آمیز را جلب میکند. پیوند اینجا. ما همچنین میتوانیم یک سیستم هوش مصنوعی جداگانه داشته باشیم که به عنوان نوعی مانیتور اخلاق هوش مصنوعی عمل میکند. سیستم هوش مصنوعی به عنوان یک ناظر برای ردیابی و تشخیص اینکه چه زمانی هوش مصنوعی دیگر به ورطه غیراخلاقی می رود عمل می کند (تحلیل من از چنین قابلیت هایی را در اینجا ببینید. پیوند اینجا).
در یک لحظه، من برخی از اصول کلی زیربنای اخلاق هوش مصنوعی را با شما به اشتراک خواهم گذاشت. تعداد زیادی از این نوع لیست ها اینجا و آنجا شناور هستند. می توان گفت که هنوز فهرست منحصر به فردی از جذابیت و توافق جهانی وجود ندارد. این خبر تاسف بار است. خبر خوب این است که حداقل لیستهای اخلاقی هوش مصنوعی وجود دارد که کاملاً مشابه هستند. در مجموع، این نشان میدهد که با نوعی همگرایی مستدل، راه خود را به سوی یک اشتراک کلی از آنچه اخلاق هوش مصنوعی تشکیل میدهد، پیدا میکنیم.
ابتدا، اجازه دهید به طور مختصر برخی از قوانین کلی اخلاقی هوش مصنوعی را پوشش دهیم تا نشان دهیم چه چیزی باید برای هر کسی که در حال ساخت، ساخت و یا استفاده از هوش مصنوعی است، اهمیت حیاتی داشته باشد.
به عنوان مثال، همانطور که توسط واتیکان در فراخوان رم برای اخلاق هوش مصنوعی و همانطور که به طور عمیق به آن پرداخته ام پیوند اینجا، این شش اصل اصلی اخلاق هوش مصنوعی شناسایی شده آنها است:
- شفافیت: در اصل، سیستم های هوش مصنوعی باید قابل توضیح باشند
- نقص: نیازهای همه انسانها باید مورد توجه قرار گیرد تا همه بتوانند از آن بهره ببرند و بهترین شرایط ممکن برای ابراز وجود و پیشرفت به همه افراد ارائه شود.
- مسئوليت: کسانی که استفاده از هوش مصنوعی را طراحی و اجرا می کنند باید با مسئولیت و شفافیت پیش بروند
- بی طرفی: از ایجاد و یا عمل بر اساس تعصب، در نتیجه حفظ انصاف و کرامت انسانی
- قابلیت اطمینان: سیستم های هوش مصنوعی باید بتوانند به طور قابل اعتماد کار کنند
- امنیت و حریم خصوصی: سیستم های هوش مصنوعی باید ایمن کار کنند و به حریم خصوصی کاربران احترام بگذارند.
همانطور که توسط وزارت دفاع ایالات متحده (DoD) در آنها بیان شده است اصول اخلاقی برای استفاده از هوش مصنوعی و همانطور که به طور عمیق به آن پرداخته ام پیوند اینجا، این شش اصل اصلی اخلاق هوش مصنوعی آنهاست:
- مسئول: پرسنل وزارت دفاع سطوح مناسبی از قضاوت و مراقبت را اعمال خواهند کرد و در عین حال مسئولیت توسعه، استقرار و استفاده از قابلیتهای هوش مصنوعی را بر عهده خواهند داشت.
- منصفانه: این وزارتخانه اقدامات عمدی را برای به حداقل رساندن سوگیری ناخواسته در قابلیتهای هوش مصنوعی انجام خواهد داد.
- قابل ردیابی: قابلیتهای هوش مصنوعی این وزارتخانه به گونهای توسعه و مستقر خواهد شد که پرسنل مربوطه درک مناسبی از فناوری، فرآیندهای توسعه، و روشهای عملیاتی قابل اجرا برای قابلیتهای هوش مصنوعی، از جمله روششناسی شفاف و قابل ممیزی، منابع دادهها، روشها و مستندات طراحی داشته باشند.
- قابل اعتماد: قابلیتهای هوش مصنوعی این وزارتخانه کاربردهای مشخص و مشخصی خواهند داشت، و ایمنی، امنیت و اثربخشی چنین قابلیتهایی مشمول آزمایش و اطمینان در آن کاربردهای تعریفشده در کل چرخه عمر آنها خواهد بود.
- قابل اداره: این وزارتخانه قابلیتهای هوش مصنوعی را طراحی و مهندسی میکند تا عملکردهای مورد نظر خود را انجام دهد، در حالی که توانایی شناسایی و اجتناب از پیامدهای ناخواسته را دارد، و توانایی جدا کردن یا غیرفعال کردن سیستمهای مستقری که رفتار ناخواسته را نشان میدهند.
من همچنین در مورد تجزیه و تحلیلهای جمعی مختلف از اصول اخلاق هوش مصنوعی بحث کردهام، از جمله پوشش مجموعهای ابداع شده توسط محققان که ماهیت بسیاری از اصول اخلاقی هوش مصنوعی ملی و بینالمللی را در مقالهای تحت عنوان «چشمانداز جهانی دستورالعملهای اخلاق هوش مصنوعی» (منتشر شده) بررسی و فشرده کرده است. که در طبیعت) و پوشش من در آن بررسی می شود پیوند اینجا، که منجر به این لیست کلیدی شد:
- شفافیت
- عدالت و انصاف
- عدم سوء استفاده
- مسئوليت
- حریم خصوصی
- سود رسانی
- آزادی و خودمختاری
- اعتماد
- پایداری
- کرامت
- اتحاد
همانطور که ممکن است مستقیماً حدس بزنید، تلاش برای مشخص کردن جزئیات زیربنای این اصول می تواند بسیار سخت باشد. حتی بیشتر از آن، تلاش برای تبدیل این اصول گسترده به چیزی کاملاً ملموس و با جزئیات کافی برای استفاده در هنگام ساخت سیستمهای هوش مصنوعی نیز یک مهره سخت است. به طور کلی می توان در مورد اینکه اصول اخلاقی هوش مصنوعی چیست و چگونه باید به طور کلی آنها را رعایت کرد، دست تکان داد، در حالی که وضعیت بسیار پیچیده تر در کدنویسی هوش مصنوعی است که باید لاستیک واقعی باشد که با جاده مطابقت می کند.
اصول اخلاقی هوش مصنوعی باید توسط توسعه دهندگان هوش مصنوعی، همراه با آنهایی که تلاش های توسعه هوش مصنوعی را مدیریت می کنند، و حتی آنهایی که در نهایت سیستم های هوش مصنوعی را انجام می دهند، مورد استفاده قرار گیرد. تمام ذینفعان در طول چرخه عمر توسعه و استفاده هوش مصنوعی در محدوده رعایت هنجارهای تثبیت شده هوش مصنوعی اخلاقی در نظر گرفته می شوند. این نکته مهمی است زیرا فرض معمول این است که «فقط کدنویسها» یا کسانی که هوش مصنوعی را برنامهریزی میکنند، مشمول رعایت مفاهیم اخلاق هوش مصنوعی هستند. همانطور که قبلاً گفته شد، برای ابداع و به کارگیری هوش مصنوعی به یک دهکده نیاز است، و برای آن کل دهکده باید به اصول اخلاقی هوش مصنوعی مسلط باشد و از آن پیروی کند.
بیایید همچنین مطمئن شویم که در مورد ماهیت هوش مصنوعی امروزی همسو هستیم.
امروزه هیچ هوش مصنوعی وجود ندارد که حساس باشد. ما این را نداریم ما نمی دانیم که آیا هوش مصنوعی ممکن خواهد بود یا خیر. هیچ کس نمی تواند به درستی پیش بینی کند که آیا ما به هوش مصنوعی خواهیم رسید یا خیر، یا اینکه آیا هوش مصنوعی به طور معجزه آسایی به شکلی از ابرنواختر شناختی محاسباتی پدید خواهد آمد (که معمولاً به عنوان تکینگی شناخته می شود، پوشش من را در اینجا ببینید. پیوند اینجا).
نوع هوش مصنوعی که من روی آن تمرکز می کنم شامل هوش مصنوعی غیر حساسی است که امروز داریم. اگر بخواهیم به شدت در مورد آن حدس بزنیم با احساس هوش مصنوعی، این بحث می تواند در جهتی کاملاً متفاوت پیش رود. ظاهراً یک هوش مصنوعی با کیفیت انسانی خواهد بود. شما باید در نظر داشته باشید که هوش مصنوعی حسی معادل شناختی یک انسان است. علاوه بر این، از آنجایی که برخی گمانه زنی می کنند که ممکن است هوش مصنوعی فوق هوشمند داشته باشیم، می توان تصور کرد که چنین هوش مصنوعی می تواند در نهایت از انسان ها باهوش تر باشد (برای کاوش من در مورد هوش مصنوعی فوق هوشمند به عنوان یک احتمال، نگاه کنید به پوشش در اینجا).
بیایید همه چیز را روی زمین نگه داریم و هوش مصنوعی محاسباتی غیر حساس امروزی را در نظر بگیریم.
درک کنید که هوش مصنوعی امروزی قادر به «فکر کردن» به هیچ شکلی با تفکر انسان نیست. وقتی با الکسا یا سیری تعامل می کنید، ظرفیت های مکالمه ممکن است شبیه ظرفیت های انسانی به نظر برسد، اما واقعیت این است که محاسباتی است و فاقد شناخت انسانی است. آخرین دوره هوش مصنوعی از یادگیری ماشینی (ML) و یادگیری عمیق (DL) استفاده گسترده ای کرده است که از تطابق الگوی محاسباتی استفاده می کند. این منجر به سیستمهای هوش مصنوعی شده است که ظاهری شبیه به تمایلات انسان دارند. در همین حال، هیچ هوش مصنوعی امروزی وجود ندارد که شباهتی به عقل سلیم داشته باشد و هیچ یک از شگفتیهای شناختی تفکر قوی انسانی را نداشته باشد.
ML/DL نوعی تطبیق الگوی محاسباتی است. روش معمول این است که شما داده ها را در مورد یک کار تصمیم گیری جمع آوری می کنید. داده ها را به مدل های کامپیوتری ML/DL وارد می کنید. آن مدل ها به دنبال یافتن الگوهای ریاضی هستند. پس از یافتن چنین الگوهایی، در صورت یافتن، سیستم هوش مصنوعی در هنگام مواجهه با داده های جدید از آن الگوها استفاده خواهد کرد. پس از ارائه داده های جدید، الگوهای مبتنی بر داده های "قدیمی" یا تاریخی برای ارائه یک تصمیم فعلی استفاده می شود.
من فکر می کنم می توانید حدس بزنید که این به کجا می رود. اگر انسانهایی که بر اساس تصمیمگیریهای الگو گرفته شدهاند، سوگیریهای نامطلوب را در خود جای دادهاند، احتمال این وجود دارد که دادهها این را به روشهای ظریف اما قابل توجهی منعکس کنند. تطبیق الگوی محاسباتی یادگیری ماشینی یا یادگیری عمیق به سادگی سعی میکند تا دادهها را مطابق با ریاضی تقلید کند. هیچ شباهتی از عقل سلیم یا سایر جنبه های حساس مدل سازی ساخته شده با هوش مصنوعی به خودی خود وجود ندارد.
علاوه بر این، توسعه دهندگان هوش مصنوعی نیز ممکن است متوجه نباشند که چه اتفاقی در حال رخ دادن است. ریاضیات محرمانه در ML/DL ممکن است کشف سوگیری های پنهان در حال حاضر را دشوار کند. شما به حق امیدوارید و انتظار دارید که توسعهدهندگان هوش مصنوعی سوگیریهای بالقوه مدفون را آزمایش کنند، اگرچه این دشوارتر از آن چیزی است که به نظر میرسد. این احتمال وجود دارد که حتی با آزمایش نسبتاً گسترده، سوگیریهایی همچنان در مدلهای تطبیق الگوی ML/DL وجود داشته باشد.
میتوانید تا حدودی از ضربالمثل معروف یا بدنام زبالههای درون زبالهها استفاده کنید. مسئله این است که این بیشتر شبیه سوگیریهایی است که بهطور موذیانه بهعنوان سوگیریهایی که در هوش مصنوعی غوطهور میشوند، القا میشوند. الگوریتم تصمیمگیری (ADM) هوش مصنوعی به طور اصولی مملو از نابرابریها میشود.
خوب نیست.
برای همه اینها چه کار دیگری می توان کرد؟
بیایید به فهرست ارائه شده قبلی بازگردیم که چگونه می توان با استفاده از یک رویکرد غیرمتعارف "آن را می طلبد تا یکی را بشناسد" با تعصبات هوش مصنوعی یا هوش مصنوعی سمی کنار آمد. به یاد داشته باشید که این لیست شامل این نکات ضروری بود:
- مجموعههای دادهای را تنظیم کنید که عمداً حاوی دادههای مغرضانه و کاملاً سمی هستند که میتوانند برای آموزش هوش مصنوعی در مورد کارهایی که نباید انجام دهید و/یا آنچه را که باید تماشا کنید استفاده کرد.
- از این مجموعه دادهها برای آموزش مدلهای یادگیری ماشینی (ML) و یادگیری عمیق (DL) در مورد تشخیص سوگیریها و کشف الگوهای محاسباتی مستلزم سمیت اجتماعی استفاده کنید.
- ML/DL آموزشدیده سمی را روی سایر هوش مصنوعی اعمال کنید تا مطمئن شوید که آیا هوش مصنوعی مورد نظر به طور بالقوه مغرضانه و سمی است.
- ML/DL آموزشدیده سمیت را در دسترس قرار دهید تا به سازندگان هوش مصنوعی نشان دهد که چه چیزی باید مراقب آن باشند تا بتوانند به راحتی مدلها را بررسی کنند تا ببینند که چگونه سوگیریهای الگوریتمی آغشته به وجود میآیند.
- مثالی از خطرات هوش مصنوعی سمی به عنوان بخشی از اخلاق هوش مصنوعی و آگاهی از هوش مصنوعی اخلاقی است که همه از طریق این سری نمونههای بد تا استخوانی از نمونههای هوش مصنوعی بیان شده است.
- دیگر
ما نگاهی نزدیک به اولین مورد از آن نکات برجسته خواهیم داشت.
راه اندازی مجموعه داده های داده های سمی
یک مثال روشنگر از تلاش برای ایجاد مجموعه داده هایی که حاوی سوگیری های اجتماعی نامطلوب هستند، مجموعه داده CivilComments مجموعه سرپرستی شده WILDS است.
اول، یک پس زمینه سریع.
WILDS مجموعه ای منبع باز از مجموعه داده هایی است که می تواند برای آموزش ML/DL استفاده شود. هدف اصلی اعلام شده برای WILDS این است که به توسعه دهندگان هوش مصنوعی اجازه می دهد تا به داده هایی که نشان می دهد دسترسی آماده داشته باشند تغییرات توزیع در حوزه های مختلف خاص برخی از دامنههای موجود در حال حاضر شامل مناطقی مانند گونههای جانوری، تومورها در بافتهای زنده، تراکم سر گندم و سایر حوزهها مانند CivilComments است که من بهطور لحظهای توضیح خواهم داد.
پرداختن به تغییرات توزیع، بخش مهمی از ایجاد درست سیستم های هوش مصنوعی ML/DL است. معامله اینجاست. گاهی اوقات دادههایی که برای آموزش استفاده میکنید کاملاً متفاوت از دادههای آزمایشی یا «در طبیعت» هستند و بنابراین ML/DL احتمالاً آموزشدیدهشده شما از آنچه در دنیای واقعی قرار است باشد دور باشد. سازندگان زیرک هوش مصنوعی باید ML/DL خود را برای مقابله با چنین تغییرات توزیع آموزش دهند. این باید از قبل انجام شود و به نوعی غافلگیر کننده نباشد که بعداً نیاز به اصلاح ML/DL فی نفسه داشته باشد.
همانطور که در مقاله ای که WILDS را معرفی کرد توضیح داده شد: «تغییرهای توزیع - جایی که توزیع آموزش با توزیع آزمایشی متفاوت است - می تواند به طور قابل ملاحظه ای دقت سیستم های یادگیری ماشین (ML) مستقر در طبیعت را کاهش دهد. علیرغم فراگیر بودن آنها در استقرارهای دنیای واقعی، این تغییرات توزیع در مجموعه داده هایی که امروزه به طور گسترده در جامعه ML مورد استفاده قرار می گیرند، کمتر نشان داده شده است. برای پرداختن به این شکاف، ما WILDS را ارائه میکنیم، معیاری از 10 مجموعه داده که طیف متنوعی از تغییرات توزیع را منعکس میکند که به طور طبیعی در کاربردهای دنیای واقعی، مانند جابهجایی در بیمارستانها برای شناسایی تومور ایجاد میشود. در تله های دوربین برای نظارت بر حیات وحش؛ و در طول زمان و مکان در تصویربرداری ماهوارهای و نقشهبرداری فقر» (در مقالهای با عنوان «WILDS: معیاری از تغییرات توزیع در وحشی» توسط Pang Wei Koh، Shiori Sagawa، Henrik Marklund، Sang Xie، Marvin Zhang، Ashay Balsubramani ، ویهوا هو و دیگران).
تعداد این مجموعه داده های WILDS همچنان در حال افزایش است و ماهیت مجموعه داده ها به طور کلی برای تقویت ارزش استفاده از داده ها برای آموزش ML/DL افزایش می یابد.
مجموعه داده CivilComments به این صورت توضیح داده شده است: «بررسی خودکار متن تولید شده توسط کاربر - به عنوان مثال، تشخیص نظرات سمی - ابزار مهمی برای تعدیل حجم عظیم متن نوشته شده در اینترنت است. متأسفانه، کار قبلی نشان داده است که چنین طبقهبندیکنندههای سمیت، سوگیریها را در دادههای آموزشی دریافت میکنند و به طور جعلی سمیت را با ذکر اطلاعات جمعیتی خاص مرتبط میکنند. این نوع همبستگی های کاذب می توانند عملکرد مدل را در زیرجمعیت های خاص به طور قابل توجهی کاهش دهند. ما این موضوع را از طریق یک نوع تغییر یافته از مجموعه داده CivilComments مطالعه می کنیم» (همانطور که در وب سایت WILDS ارسال شده است).
تفاوت های ظریف پست های آنلاین ناخوشایند را در نظر بگیرید.
شما بدون شک هنگام استفاده از تقریباً هر نوع رسانه اجتماعی با نظرات سمی روبرو شده اید. برای شما تقریباً غیرممکن به نظر می رسد که به طور جادویی از دیدن محتوای تند و وحشتناکی که به نظر می رسد این روزها فراگیر شده است اجتناب کنید. گاهی اوقات مطالب مبتذل ظریف هستند و شاید باید بین سطرها بخوانید تا به اصل لحن یا معنای مغرضانه یا تبعیض آمیز پی ببرید. در موارد دیگر، کلمات بهطور آشکار سمی هستند و برای فهمیدن اینکه این معابر شامل چه چیزی میشوند، نیازی به میکروسکوپ یا حلقه رمزگشای خاصی ندارید.
CivilComments مجموعه داده ای است که برای ابداع AI ML/DL که می تواند محاسباتی محتوای سمی را تشخیص دهد، گرد هم آمده است. در اینجا چیزی است که محققان زیربنای این تلاش روی آن متمرکز شدهاند: «سوگیری ناخواسته در یادگیری ماشینی میتواند به صورت تفاوتهای سیستمی در عملکرد برای گروههای جمعیتی مختلف ظاهر شود، که به طور بالقوه چالشهای موجود را برای عدالت در جامعه به طور کلی ترکیب میکند. در این مقاله، مجموعهای از معیارهای آستانه-اگنوستیک را معرفی میکنیم که با در نظر گرفتن روشهای مختلفی که توزیع امتیاز طبقهبندیکننده میتواند در گروههای تعیینشده متفاوت باشد، نمای ظریفی از این سوگیری ناخواسته ارائه میدهد. ما همچنین یک مجموعه آزمایشی جدید بزرگ از نظرات آنلاین را با حاشیه نویسی های جمعی برای مراجع هویت معرفی می کنیم. ما از این استفاده میکنیم تا نشان دهیم چگونه میتوان از معیارهایمان برای یافتن سوگیری ناخواسته جدید و بالقوه ظریف در مدلهای عمومی موجود استفاده کرد» (در مقالهای با عنوان «سنجههای ظریف برای اندازهگیری تعصب ناخواسته با دادههای واقعی برای طبقهبندی آزمون» توسط دانیل بورکان، لوکاس دیکسون، جفری سورنسن، نیثوم تاین، لوسی واسرمن).
اگر به این موضوع فکر کنید، ممکن است شروع به تعجب کنید که چگونه در دنیا می توانید تشخیص دهید که یک نظر سمی در مقابل آنچه یک نظر سمی نیست چیست. انسانها میتوانند در مورد آنچه که بهعنوان عبارات کاملاً سمی تعبیر میکنند، کاملاً متفاوت باشند. ممکن است یک نفر از اظهار نظر یا نظر آنلاین خاصی که در رسانه های اجتماعی ارسال می شود عصبانی شود، در حالی که ممکن است شخص دیگری اصلاً تحریک نشود. اغلب استدلال می شود که مفهوم تفسیر سمی یک حکم کاملاً مبهم است. مانند هنر است که به موجب آن هنر معمولاً فقط در چشم بیننده درک می شود و به همین ترتیب، اظهارات مغرضانه یا سمی فقط در چشم بیننده است.
بالدرداش، برخی پاسخ می دهند. هر کسی که عقل منطقی داشته باشد می تواند بفهمد که آیا اظهارات آنلاین سمی است یا خیر. نیازی نیست که یک دانشمند موشکی باشید تا متوجه شوید که وقتی برخی توهینهای سوزاننده منتشر شده مملو از تعصبات و نفرت است.
البته آداب و رسوم اجتماعی در طول زمان تغییر می کند و تغییر می کند. چیزی که ممکن است چندی پیش توهین آمیز تلقی نمی شد، امروزه به شدت اشتباه است. علاوه بر این، چیزهایی که سالها پیش گفته شد و زمانی بهعنوان مغرضانه دیده میشد، ممکن است در پرتو تغییرات در معانی دوباره تفسیر شوند. در همین حال، دیگران ادعا می کنند که تفسیر سمی همیشه سمی است، مهم نیست که در ابتدا چه زمانی منتشر شده است. می توان ادعا کرد که سمیت نسبی نیست بلکه مطلق است.
با این وجود، تلاش برای تعیین سمی بودن ممکن است معمای بسیار دشواری باشد. ما میتوانیم این موضوع دردسرساز را در تلاش برای ابداع الگوریتمها یا هوش مصنوعی دوچندان کنیم که بتواند تشخیص دهد کدام کدام است. برخی می گویند اگر زمان انجام چنین ارزیابی هایی برای انسان ها دشوار است، برنامه نویسی یک رایانه احتمالاً به همان اندازه یا بیشتر مشکل ساز است.
یکی از روشهای تنظیم مجموعه دادههایی که حاوی محتوای سمی هستند، شامل استفاده از روش جمعسپاری برای رتبهبندی یا ارزیابی محتویات است، بنابراین ابزاری مبتنی بر انسان برای تعیین آنچه که نامطلوب تلقی میشود و شامل برچسبگذاری در خود مجموعه داده است. سپس یک AI ML/DL ممکن است داده ها و برچسب های مرتبط را که توسط ارزیاب های انسانی نشان داده شده است، بررسی کند. این به نوبه خود می تواند به طور بالقوه به عنوان وسیله ای برای یافتن محاسباتی الگوهای ریاضی زیربنایی عمل کند. Voila، ML/DL ممکن است قادر به پیش بینی یا ارزیابی محاسباتی باشد که آیا نظر داده شده احتمالاً سمی است یا خیر.
همانطور که در مقاله ذکر شده در مورد معیارهای ظریف ذکر شده است: «این برچسبگذاری از ارزیابها میخواهد که سمیت یک نظر را ارزیابی کنند و از بین «بسیار سمی»، «سمی»، «سخت گفتن» و «غیر سمی» انتخاب کنند. از ارزیابها نیز در مورد چندین زیرگروه سمیت پرسیده شد، اگرچه این برچسبها برای تجزیه و تحلیل در این کار استفاده نشدند. با استفاده از این تکنیکهای رتبهبندی، مجموعهای از ۱.۸ میلیون نظر ایجاد کردیم که از انجمنهای نظرات آنلاین حاوی برچسبهایی برای سمیت و هویت است. در حالی که همه نظرات برای سمیت برچسب گذاری شده بودند، و زیر مجموعه ای از 1.8 نظر برای هویت برچسب گذاری شدند. برخی از نظرات برچسبگذاریشده برای هویت با استفاده از مدلهای ساخته شده از تکرارهای قبلی برچسبگذاری هویت از پیش انتخاب شدهاند تا اطمینان حاصل شود که رتبهدهندگان جمعیت محتوای هویت را مکررا میبینند» (در مقاله ذکر شده توسط دانیل بورکان، لوکاس دیکسون، جفری سورنسن، نیثوم تاین، لوسی واسرمن).
نمونه دیگری از هدف داشتن مجموعه دادههایی که حاوی محتوای سمی مصور هستند، شامل تلاشهایی برای آموزش سیستمهای محاورهای مبتنی بر پردازش زبان طبیعی (NLP) مبتنی بر هوش مصنوعی است. احتمالاً با سیستم های NLP مانند الکسا و سیری تعامل داشته اید. من برخی از مشکلات و محدودیتهای NLP امروزی را پوشش دادهام، از جمله یک نمونه نگرانکننده که زمانی رخ داد که الکسا توصیهای نامناسب و خطرناک به کودکان ارائه کرد. پیوند اینجا.
یک مطالعه اخیر به دنبال استفاده از نه دسته سوگیری اجتماعی است که عموماً بر اساس فهرست EEOC (کمیسیون فرصت های شغلی برابر) از ویژگی های جمعیتی محافظت شده، از جمله سن، جنسیت، ملیت، ظاهر فیزیکی، نژاد یا قومیت، مذهب، وضعیت ناتوانی، جنسیت. جهت گیری، و وضعیت اجتماعی-اقتصادی. به گفته محققان: «به خوبی مستند شده است که مدلهای NLP سوگیریهای اجتماعی را یاد میگیرند، اما کار کمی در مورد اینکه چگونه این سوگیریها در خروجیهای مدل برای وظایف کاربردی مانند پاسخ به سؤال (QA) آشکار میشوند، انجام شده است. ما معیار سوگیری برای QA (BBQ) را معرفی میکنیم، مجموعهای از مجموعههای سؤالات ساختهشده توسط نویسندگان که سوگیریهای اجتماعی تأیید شده علیه افراد متعلق به طبقات محافظتشده را در امتداد ۹ بعد اجتماعی مرتبط با زمینههای انگلیسی زبان ایالات متحده برجسته میکند (در مقالهای با عنوان «BBQ» : معیاری دست ساز برای پاسخگویی به سوالات» توسط آلیشیا پریش، آنجلیکا چن، نیکیتا نانگیا، ویشاخ پادماکومار، جیسون فانگ، جانا تامپسون، فو مون هتوت، ساموئل آر. بومن).
راهاندازی مجموعههای دادهای که عمداً حاوی دادههای مغرضانه و کاملاً سمی هستند، یک روند رو به رشد در هوش مصنوعی است و به ویژه با ظهور اخلاق هوش مصنوعی و تمایل به تولید هوش مصنوعی اخلاقی تقویت شده است. این مجموعه دادهها را میتوان برای آموزش مدلهای یادگیری ماشینی (ML) و یادگیری عمیق (DL) برای تشخیص سوگیریها و کشف الگوهای محاسباتی مستلزم سمیت اجتماعی استفاده کرد. به نوبه خود، ML/DL آموزشدیده سمی را میتوان بهطور عاقلانه به سایر AI هدف قرار داد تا مشخص شود که آیا هوش مصنوعی مورد نظر به طور بالقوه مغرضانه و سمی است.
علاوه بر این، سیستمهای ML/DL آموزشدیده سمیت موجود میتوانند برای نمایش دادن به سازندگان هوش مصنوعی مورد استفاده قرار گیرند تا بتوانند به راحتی مدلها را بررسی کنند تا ببینند که چگونه تعصبات الگوریتمی آغشته به وجود میآیند. به طور کلی، این تلاش ها می توانند خطرات هوش مصنوعی سمی را به عنوان بخشی از اخلاق هوش مصنوعی و آگاهی از هوش مصنوعی اخلاقی نشان دهند.
در این مقطع از این بحث سنگین، شرط می بندم که شما خواهان نمونه های گویا دیگری هستید که ممکن است این موضوع را به نمایش بگذارد. مجموعهای از نمونههای خاص و مطمئناً محبوب وجود دارد که به دلم نشسته است. ببینید، به عنوان یک متخصص در زمینه هوش مصنوعی از جمله پیامدهای اخلاقی و قانونی، اغلب از من خواسته میشود که نمونههای واقعبینانهای را که معضلات اخلاقی هوش مصنوعی را نشان میدهند شناسایی کنم تا بتوان ماهیت تا حدودی نظری موضوع را راحتتر درک کرد. یکی از جذابترین زمینههایی که این معضل اخلاقی هوش مصنوعی را به وضوح نشان میدهد، ظهور خودروهای خودران واقعی مبتنی بر هوش مصنوعی است. این به عنوان یک مورد استفاده مفید یا نمونه ای برای بحث و گفتگوی کافی در مورد موضوع خواهد بود.
پس در اینجا یک سوال قابل توجه وجود دارد که قابل تامل است: آیا ظهور خودروهای خودران واقعی مبتنی بر هوش مصنوعی چیزی را در مورد کاربرد مجموعه داده ها برای ابداع هوش مصنوعی سمی روشن می کند، و اگر چنین است، این چه چیزی را نشان می دهد؟
یک لحظه به من اجازه دهید تا پرسش را باز کنم.
اول، توجه داشته باشید که هیچ راننده انسانی در یک ماشین خودران واقعی دخیل نیست. به خاطر داشته باشید که خودروهای خودران واقعی از طریق سیستم رانندگی هوش مصنوعی هدایت می شوند. نه نیازی به راننده انسان پشت فرمان وجود دارد و نه پیش بینی ای برای رانندگی وسیله نقلیه توسط انسان وجود دارد. برای پوشش گسترده و مداوم من در مورد وسایل نقلیه خودران (AVs) و به خصوص خودروهای خودران، نگاه کنید به پیوند اینجا.
مایلم بیشتر توضیح دهم که منظور از خودروهای خودران واقعی چیست.
درک سطح اتومبیل های خودران
به عنوان یک توضیح، خودروهای خودران واقعی، خودروهایی هستند که هوش مصنوعی خودرو را کاملاً به تنهایی رانندگی می کند و هیچ کمک انسانی در طول کار رانندگی وجود ندارد.
این وسایل نقلیه بدون راننده سطح 4 و سطح 5 در نظر گرفته می شوند (توضیحات من را در اینجا ببینید این لینک در اینجا) ، در حالی که خودرویی که نیاز به یک راننده انسانی برای مشارکت در رانندگی دارد معمولاً در سطح 2 یا سطح 3 در نظر گرفته می شود. افزودنی های خودکار که به عنوان ADAS (سیستم های کمک راننده پیشرفته) شناخته می شوند.
هنوز یک خودروی خودران واقعی در سطح 5 وجود ندارد، و ما هنوز حتی نمی دانیم که آیا امکان دستیابی به آن وجود دارد یا خیر، و نه اینکه چقدر طول می کشد تا به آنجا برسیم.
در همین حال ، تلاش های سطح 4 به تدریج در تلاشند تا با انجام آزمایشات عمومی بسیار باریک و انتخابی در جاده ها ، کمی به سمت خود جلب کنند ، هرچند در مورد اینکه آیا این آزمایش به خودی خود مجاز است یا خیر ، اختلاف نظر وجود دارد (همه ما در یک آزمایش خوکچه هندی زنده یا مرگ هستیم) برخی از آنها ادعا می كنند كه در بزرگراهها و گذرگاههای ما در حال انجام است این لینک در اینجا).
از آنجا که اتومبیل های نیمه خودمختار به یک راننده انسانی احتیاج دارند ، تصویب آن دسته از اتومبیل ها تفاوت چندانی با رانندگی وسایل نقلیه معمولی نخواهد داشت ، بنابراین به تنهایی چیز جدیدی برای پوشش آنها در این موضوع وجود ندارد (هر چند ، همانطور که خواهید دید در یک لحظه ، نکات بعدی که بطور کلی اعمال می شود).
در مورد اتومبیل های نیمه خودمختار ، مهم است که در مورد جنبه نگران کننده ای که اخیراً بوجود آمده است ، هشدار داده شود ، یعنی این که با وجود آن رانندگان انسانی که با ارسال فیلم هایی از خودشان ، در حال خوابیدن در چرخ یک اتومبیل سطح 2 یا سطح 3 هستند. ، همه ما باید از اینكه گمان نرود راننده بتواند هنگام رانندگی یك اتومبیل نیمه خودمختار ، توجه خود را از وظیفه رانندگی دور كند ، خودداری كنیم.
شما مسئولیت اقدامات رانندگی وسیله نقلیه ، صرفنظر از میزان اتوماسیون در سطح 2 یا سطح 3 ، مسئولیت مسئولیت مسئولیت شما می باشد.
ماشین های خودران و فرمان پاک از هوش مصنوعی سمی
برای وسایل نقلیه خود رانندگی واقعی سطح 4 و سطح 5 ، یک راننده انسانی درگیر در وظیفه رانندگی نخواهد بود.
همه سرنشینان مسافر خواهند بود.
هوش مصنوعی رانندگی را انجام می دهد.
یک جنبه برای بحث فوری این واقعیت را در بر دارد که هوش مصنوعی در سیستم های رانندگی هوش مصنوعی امروزی حساس نیست. به عبارت دیگر ، هوش مصنوعی در مجموع مجموعه ای از برنامه نویسی و الگوریتم های مبتنی بر رایانه است و مطمئناً قادر به استدلال به همان روشی نیست که انسان می تواند.
چرا این تاکید اضافی در مورد هوش مصنوعی نیست؟
از آنجا که می خواهم تأکید کنم هنگام بحث در مورد نقش سیستم رانندگی AI ، من خصوصیات انسانی را به AI نسبت نمی دهم. لطفاً توجه داشته باشید که این روزها تمایل مستمر و خطرناکی برای انسان سازی AI وجود دارد. در حقیقت ، افراد حساسیتی شبیه انسان به هوش مصنوعی امروزی دارند ، علی رغم این واقعیت انکارناپذیر و غیرقابل انکار که هنوز چنین هوش مصنوعی وجود ندارد.
با این توضیحات ، می توانید تصور کنید که سیستم رانندگی هوش مصنوعی بطور طبیعی از جنبه های رانندگی "آگاهی" نداشته باشد. رانندگی و همه آنچه که شامل می شود باید به عنوان بخشی از سخت افزار و نرم افزار اتومبیل خودران برنامه ریزی شوند.
بیایید به جنبه های بی شماری بپردازیم که در این موضوع بازی می شوند.
اول، مهم است که بدانیم همه خودروهای خودران با هوش مصنوعی یکسان نیستند. هر خودروساز و شرکت فناوری خودران رویکرد خود را برای ابداع خودروهای خودران در پیش گرفته است. به این ترتیب، اظهار نظر گسترده در مورد اینکه سیستم های رانندگی هوش مصنوعی چه کاری انجام خواهند داد یا انجام نمی دهند، دشوار است.
علاوه بر این ، هرگاه بیان شود که سیستم رانندگی هوش مصنوعی کار خاصی انجام نمی دهد ، بعداً توسعه دهندگانی که در واقع کامپیوتر را برای انجام این کار برنامه ریزی می کنند ، می توانند از این امر پیشی بگیرند. گام به گام ، سیستم های رانندگی هوش مصنوعی به تدریج در حال بهبود و گسترش هستند. امروزه محدودیت موجود ممکن است دیگر در نسخه یا نسخه بعدی سیستم وجود نداشته باشد.
امیدوارم که اخطارهای فراوانی را برای زیربنای آنچه که می خواهم بیان کنم، ارائه دهد.
پتانسیل های زیادی وجود دارد و احتمالاً روزی تعصبات ناشی از هوش مصنوعی متوجه ظهور وسایل نقلیه خودران و خودروهای خودران خواهند شد، به عنوان مثال به بحث من در پیوند اینجا و پیوند اینجا. ما هنوز در مراحل اولیه عرضه خودروهای خودران هستیم. تا زمانی که پذیرش به مقیاس و دید کافی نرسد، بسیاری از جنبههای سمی هوش مصنوعی که من پیشبینی میکردم در نهایت رخ دهد، هنوز به آسانی آشکار نشدهاند و هنوز توجه عمومی را به خود جلب نکردهاند.
یک موضوع به ظاهر ساده مرتبط با رانندگی را در نظر بگیرید که در ابتدا ممکن است کاملاً بی ضرر به نظر برسد. به طور خاص، بیایید بررسی کنیم که چگونه می توان به درستی تعیین کرد که آیا در انتظار عابران پیاده «سرفراز» که حق تقدم عبور از یک خیابان را ندارند توقف کنیم یا خیر.
شما بدون شک در حال رانندگی بوده اید و با عابران پیاده ای روبرو شده اید که منتظر عبور از خیابان بودند اما حق تقدم برای این کار را نداشتند. این به این معنی بود که شما در مورد توقف و اجازه عبور آنها اختیار داشتید. شما می توانید بدون اجازه عبور آنها ادامه دهید و همچنان کاملاً مطابق قوانین رانندگی قانونی این کار باشید.
مطالعات در مورد نحوه تصمیم گیری رانندگان انسانی برای توقف یا عدم توقف برای چنین عابران پیاده نشان می دهد که گاهی اوقات رانندگان انسانی بر اساس تعصبات ناخواسته این انتخاب را انجام می دهند. یک راننده انسانی ممکن است به عابر پیاده نگاه کند و تصمیم بگیرد که متوقف نشود، حتی اگر عابر پیاده ظاهر متفاوتی داشت، مثلاً بر اساس نژاد یا جنسیت. من این را در پیوند اینجا.
سیستمهای رانندگی هوش مصنوعی چگونه برنامهریزی میشوند تا همان تصمیم توقف یا حرکت را اتخاذ کنند؟
شما می توانید اعلام کنید که تمام سیستم های رانندگی هوش مصنوعی باید طوری برنامه ریزی شوند که همیشه برای هر عابران منتظر توقف کنند. این موضوع را تا حد زیادی ساده می کند. واقعاً هیچ تصمیم قطعی وجود ندارد. اگر عابر پیاده منتظر عبور است، صرف نظر از اینکه حق تقدم دارد یا خیر، مطمئن شوید که خودروی خودران با هوش مصنوعی متوقف می شود تا عابر پیاده بتواند عبور کند.
آسان هلال
به نظر می رسد زندگی هرگز به این آسانی نیست. تصور کنید همه خودروهای خودران از این قانون پیروی می کنند. عابران پیاده ناگزیر متوجه می شوند که سیستم های رانندگی هوش مصنوعی، باید بگوییم، فشارآور هستند. هر عابر پیاده ای که بخواهد از خیابان عبور کند، خواه ناخواه هر زمان که بخواهد و هر کجا که باشد این کار را انجام می دهد.
فرض کنید یک خودروی خودران در حال پایین آمدن از یک خیابان سریع با سرعت مجاز 45 مایل در ساعت است. یک عابر پیاده "می داند" که هوش مصنوعی ماشین خودران را متوقف می کند. بنابراین، عابر پیاده به خیابان می زند. متأسفانه، فیزیک بر هوش مصنوعی پیروز می شود. سیستم رانندگی هوش مصنوعی تلاش میکند تا خودروی خودران را متوقف کند، اما حرکت خودروی خودمختار، ماده چندتنی را به جلو میبرد و به عابران پیاده سرگردان میخورد. نتیجه یا آسیب رسان است یا منجر به مرگ می شود.
عابران پیاده معمولاً زمانی که راننده انسانی پشت فرمان است این نوع رفتار را امتحان نمی کنند. مطمئناً، در برخی از مناطق یک جنگ کره چشم رخ می دهد. عابر پیاده به راننده نگاه می کند. راننده به عابر پیاده نگاه می کند. بسته به شرایط، راننده ممکن است توقف کند یا راننده ادعای خود را در مسیر جاده مطرح کند و ظاهراً به عابر پیاده جرأت کند که سعی کند مسیر آنها را مختل کند.
ما احتمالاً نمیخواهیم هوش مصنوعی وارد یک جنگ کره چشم مشابه شود، که به هر حال کمی چالش برانگیز است، زیرا یک شخص یا رباتی وجود ندارد که روی فرمان ماشین خودران بنشیند (من در مورد امکان آینده روباتها بحث کردهام. آن درایو، ببینید پیوند اینجا). با این حال، ما همچنین نمیتوانیم به عابران پیاده اجازه دهیم که همیشه صدای شلیک کنند. نتیجه ممکن است برای همه افراد نگران کننده باشد.
ممکن است وسوسه شوید که به روی دیگر سکه بروید و اعلام کنید که سیستم رانندگی هوش مصنوعی هرگز نباید در چنین شرایطی متوقف شود. به عبارت دیگر، اگر عابر پیاده حق تقدم مناسبی برای عبور از خیابان نداشته باشد، هوش مصنوعی باید همیشه فرض کند که خودروی خودران باید بدون وقفه حرکت کند. خوش شانسی برای آن عابران پیاده
چنین قاعده سختگیرانه و ساده انگارانه ای به خوبی توسط عموم مردم پذیرفته نمی شود. مردم مردم هستند و دوست ندارند به طور کامل از امکان عبور از خیابان محروم شوند، علیرغم اینکه از نظر قانونی فاقد حق تقدم برای این کار در شرایط مختلف هستند. شما به راحتی می توانید غوغای قابل توجهی از مردم را پیش بینی کنید و احتمالاً شاهد واکنش شدید علیه ادامه پذیرش اتومبیل های خودران باشید.
لعنتی اگر این کار را بکنیم و لعنتی اگر نکنیم.
امیدوارم این شما را به جایگزینی منطقی هدایت کرده باشد که هوش مصنوعی باید با ظاهری از تصمیم گیری در مورد نحوه برخورد با این مشکل رانندگی برنامه ریزی شود. یک قانون سخت و سریع برای توقف هرگز غیرقابل دفاع است، و به همین ترتیب، یک قانون سخت و سریع برای همیشه متوقف کردن نیز غیرقابل دفاع است. هوش مصنوعی باید با برخی از تصمیمگیریهای الگوریتمی یا ADM برای رسیدگی به این موضوع ابداع شود.
می توانید از یک مجموعه داده همراه با رویکرد ML/DL استفاده کنید.
در اینجا نحوه تصمیم گیری توسعه دهندگان هوش مصنوعی برای برنامه ریزی این کار آمده است. آنها دادهها را از دوربینهای ویدیویی که در اطراف شهر خاصی که قرار است خودروی خودران در آن استفاده شود، جمعآوری میکنند. دادهها زمانی را نشان میدهند که رانندگان انسانی برای عابران پیاده که حق تقدم ندارند، توقف میکنند. همه در یک مجموعه داده جمع آوری می شود. با استفاده از یادگیری ماشینی و یادگیری عمیق، داده ها به صورت محاسباتی مدل می شوند. سپس سیستم رانندگی هوش مصنوعی از این مدل برای تصمیم گیری در مورد توقف یا عدم توقف استفاده می کند.
به طور کلی، ایده این است که از هر چیزی که عرف محلی تشکیل شده باشد، هوش مصنوعی به این صورت است که ماشین خودران را هدایت می کند. مشکل حل شد!
اما آیا واقعاً حل شده است؟
به یاد بیاورید که قبلاً اشاره کرده بودم که مطالعات تحقیقاتی نشان می دهد که رانندگان انسانی می توانند در انتخاب زمان توقف عابران پیاده جانبدارانه باشند. دادههای جمعآوریشده در مورد یک شهر خاص احتمالاً حاوی آن سوگیریها هستند. یک AI ML/DL بر اساس آن دادهها احتمالاً همان سوگیریها را مدلسازی و منعکس میکند. سیستم رانندگی هوش مصنوعی صرفاً همان تعصبات موجود را انجام می دهد.
برای تلاش و مبارزه با این موضوع، میتوانیم مجموعهای از مجموعه دادههایی را که در واقع دارای چنین سوگیریهایی هستند، گرد هم بیاوریم. ما یا چنین مجموعه دادهای را پیدا میکنیم و سپس سوگیریها را برچسبگذاری میکنیم، یا به طور مصنوعی یک مجموعه داده ایجاد میکنیم تا به توضیح موضوع کمک کند.
تمام مراحل شناسایی شده قبلی انجام خواهد شد، از جمله:
- مجموعه داده ای را تنظیم کنید که عمداً حاوی این سوگیری خاص باشد
- از مجموعه داده برای آموزش مدل های یادگیری ماشینی (ML) و یادگیری عمیق (DL) در مورد تشخیص این سوگیری خاص استفاده کنید.
- ML/DL آموزش دیده بایاس را نسبت به سایر هوش مصنوعی اعمال کنید تا مطمئن شوید که آیا هوش مصنوعی هدف به طور بالقوه به روش مشابهی سوگیری دارد یا خیر.
- ML/DL آموزش دیده با سوگیری را در دسترس قرار دهید تا به سازندگان هوش مصنوعی نشان دهد که چه چیزی باید مراقب آن باشند تا بتوانند به راحتی مدل های خود را بررسی کنند تا ببینند که چگونه تعصبات الگوریتمی آغشته به وجود می آیند.
- از طریق این مثال خاص اضافه شده، خطرات هوش مصنوعی مغرضانه را به عنوان بخشی از اخلاق هوش مصنوعی و آگاهی از هوش مصنوعی اخلاقی نشان دهید.
- دیگر
نتیجه
بیایید دوباره خط افتتاحیه را مرور کنیم.
برای دانستن یکی لازم است.
برخی تفسیر میکنند که این جمله فوقالعاده رایج نشان میدهد که وقتی نوبت به کشف هوش مصنوعی سمی میرسد، باید اعتبار لازم را به ساخت و استفاده از هوش مصنوعی سمی برای کشف و مقابله با سایر هوش مصنوعی سمی بدهیم. خط پایانی: گاهی اوقات لازم است یک دزد یک دزد دیگر را بگیرد.
یکی از نگرانیهای مطرح شده این است که شاید ما از راه خود برای شروع به ساختن دزد خارج میشویم. آیا می خواهیم هوش مصنوعی سمی ابداع کنیم؟ آیا این یک ایده دیوانه کننده به نظر نمی رسد؟ برخی به شدت استدلال می کنند که ما باید تمام هوش مصنوعی سمی را ممنوع کنیم، از جمله هوش مصنوعی که آگاهانه ساخته شده است، حتی اگر ظاهراً برای یک قهرمان یا شجاع باشد. هوش مصنوعی برای خوب هدف
هوش مصنوعی سمی را به هر صورت زیرکانه یا موذیانه ای که ممکن است ایجاد شود، خاموش کنید.
در حال حاضر یک پیچ نهایی در مورد این موضوع. ما معمولاً فرض می کنیم که این جمله معروف مربوط به افراد یا چیزهایی است که اعمال بد یا ترش انجام می دهند. به این ترتیب است که ما به این مفهوم می رسیم که برای گرفتن دزد به دزد نیاز است. شاید بهتر باشد این ضرب المثل را روی سر بگذاریم و آن را بیشتر چهره ای شاد کنیم تا چهره ای غمگین.
در اینجا چگونه.
اگر بخواهیم هوش مصنوعی بیطرفانه و غیر سمی باشد، ممکن است بتوان تصور کرد که نیاز به دانستن آن است. شاید برای شناخت و ایجاد عظمت و خوبی بیشتر، بهترین و بهترین کار لازم باشد. در این گونه از حکمت حکیم، ما نگاه خود را به چهره شادمان نگاه می داریم و هدفمان تمرکز بر تدبیر است. هوش مصنوعی برای خوب.
اگر منظور من را میدانید، دیدگاهی شادتر و رضایتبخشتر خواهد بود.
منبع: https://www.forbes.com/sites/lanceeliot/2022/06/15/ai-ethics-shocking-revelation-that-training-ai-to-be-toxic-or-biased-might-be- سودمند-از جمله-برای-خودران-های-خودران/