هوش مصنوعی اخلاقی به طور جاه طلبانه امیدوار است که هوش مصنوعی رفتارهای اخلاقی را به تنهایی یاد بگیرد، مانند موردی که در مورد هوش مصنوعی در خودروهای خودران خودران وجود دارد.

ارسطو به قول معروفی گفته است که تربیت ذهن بدون تربیت قلب اصلاً آموزش نیست.

شما می توانید این اظهار نظر روشنگر را به این معنا تفسیر کنید که یادگیری در مورد اخلاق و رفتار اخلاقی برای نوع بشر بسیار حیاتی است. در بحث کلاسیک طبیعت در مقابل پرورش، باید پرسید که چقدر از آداب اخلاقی ما به طور غریزی بومی است در حالی که چقدر در طول روزهای زندگی ما آموخته شده است. کودکان نوپا مراقب همنوعان خود هستند و احتمالاً پایه های اخلاقی خود را بر اساس آنچه می بینند و می شنوند جمع می کنند. همین را می توان در مورد نوجوانان نیز گفت. برای بزرگسالان باز، آنها نیز در نتیجه تجربه دنیای روزمره به سازگاری و پیشرفت در تفکر اخلاقی خود ادامه می دهند.

البته، آموزش صریح در مورد اخلاق به کسی نیز برای این دوره مناسب است. مردم موظفند از طریق شرکت در کلاس های مربوط به موضوع یا شاید از طریق رفتن به رویدادها و شیوه های مورد علاقه خود، راه های اخلاقی را بیاموزند. ارزش‌های اخلاقی را می‌توان به‌صراحت شناسایی کرد و به‌عنوان وسیله‌ای برای کمک به دیگران در تدوین ساختار اخلاقی خود به اشتراک گذاشت. علاوه بر این، اخلاق ممکن است به طور نامحسوسی در داستان‌ها یا سایر روش‌های آموزشی پنهان باشد که در نهایت پیامی از آنچه رفتار اخلاقی شامل می‌شود، دارد.

به نظر می‌رسد که انسان‌ها به این ترتیب اخلاق را آغشته می‌کنند.

در مورد هوش مصنوعی (AI) چطور؟

می دانم که چنین سوالی ممکن است عجیب به نظر برسد. ما مطمئناً از انسان ها انتظار داریم که اخلاق را در خود بگنجانند و با ظاهری از یک کد اخلاقی در زندگی قدم بردارند. این یک واقعیت ساده و آشکار است. از سوی دیگر، به نظر نمی رسد یک ماشین یا کامپیوتر در همان چارچوب مرجع قرار بگیرد. واکنش درونی شما ممکن است دور از ذهن یا عجیب باشد که هوش مصنوعی را تجسمی از اخلاق و قوانین اخلاقی بدانید.

بهترین کاری که به نظر می رسد می توانیم در مورد هوش مصنوعی انجام دهیم این است که آن را به گونه ای طراحی کنیم که از رفتار اخلاقی منحرف نشود. توسعه دهندگان هوش مصنوعی و کسانی که هوش مصنوعی را در اختیار دارند باید مسئول اطمینان از اینکه هوش مصنوعی همانطور که طراحی شده و زمانی که اجرا می شود از قبل با قوانین اخلاقی مطابقت دارد. به اصطلاح، هوش مصنوعی باید از قبل بکر و آماده حرکت به عنوان یک تدبیر کاملاً اخلاقی باشد.

مطمئناً حق با شماست که فکر می‌کنید سیستم‌های هوش مصنوعی باید واقعاً طوری ساخته شوند که از قبل کاملاً در چارچوب اصول اخلاقی قرار گیرند. جامعه بسیار هیجان زده بود زمانی که آخرین موج سیستم های هوش مصنوعی برای اولین بار منتشر شد و به نظر می رسد نشان می دهد که ما در دوره ای از هوش مصنوعی برای خوب. هوش مصنوعی به حل بسیاری از چالش برانگیزترین مشکلات جهان کمک می کند. پیشرفت‌های فناوری برای تکمیل قابلیت‌های انسانی با امکانات شناختی به کار گرفته می‌شوند، هرچند به من اجازه دهید تاکید کنم که ما هنوز هوش مصنوعی نداریم و نمی‌دانیم که آیا هوش مصنوعی به دست خواهد آمد یا خیر.

مشکل عجله برای ورود هوش مصنوعی به جهان، به تدریج زیر شکم زشت هوش مصنوعی را آشکار کرده است. هوش مصنوعی برای بد. عناوین زیادی در مورد سیستم‌های هوش مصنوعی وجود دارد که از تصمیم‌گیری الگوریتمی (ADM) استفاده می‌کنند که مملو از تعصبات و نابرابری‌ها است. علاوه بر این، بسیاری از هوش مصنوعی معاصر از فقدان شفافیت رنج می برند، تمایل دارند از نظر توضیح تصمیمات محاسباتی غیرقابل توضیح باشند، اغلب عدم انصاف را نشان می دهند، و به برخی اجازه داده است که مسئولیت انسانی خود را با اشاره انگشت به هوش مصنوعی منحرف کنند.

من در نوشته هایم به طور گسترده به هوش مصنوعی اخلاقی و اخلاقیات هوش مصنوعی پرداخته ام، از جمله پیوند اینجا و پیوند اینجا، فقط به نام چند.

چگونه می تواند وجود داشته باشد هوش مصنوعی برای بد اگر به عنوان یک ساختار اعلام شده در نظر بگیریم که هوش مصنوعی باید از ابتدا ساخته شود تا از اقدامات غیراخلاقی جلوگیری شود؟

پاسخ چند برابر است.

اولاً، بسیاری از توسعه دهندگان و شرکت‌های فعال در زمینه هوش مصنوعی از اهمیت شکل دادن به هوش مصنوعی خود برای ماندن در محدوده‌های اخلاقی بی‌اطلاع هستند. این مفهوم اصلاً در رادار آنها نیست. جذابیت کسب درآمد سریع باعث می‌شود که برخی از ایده‌های هوش مصنوعی وحشی که می‌خواهند عمداً تولید کنند، پیش ببرند. نیازی به کشف هیچ چیز اخلاقی نیست. فقط هوش مصنوعی را بسازید و آن را اجرا کنید.

ثانیاً، کسانی هستند که هوش مصنوعی می‌سازند که آگاهی کامل از پیامدهای اخلاقی را تزیین می‌کنند، اما ملاحظات هوش مصنوعی اخلاقی را آشکارا کم‌اهمیت می‌کنند یا تا حدودی نادیده می‌گیرند. یکی از دیدگاه‌های رایج، مانترای کلاسیک فنی است که هدف آن شکست سریع و اغلب شکست است. فقط به تکرار ادامه دهید تا زمانی که امیدوارم همه چیز به درستی حل شود. متأسفانه شانس اعمال هر گونه ترکیب سیستماتیک و متفکرانه اخلاق هوش مصنوعی در تلاش‌های هوش مصنوعی بسیار اندک است. من در مورد نیاز به توانمندسازی رهبری نسبت به هوش مصنوعی اخلاقی صحبت می کنم پیوند اینجا.

ثالثاً، ابهامات زیادی در مورد اینکه چه نرده‌های محافظ اخلاقی باید هنگام ابداع هوش مصنوعی مورد توجه قرار گیرند، وجود دارد. مطمئنا، امروزه دستورالعمل های اخلاقی هوش مصنوعی زیادی وجود دارد، پوشش من را در اینجا ببینید پیوند اینجااگرچه تبدیل این احکام نظری کاربردی به سختی الزاماً به ویژگی‌هایی برای یک سیستم هوش مصنوعی معین در حال ساخت تبدیل می‌شود. اشاره کرده‌ام که به آرامی شاهد ظهور ابزارها و روش‌های ساخت هوش مصنوعی خواهیم بود که شامل شیوه‌های کدگذاری هوش مصنوعی اخلاقی می‌شود، که به بستن شکاف بین جنبه‌های انتزاعی و ضرب المثل‌ها کمک می‌کند.

چهارم، با تاکید در اینجا، ما مورد آسیب‌دیده هوش مصنوعی را بررسی می‌کنیم که حتی اگر در ابتدا در محدوده‌های اخلاقی تشکیل شده باشد، سپس در حین استفاده فراتر از پارامترهای مفروض رمزگذاری شده اخلاقی می‌پیچد.

ما باید آن را باز کنیم.

بیشتر هوش مصنوعی امروزی از یادگیری ماشینی (ML) و یادگیری عمیق (DL) استفاده می کند. اینها تکنیک ها و فناوری های تطبیق الگوی محاسباتی هستند. به طور کلی، ایده این است که شما بسیاری از داده‌های مرتبط را برای هر کاری که هوش مصنوعی قرار است انجام دهد جمع‌آوری کنید، آن داده‌ها را به تطبیق الگوی محاسباتی انتخابی وارد کنید، و الگوی مطابق ریاضی سعی می‌کند الگوهای مفیدی را بیابد. توجه داشته باشید که هیچ احساسی از سوی این هوش مصنوعی وجود ندارد (که باز هم چنین چیزی هنوز وجود ندارد). هیچ استدلال عقل سلیمی نیز در کار نیست. این همه ریاضی و محاسبات است.

ممکن است داده‌های وارد شده به ML/DL قبلاً با سوگیری‌ها و نابرابری‌ها همراه باشد. در آن صورت، احتمال این است که تطبیق الگوی محاسباتی صرفاً همان تمایلات را تقلید کند. اگر داده‌هایی ارائه دهید که یک نژاد را بر نژاد دیگر ترجیح می‌دهد یا یک جنسیت را بر دیگری ترجیح می‌دهد، احتمال زیادی وجود دارد که تطبیق الگو به آن الگوی کشف‌شده متصل شود.

یک مشکل بزرگ در مورد این نوع قفل این است که ممکن است در تشخیص اینکه الگوها بر اساس آن جنبه از داده ها هستند، مشکل داشته باشیم. ریاضیات خاردار و پیچیده می تواند ظاهر چنین الگوهای یافت شده را کاملاً مشکل ساز کند. بسته به دامنه و عمق آزمایش‌هایی که اعمال می‌شود، حتی آزمایش هوش مصنوعی لزوماً این تمایلات را آشکار نمی‌کند.

بنابراین، بیایید فرض کنیم که شما یک سیستم هوش مصنوعی ساخته اید و با تلاش برای جلوگیری از استفاده از داده هایی که دارای سوگیری های قبلی هستند، تکالیف خود را انجام داده اید. در مرحله بعد، هنگامی که یادگیری ماشینی و یادگیری عمیق انجام شد، نتایج را آزمایش کردید تا ببینید آیا به نوعی سوگیری یا نابرابری وجود دارد یا خیر. بیایید فرض کنیم که شما نمی توانید چنین تمایلات نامطلوبی را پیدا کنید.

در مجموع، اکنون چراغ سبز نشان داده شده است تا پیش برویم و هوش مصنوعی را مورد استفاده قرار دهیم. مردم شروع به استفاده از هوش مصنوعی خواهند کرد و احتمالاً تصور می کنند که از نظر اخلاقی مناسب است. توسعه دهندگان نیز به این فکر می کنند. شرکتی که هوش مصنوعی را ارائه می کند این فکر را می کند. همه دور می رویم

این چیزی است که می تواند اتفاق بیفتد.

تصور سوگیری که در داده های اصلی یافت نشد و در طول آزمایش هوش مصنوعی مشاهده نشد، احتمالاً فعال می شود. شاید این به ندرت اتفاق بیفتد. ممکن است باور داشته باشید که تا زمانی که نادر است، همه چیز خوب است. با این حال، من شک دارم که آنهایی که در برابر این سوگیری ها آسیب پذیر هستند، مایل به دیدن همه چیز باشند. به جرات می‌توانم بگویم که سیستم هوش مصنوعی و آنهایی که آن را تدوین کرده‌اند، چه در دادگاه‌های حقوقی و چه در دادگاه بی‌پایان افکار اجتماعی، با عواقب مواجه خواهند شد.

یکی دیگر از تغییرات، مفهوم ضرب المثل گرفتن یک اینچ و گرفتن یک مایل است. مرکب ممکن است در ابتدا کوچک باشد. در طول استفاده از هوش مصنوعی، هوش مصنوعی ممکن است به گونه ای ابداع شده باشد که با پیش می رود خودش را تغییر دهد. این نوع "یادگیری" یا "خودآموزی" می تواند بسیار مفید باشد. به جای اینکه توسعه دهندگان هوش مصنوعی به طور مداوم سیستم هوش مصنوعی را اصلاح و تنظیم کنند، هوش مصنوعی به گونه ای ساخته شده است که این کار را به تنهایی انجام دهد. بدون تاخیر، بدون نیروی کار گران و غیره.

نقطه ضعف این خودتنظیمی مفید این است که در محدوده استفاده توسط هوش مصنوعی می‌توان به بزرگ‌تر شدن و بزرگ‌تر شدن آن اشاره کرد. در حالی که تعصب ممکن است در گوشه کوچکی قرار داشته باشد، اکنون فضایی برای گسترش داده شده است. هوش مصنوعی به نظر نمی رسد که این "اشتباه" است و صرفاً چیزی را که به نظر می رسد کار می کند از نظر محاسباتی گسترش می دهد.

اگر این باعث می‌شود موها روی سرتان بایستند، باید برای نوع بعدی بنشینید.

فرض کنید سوگیری از همان ابتدا وجود نداشت و ما کاملاً معتقدیم که هوش مصنوعی کاملاً عاری از سوگیری است. ما یا خوش شانس بودیم یا احتمالاً به طور سیستماتیک مطمئن شدیم که هیچ سوگیری در هیچ کجای داده ها وجود ندارد و هیچ سوگیری از طریق تطبیق الگوی محاسباتی ایجاد نمی شود. علیرغم آن آه تسکین، هوش مصنوعی مجاز است در حین استفاده تنظیم شود. در پاندورا باز می‌شود و هوش مصنوعی ترجیح می‌دهد به‌صورت محاسباتی به سمت سوگیری‌هایی که در طول هر کاری که هوش مصنوعی انجام می‌دهد، جذب شود.

یک سوگیری تازه کشف شده در هوش مصنوعی نفوذ می کند، و هیچ کس به طور خاص عاقل تر از آن نیست که اتفاق افتاده است. بله، ما یک هیولا ساخته ایم، یک فرانکشتاین واقعی.

چگونه می توان از این ظهور جلوگیری کرد یا حداقل آن را پرچم گذاری کرد؟

یکی از رویکردهایی که در حال افزایش است شامل ساختن یک جزء جمع آوری اخلاق در هوش مصنوعی است. هوش مصنوعی طوری ساخته شده است که شامل عناصر هوش مصنوعی اخلاقی باشد. سپس این عناصر در حالی که هوش مصنوعی در طول زمان در حال تنظیم است، بقیه هوش مصنوعی را تماشا یا نظارت می کنند. هنگامی که به نظر می رسد هوش مصنوعی فراتر از قوانین اخلاقی برنامه ریزی شده رفته است، هوش مصنوعی اخلاقی سعی می کند این تنظیمات را انجام دهد یا به توسعه دهندگان هشدار می دهد که مشکلی پیش آمده است.

می‌توانید این ظرفیت نظارتی هوش مصنوعی اخلاقی را برنامه‌نویسی کنید و امیدوار باشید که تا زمانی که هوش مصنوعی در حال استفاده است، غالب شود.

یکی دیگر از جنبه‌های بحث‌برانگیز، استفاده از یادگیری ماشینی و یادگیری عمیق برای آموزش جنبه‌های هوش مصنوعی اخلاقی در سیستم هوش مصنوعی است.

بگو چی؟

بله، شاید مفهوم غیرمتعارف این باشد که به جای اینکه یک برنامه نویس انسانی مستقیماً مجموعه ای از اصول اخلاقی هوش مصنوعی را رمزگذاری کند، هوش مصنوعی به گونه ای شکل می گیرد که سعی کند آنها را بیاموزد. به یاد بیاورید که من به طور خلاصه اشاره کردم که استفاده از ML/DL معمولاً بر تغذیه داده ها در الگوریتم ها متکی است و تطبیق الگوی محاسباتی صورت می گیرد. سوال میلیون دلاری این است که آیا می‌توانیم از همان مکانیسم برای تلقین ارزش‌های اخلاقی به یک سیستم هوش مصنوعی استفاده کنیم؟

فکر می‌کنم می‌توانید این را به بحث من در افتتاحیه درباره چگونگی آگاهی انسان‌ها از اصول اخلاقی تشبیه کنید، اگرچه لطفاً هوش مصنوعی امروزی را به‌عنوان قابل مقایسه با تفکر انسان انسان‌سازی نکنید (اینطور نیست، و به زودی این توصیه را تکرار خواهم کرد). هوش مصنوعی را می توان به صورت ذاتی با قوانین هوش مصنوعی برنامه ریزی کرد. یا هوش مصنوعی می تواند احکام اخلاقی هوش مصنوعی را "یاد بگیرد". شما می توانید هر دو را انجام دهید، البته، این چیزی است که من در جاهای دیگر پوشش داده ام، ببینید پیوند اینجا.

لحظه ای به این مفهوم به ظاهر شگفت انگیز فکر کنید که هوش مصنوعی ممکن است اخلاقیات را «یاد بگیرد» و احتمالاً از رفتارهای اخلاقی پیروی کند.

این محققان از نمونه‌ای از یک سیستم هوش مصنوعی استفاده می‌کنند که دمای مورد نظر را در یک خانه نشان می‌دهد تا نشان دهد که چگونه این کار می‌تواند کار کند: «این سیستم ابتدا رفتار افراد در خانواده‌های مختلف را تنها به مدت یک هفته «مشاهده» کرد و در مورد ترجیحات آنها نتیجه‌گیری کرد. سپس از یک حسگر تشخیص حرکت برای تعیین اینکه آیا کسی در خانه است یا خیر استفاده کرد. وقتی خانه خالی بود، ترموستات هوشمند وارد حالت صرفه جویی در مصرف انرژی شد. وقتی مردم در خانه بودند، ترموستات دما را متناسب با ترجیحات آنها تنظیم می کرد. این ترموستات به وضوح دو الزام یک ربات اخلاقی را برآورده می کند، البته یک مورد بسیار ساده. ترجیحات مردم را ارزیابی می کند و آنها را بر کنترل سیستم گرمایش و سرمایش تحمیل می کند. ممکن است پرسیده شود که این چه ربطی به ارزش های اخلاقی اجتماعی دارد؟ این ترموستات به افراد با مقادیر متفاوت امکان می دهد تنظیمات دمایی را که ترجیح می دهند داشته باشند. ساکنان خانه نیازی به تنظیم مجدد ترموستات هر روز هنگام آمدن و رفتن ندارند. این ربات ساده اخلاقی همچنین ردپای کل انرژی جامعه را کاهش می دهد» (بر اساس مقاله آمیتای اتزیونی و اورن اتزیونی با عنوان «اخلاق به کمک هوش مصنوعی» در جلد در اخلاق و فناوری اطلاعات).

قبل از اینکه بیشتر به پیچ و خم های داشتن هوش مصنوعی که رفتار اخلاقی را "یاد می گیرد" بپردازم، می خواهم در مورد وضعیت هوش مصنوعی چیز بیشتری بگویم.

هوش مصنوعی می تواند از این حالت های ممکن تشکیل شود:

1. هوش مصنوعی ساده و قدیمی غیر حساس امروزی

2. هوش مصنوعی با کیفیت انسانی (هنوز این را نداریم)

3. هوش مصنوعی حساس که فوق‌العاده هوشمند است (کششی فراتر از شماره 2)

من قصد دارم روی حالت موجود تمرکز کنم که هوش مصنوعی قدیمی غیر حساس است. بسیاری از مطالبی که ممکن است در مورد هوش مصنوعی اخلاقی بخوانید، هوش مصنوعی را پوشش می دهد و بنابراین بسیار حدس و گمان است. من می گویم این یک حدس و گمان است زیرا هیچ کس نمی تواند دم را به خر سنجاق کند که هوش مصنوعی چه خواهد بود. حتی فراتر از قلمرو هوش مصنوعی با کیفیت انسان، هوش مصنوعی فوق‌العاده‌ای است که بسیار مورد توجه قرار گرفته است. داستان‌های علمی تخیلی و شک و تردیدهای زیادی در مورد اینکه چگونه آن طعم‌های هوش مصنوعی ممکن است تصمیم بگیرند که نوع بشر را به بردگی بگیرند یا شاید فقط همه ما را از بین ببرند وجود دارد. این به عنوان خطر وجودی هوش مصنوعی شناخته می شود. گاهی اوقات، این معضل به عنوان خطر فاجعه آمیز هوش مصنوعی نیز بیان می شود.

برخی معتقدند تا زمانی که هوش مصنوعی را به هوش مصنوعی قدیمی غیرحساس که امروز داریم، حفظ کنیم، ممکن است خوب باشیم. بیایید فرض کنیم نمی توانیم به هوش مصنوعی دست پیدا کنیم. تصور کنید که هر چقدر هم که برای ایجاد هوش مصنوعی حساس تلاش کنیم، در انجام این کار شکست می خوریم. همچنین، برای بحث، فرض کنید که هوش مصنوعی ذی‌شعور توسط یک فرآیند خودبه‌خودی مرموز به وجود نمی‌آید.

پس آیا ما ایمن نیستیم که این هوش مصنوعی با کالیبر کمتر، که تنها نوع ممکن تصوری از هوش مصنوعی است، مورد استفاده قرار گیرد؟

نه واقعا.

تقریباً، همان مسائل کلی احتمالاً به وجود می آیند. من پیشنهاد نمی کنم که هوش مصنوعی "فکر می کند" راه خود را برای نابود کردن ما دارد. نه، هوش مصنوعی غیر حساس معمولی صرفاً در موقعیت‌های قدرتمندی قرار می‌گیرد که ما را در خود تخریبی فرو می‌برد. به عنوان مثال، ما هوش مصنوعی غیر حساس را در سلاح های کشتار جمعی قرار می دهیم. این سلاح های خودمختار قادر به تفکر نیستند. در عین حال، انسان ها به طور کامل در جریان نیستند. در نتیجه، هوش مصنوعی به‌عنوان نوعی از اتوماسیون مستقل، به‌طور ناخواسته منجر به نتایج فاجعه‌بار می‌شود، یا با دستورات انسانی برای انجام این کار، یا با یک اشکال یا خطا، یا با اعمال شرور کاشته‌شده، یا با خود تنظیمی که باعث می‌شود مسائل به پایین‌تر برود. مسیر زشت و غیره

من ادعا می‌کنم که مشکل اخلاقیات هوش مصنوعی برای هر سه حالت تعیین‌شده هوش مصنوعی وجود دارد، یعنی اینکه ما مشکلات اخلاقی هوش مصنوعی با هوش مصنوعی قدیمی غیرحساس داریم، و با هوش مصنوعی حساس که یا صرفاً سطح انسانی است یا هوش مصنوعی گسترده‌ای که به آن می‌رسد. سطح تحسین شده ابر هوش

با توجه به این بیانیه هشیارکننده، ما مطمئناً می‌توانیم درباره بزرگی و دشواری مشکلات اخلاقی در هر یک از سطوح مربوطه هوش مصنوعی بحث کنیم. دیدگاه مرسوم این است که مخمصه اخلاقی AI در هوش مصنوعی غیر حساس کمتر غیرقابل حل است، در سطح هوش مصنوعی برابر با انسان حساس تر، و در مرحله امور هوش مصنوعی فوق العاده هوشمند یک سر خاراننده واقعی است.

هرچه هوش مصنوعی بهتر شود، مشکل اخلاق هوش مصنوعی بدتر می شود.

شاید این یک قانون خدشه ناپذیر طبیعت باشد.

با بازگشت به تمرکز بر هوش مصنوعی امروزی، تلاش برای اینکه هوش مصنوعی رفتارهای اخلاقی را از طریق یادگیری ماشینی و یادگیری عمیق معاصر یاد بگیرد، مملو از نگرانی‌ها و مشکلات پیچیده است. فرض کنید هوش مصنوعی نتواند احکام اخلاقی مورد نظر را جمع آوری کند؟ چگونه مطمئن شویم که در انجام این کار دچار تزلزل شده است؟ همچنین، آیا سایر بخش‌های یک سیستم هوش مصنوعی به طور بالقوه ساختارهای اخلاقی جمع‌آوری‌شده را نادیده می‌گیرند؟ به این موارد اضافه کنید که اگر هوش مصنوعی در حال تنظیم باشد، این تنظیمات می‌توانند جنبه‌های اخلاقی را کاهش دهند یا به طور ناخواسته آنها را کاملاً تحت تأثیر قرار دهند.

بدتر از آن، «یادگیری» ممکن است منجر به فرود هوش مصنوعی بر روی رفتارهای واقعاً غیراخلاقی شود. در حالی که فکر می‌کردیم با سوق دادن هوش مصنوعی به سمت اخلاقی بودن کار درستی انجام می‌دهیم، به نظر می‌رسد که هوش مصنوعی به جای آن در جنبه‌های غیراخلاقی مطابقت دارد. در مورد شلیک به پای خودمان صحبت کنیم، ممکن است این اتفاق بیفتد.

در این مرحله از این بحث، شرط می بندم که شما مشتاق چند نمونه واقعی دیگر هستید که می تواند نشان دهد که چگونه هوش مصنوعی "یادگیری" اخلاق ممکن است در هوش مصنوعی امروزی اعمال شود (به غیر از تیزر خوشمزه نمونه ترموستات).

خوشحالم که پرسیدی

مجموعه‌ای از نمونه‌های خاص و مطمئناً محبوب وجود دارد که به دلم نشسته است. ببینید، به عنوان یک متخصص در زمینه هوش مصنوعی از جمله پیامدهای اخلاقی و قانونی، اغلب از من خواسته می‌شود که نمونه‌های واقع‌بینانه‌ای را که معضلات اخلاقی هوش مصنوعی را نشان می‌دهند شناسایی کنم تا بتوان ماهیت تا حدودی نظری موضوع را راحت‌تر درک کرد. یکی از جذاب‌ترین زمینه‌هایی که این معضل اخلاقی هوش مصنوعی را به وضوح نشان می‌دهد، ظهور خودروهای خودران واقعی مبتنی بر هوش مصنوعی است. این به عنوان یک مورد استفاده مفید یا نمونه ای برای بحث و گفتگوی کافی در مورد موضوع خواهد بود.

پس در اینجا یک سوال قابل توجه وجود دارد که قابل تامل است: آیا ظهور خودروهای خودران واقعی مبتنی بر هوش مصنوعی چیزی را در مورد توانایی هوش مصنوعی برای "یادگیری" احکام اخلاقی هوش مصنوعی روشن می کند، و اگر چنین است، این چه چیزی را به نمایش می گذارد؟

یک لحظه به من اجازه دهید تا پرسش را باز کنم.

اول، توجه داشته باشید که هیچ راننده انسانی در یک ماشین خودران واقعی دخیل نیست. به خاطر داشته باشید که خودروهای خودران واقعی از طریق سیستم رانندگی هوش مصنوعی هدایت می شوند. نه نیازی به راننده انسان پشت فرمان وجود دارد و نه پیش بینی ای برای رانندگی وسیله نقلیه توسط انسان وجود دارد. برای پوشش گسترده و مداوم من در مورد وسایل نقلیه خودران (AVs) و به خصوص خودروهای خودران، نگاه کنید به پیوند اینجا.

مایلم بیشتر توضیح دهم که منظور از خودروهای خودران واقعی چیست.

درک سطح اتومبیل های خودران

به عنوان یک توضیح ، اتومبیل های واقعی خودران از جمله مواردی هستند که هوش مصنوعی اتومبیل را کاملاً خود به خود هدایت می کند و هیچ گونه کمک انسانی در حین کار رانندگی وجود ندارد.

این وسایل نقلیه بدون راننده سطح 4 و سطح 5 در نظر گرفته می شوند (توضیحات من را در اینجا ببینید این لینک در اینجا) ، در حالی که خودرویی که نیاز به یک راننده انسانی برای مشارکت در رانندگی دارد معمولاً در سطح 2 یا سطح 3 در نظر گرفته می شود. افزودنی های خودکار که به عنوان ADAS (سیستم های کمک راننده پیشرفته) شناخته می شوند.

در سطح 5 هنوز یک اتومبیل واقعی رانندگی وجود ندارد ، که ما حتی نمی دانیم آیا این امر امکان پذیر خواهد بود یا اینکه رسیدن به آنجا چقدر طول می کشد.

در همین حال ، تلاش های سطح 4 به تدریج در تلاشند تا با انجام آزمایشات عمومی بسیار باریک و انتخابی در جاده ها ، کمی به سمت خود جلب کنند ، هرچند در مورد اینکه آیا این آزمایش به خودی خود مجاز است یا خیر ، اختلاف نظر وجود دارد (همه ما در یک آزمایش خوکچه هندی زنده یا مرگ هستیم) برخی از آنها ادعا می كنند كه در بزرگراهها و گذرگاههای ما در حال انجام است این لینک در اینجا).

از آنجا که اتومبیل های نیمه خودمختار به یک راننده انسانی احتیاج دارند ، تصویب آن دسته از اتومبیل ها تفاوت چندانی با رانندگی وسایل نقلیه معمولی نخواهد داشت ، بنابراین به تنهایی چیز جدیدی برای پوشش آنها در این موضوع وجود ندارد (هر چند ، همانطور که خواهید دید در یک لحظه ، نکات بعدی که بطور کلی اعمال می شود).

در مورد اتومبیل های نیمه خودمختار ، مهم است که در مورد جنبه نگران کننده ای که اخیراً بوجود آمده است ، هشدار داده شود ، یعنی این که با وجود آن رانندگان انسانی که با ارسال فیلم هایی از خودشان ، در حال خوابیدن در چرخ یک اتومبیل سطح 2 یا سطح 3 هستند. ، همه ما باید از اینكه گمان نرود راننده بتواند هنگام رانندگی یك اتومبیل نیمه خودمختار ، توجه خود را از وظیفه رانندگی دور كند ، خودداری كنیم.

شما مسئولیت اقدامات رانندگی وسیله نقلیه ، صرفنظر از میزان اتوماسیون در سطح 2 یا سطح 3 ، مسئولیت مسئولیت مسئولیت شما می باشد.

خودروهای خودران و تلقیح هوش مصنوعی اخلاقی

برای وسایل نقلیه خود رانندگی واقعی سطح 4 و سطح 5 ، یک راننده انسانی درگیر در وظیفه رانندگی نخواهد بود.

همه سرنشینان مسافر خواهند بود.

هوش مصنوعی رانندگی را انجام می دهد.

یک جنبه برای بحث فوری این واقعیت را در بر دارد که هوش مصنوعی در سیستم های رانندگی هوش مصنوعی امروزی حساس نیست. به عبارت دیگر ، هوش مصنوعی در مجموع مجموعه ای از برنامه نویسی و الگوریتم های مبتنی بر رایانه است و مطمئناً قادر به استدلال به همان روشی نیست که انسان می تواند.

چرا این تاکید اضافی در مورد هوش مصنوعی نیست؟

از آنجا که می خواهم تأکید کنم هنگام بحث در مورد نقش سیستم رانندگی AI ، من خصوصیات انسانی را به AI نسبت نمی دهم. لطفاً توجه داشته باشید که این روزها تمایل مستمر و خطرناکی برای انسان سازی AI وجود دارد. در حقیقت ، افراد حساسیتی شبیه انسان به هوش مصنوعی امروزی دارند ، علی رغم این واقعیت انکارناپذیر و غیرقابل انکار که هنوز چنین هوش مصنوعی وجود ندارد.

با این توضیحات ، می توانید تصور کنید که سیستم رانندگی هوش مصنوعی بطور طبیعی از جنبه های رانندگی "آگاهی" نداشته باشد. رانندگی و همه آنچه که شامل می شود باید به عنوان بخشی از سخت افزار و نرم افزار اتومبیل خودران برنامه ریزی شوند.

بیایید به جنبه های بی شماری بپردازیم که در این موضوع بازی می شوند.

اول، مهم است که بدانیم همه خودروهای خودران با هوش مصنوعی یکسان نیستند. هر خودروساز و شرکت فناوری خودران رویکرد خود را برای ابداع خودروهای خودران در پیش گرفته است. به این ترتیب، اظهار نظر گسترده در مورد اینکه سیستم های رانندگی هوش مصنوعی چه کاری انجام خواهند داد یا انجام نمی دهند، دشوار است.

علاوه بر این ، هرگاه بیان شود که سیستم رانندگی هوش مصنوعی کار خاصی انجام نمی دهد ، بعداً توسعه دهندگانی که در واقع کامپیوتر را برای انجام این کار برنامه ریزی می کنند ، می توانند از این امر پیشی بگیرند. گام به گام ، سیستم های رانندگی هوش مصنوعی به تدریج در حال بهبود و گسترش هستند. امروزه محدودیت موجود ممکن است دیگر در نسخه یا نسخه بعدی سیستم وجود نداشته باشد.

من معتقدم که هشدارهای کافی برای تأکید بر آنچه که من در مورد آن صحبت می کنم فراهم می کند.

ما اکنون آماده هستیم تا به بررسی خودروهای خودران و احتمالات هوش مصنوعی اخلاقی بپردازیم که مستلزم این ادعا است که می‌توانیم هوش مصنوعی را وادار کنیم تا رفتارهای اخلاقی را به خودی خود «یادگیری» کند.

بیایید از یک مثال ساده استفاده کنیم. یک خودروی خودران مبتنی بر هوش مصنوعی در خیابان های محله شما در حال حرکت است و به نظر می رسد با خیال راحت رانندگی می کند. در ابتدا، توجه ویژه ای به هر بار که توانستید نگاهی اجمالی به خودروی خودران داشته باشید، داشتید. این وسیله نقلیه خودران با قفسه سنسورهای الکترونیکی خود که شامل دوربین‌های فیلمبرداری، واحدهای رادار، دستگاه‌های LIDAR و مواردی از این قبیل است، متمایز بود. پس از چندین هفته از گشت و گذار خودروی خودران در جامعه شما، اکنون به سختی متوجه آن می شوید. تا آنجا که به شما مربوط می شود، این فقط یک ماشین دیگر در جاده های عمومی شلوغ است.

برای اینکه فکر نکنید آشنایی با دیدن ماشین‌های خودران غیرممکن یا غیرقابل قبول است، من بارها در مورد اینکه چگونه مناطقی که در محدوده آزمایش‌های ماشین‌های خودران هستند به تدریج به دیدن وسایل نقلیه خوش‌نظم عادت کرده‌اند، نوشته‌ام. تحلیل من را در این لینک در اینجا. بسیاری از محلی‌ها در نهایت از حالت خمیازه‌ای بی‌حوصله به حالت خمیازه‌های بی‌حوصلگی روی آوردند تا شاهد ماشین‌های پر پیچ و خم خودران باشند.

احتمالاً دلیل اصلی در حال حاضر که آنها ممکن است متوجه خودروهای خودران شوند، عامل تحریک و عصبانیت است. سیستم‌های رانندگی با هوش مصنوعی مطمئن می‌شوند که خودروها از تمام محدودیت‌های سرعت و قوانین جاده پیروی می‌کنند. برای رانندگان انسانی گیج‌کننده در ماشین‌های سنتی خود که توسط انسان هدایت می‌شوند، در مواقعی که پشت ماشین‌های خودران مبتنی بر هوش مصنوعی کاملاً قانون‌مدار گیر می‌کنید، عصبانی می‌شوید.

این چیزی است که ممکن است همه ما به درستی یا نادرست به آن عادت کنیم.

بازگشت به داستان ما یک روز، فرض کنید یک ماشین خودران در شهر یا شهر شما در حال رانندگی است و به موقعیتی می رسد که در آن یک عابر پیاده منتظر عبور از جاده است. فرض کنید که عابر پیاده به خودی خود حق تقدم ندارد. یک خودروی انسان محور می تواند از کنار عابر پیاده عبور کند و این کار کاملاً قانونی باشد. به همین ترتیب، سیستم رانندگی هوش مصنوعی از نظر قانونی می تواند از کنار عابران منتظر عبور کند.

تصمیم گیری در مورد توقف و عبور عابر پیاده از آن طرف خیابان، صرف نظر از اینکه راننده انسان باشد یا سیستم رانندگی هوش مصنوعی، کاملاً اختیاری برای راننده است.

من مطمئن هستم که شما بارها و بارها با این نوع موقعیت ها مواجه شده اید. شاید عجله دارید، بنابراین برای عبور عابر پیاده نمی ایستید. در موقعیتی دیگر، شما زمان زیادی برای رسیدن به مقصد خود دارید، بنابراین تصمیم می‌گیرید توقف کنید و به فرد منتظر اجازه دهید تا از خیابان عبور کند. خلق و خوی شما و شرایط خاص تعیین می کند که چه کاری را انتخاب کنید.

هیچ چیز در مورد این سناریو غیرعادی یا آزاردهنده به نظر نمی رسد.

قبل از اینکه جنبه هوش مصنوعی چیزها را بررسی کنم، ممکن است برایتان جالب باشد که بدانید این جنبه خاص از اختیار که به یک عابر پیاده اجازه عبور از یک خیابان را می‌دهد به دقت مورد مطالعه قرار گرفته است. محققان تشخیص داده اند که گاهی اوقات انتخاب راننده ظاهراً به تعصبات نژادی یا جنسیتی بستگی دارد. یک راننده انسانی ممکن است عابر پیاده منتظر را اندازه بگیرد و به شخص اجازه عبور دهد که ظاهراً بر اساس تعصبات ذاتی راننده است. اینکه آیا راننده حتی متوجه می شود که این کار را انجام می دهد یا خیر، موضوع تحقیق مداوم است. پوشش من را در این لینک در اینجا.

من زمینه را برای بررسی آنچه که یک سیستم رانندگی هوش مصنوعی در موقعیت گذرگاه عابر پیاده ممکن است انجام دهد آماده کرده ام.

برنامه‌ریزی متعارف هوش مصنوعی ممکن است مستلزم این باشد که توسعه‌دهندگان هوش مصنوعی تصمیم بگیرند همیشه سیستم رانندگی هوش مصنوعی متوقف شود و به عابر پیاده اجازه عبور بدهد. به نظر می رسد این کار از نظر اخلاقی مناسب یا مدنی است. ماشین خودران به انسان منتظری که می خواهد از خیابان رد شود موکول می کند.

به جرأت می‌توانم بگویم، اگر مسافر یک خودروی خودران بودید و هوش مصنوعی همیشه برای همه عابران پیاده در انتظار متوقف می‌شد، ممکن است دیوانه شوید. سفر سریع شما به خواربارفروشی ممکن است چندین برابر بیشتر طول بکشد. همچنین به یاد داشته باشید که ما به عابران پیاده‌ای اشاره نمی‌کنیم که حق تقدم قانونی عبور از آنها را دارند، زیرا در این موارد احتمالاً هوش مصنوعی برنامه‌ریزی شده است تا همیشه اجازه دهد. ما فقط بر روی شرایط اختیاری تمرکز می کنیم.

این اعلامیه توقف همیشه برای عبور عابران پیاده احتیاط از خیابان دارای نکات منفی بیشتری است.

آنهایی که خودروهای خودران مبتنی بر هوش مصنوعی می‌سازند و به بازار عرضه می‌کنند، از مردم می‌خواهند که سوار آن‌ها شوند. ایده این است که با داشتن اتومبیل های خودران، ممکن است تعداد تصادفات سالانه اتومبیل را کاهش دهیم، که در حال حاضر تنها در ایالات متحده سالانه حدود 40,000 کشته و 2.5 میلیون جراحت ایجاد می کند. این لینک در اینجا. علاوه بر این هدف اجتماعی مورد احترام، خودروسازان و سازندگان فناوری خودران امیدوارند که از خلاقیت های هوش مصنوعی خود نیز درآمد کسب کنند، طبیعتاً همینطور است.

من این را مطرح می کنم زیرا اگر سیستم رانندگی هوش مصنوعی کارهایی را انجام دهد ممکن است مردم تصمیم بگیرند که سوار ماشین های خودران نشوند. بدون نیاز به تاخیر انداختن سفرها هر فرد معمولی می‌گوید که با انتخاب یک راننده انسانی، سفر ممکن است سریع‌تر باشد، و بنابراین انتخاب یک ماشین خودران با هوش مصنوعی برای سفر ممکن است در لیست انتخاب‌های آنها بسیار پایین باشد. این به نوبه خود به این معنی است که ما کاهش مورد نظر در تصادفات اتومبیل را نخواهیم داشت و همچنین سازندگان به طور بالقوه کالاهای خود را بی‌سود می‌دانند.

با توجه به این دسته از استدلال‌ها، ممکن است فکر کنید که هوش مصنوعی هرگز نباید متوقف شود زمانی که یک نمونه احتیاطی از عابر پیاده که می‌خواهد از خیابان عبور کند، رخ می‌دهد. فقط سیستم رانندگی هوش مصنوعی را طوری برنامه ریزی کنید که هر کاری کاملا قانونی است انجام دهد. اگر هیچ الزام قانونی برای اجازه عبور عابر پیاده وجود نداشته باشد، شانس سختی برای آن عابر پیاده منتظر است. شاید فرد باید به نقطه عبوری برود که مبنایی قانونی برای توقف خودروی خودران توسط هوش مصنوعی ایجاد کند.

آیا می توانید فریاد در این مورد را تصور کنید؟

مردم شهر یا شهر شما به تدریج متوجه می شوند که ماشین های خودران با هوش مصنوعی هرگز اجازه عبور عابر پیاده را نمی دهند. آن هوش مصنوعی خشمگین لعنتی! گویی هوش مصنوعی بینی خود را به سمت انسان می زند. یک آدم بد اخلاق از یک قطعه اتوماسیون بی‌خبر. برای تکمیل این، تصور کنید که شرایط مستندی وجود دارد که عابران پیاده به شدت نیاز به عبور دارند و هوش مصنوعی اصلا متوقف نمی شود.

در همین حال، رانندگان انسان با کمال میل توقف می کردند تا به آن افراد «ناامید» اجازه دهند با خیال راحت از خیابان عبور کنند.

در نتیجه این خشم، خودروهای خودران با هوش مصنوعی دیگر در خیابان ها و معابر منطقه شما مورد استقبال قرار نمی گیرند. مجوزهایی که از سوی مدیران شهری صادر شده بود لغو می شود. دور کردن بی رحمان ناسپاس از جاده های ما، غوغایی است.

خوب، به نظر می رسد ما بین یک سنگ و مکان سخت هستیم. هوش مصنوعی نباید همیشه اجازه عبور عابر پیاده را بدهد (همیشه متوقف نشوید). هوش مصنوعی همیشه نباید از عبور یک عابر پیاده احتیاطی جلوگیری کند (همیشه زوم نکنید). چه باید کرد؟

پاسخ واضح این است که هوش مصنوعی را برنامه ریزی کنیم تا به شیوه ای اختیاری عمل کند.

از شما می‌خواهم که ADM (تصمیم‌گیری الگوریتمی) را که باید از آن تشکیل شود، در نظر بگیرید. آیا هوش مصنوعی سعی خواهد کرد ماهیت عابر پیاده را تشخیص دهد و از ویژگی های تشخیص داده شده به عنوان مبنایی برای تصمیم گیری در مورد توقف یا عدم توقف خودروی خودران استفاده کند؟ شاید فردی مسن تر راه انتخاب باشد. اما آیا این تبعیض سنی در حال شکل گیری است؟ و غیره.

شاید سیستم رانندگی هوش مصنوعی طوری برنامه ریزی شده باشد که در طول روز متوقف شود و هرگز در طول شب متوقف نشود. منطق احتمالاً این است که برای سواران خودروی خودران ایمن‌تر فرض می‌شود که وسیله نقلیه خودران در روز متوقف شود اما نه در ساعات شلوغ عصر.

این شاید معقول به نظر برسد. بخشی از مشکل، انتظارات عابرین پیاده خواهد بود. در اینجا منظور من است. عابران پیاده خودروهای خودران با هوش مصنوعی را می بینند که برای گذرگاه های اختیاری توقف می کنند، که در نور روز اتفاق می افتد. عابران پیاده نمی دانند که هوش مصنوعی از چه معیاری برای توقف تصمیم گیری استفاده می کند. فرض برخی از عابران پیاده این است که هوش مصنوعی همیشه متوقف می شود (عدم درک اینکه نور روز در مقابل شب تعیین کننده واقعی است). در نتیجه، آن دسته از عابران پیاده که معتقدند خودروی خودران همیشه می ایستد، زمانی که سیستم رانندگی هوش مصنوعی به هیچ وجه قصد توقف نداشته باشد، از فرصت استفاده کرده و شروع به عبور می کنند (که احتمالاً اگر هوش مصنوعی متوقف شود. عابر پیاده در حال ورود به خیابان است، اگرچه این ممکن است گیج کننده باشد و فیزیک ممکن است مانع از توقف هوش مصنوعی خودروی خودران در زمان کافی برای جلوگیری از برخورد با عابر پیاده به ظاهر "خطا" شود).

فرض کنید توسعه‌دهندگان هوش مصنوعی و شرکت‌هایی که ماشین‌های خودران را در شهر شما آماده می‌کنند، مطمئن نیستند که چگونه می‌توانند هوش مصنوعی را در این مورد به‌روز کنند.

آنها تصمیم می گیرند هوش مصنوعی را بر روی داده های جمع آوری شده از سراسر منطقه "آموزش دهند". معلوم شد که دوربین‌های زیادی در شهر وجود دارد که رفت و آمد ماشین‌ها را در سرتاسر شهرک ثبت کرده‌اند. این داده‌ها موارد بسیاری از عابران پیاده را نشان می‌دهد که به دنبال عبور از خیابان به شیوه‌ای اختیاری هستند. همه داده‌ها به سیستم یادگیری ماشینی و یادگیری عمیق وارد می‌شوند تا آنچه را که در آن حوزه معمول در نظر گرفته می‌شود استخراج کند.

آیا ما هوش مصنوعی را آموزش می دهیم تا آنچه را که آداب اخلاقی محلی نشان می دهد انجام دهد؟

به عبارت دیگر، اگر یک شهر معین فرهنگ محلی بیشتری داشته باشد که تمایل بیشتری به توقف و اجازه عبور عابران احتیاط‌کننده داشته باشد، همانطور که اقدامات راننده انسان نشان می‌دهد، ML/DL به طور بالقوه از نظر محاسباتی این الگو را انتخاب می‌کند. سپس هوش مصنوعی برای انجام همین کار آموزش می بیند. از سوی دیگر، اگر رانندگان انسانی به ندرت متوقف شوند، هوش مصنوعی به طور بالقوه این «درس» را از تجزیه و تحلیل محاسباتی داده ها دریافت خواهد کرد. هوش مصنوعی همان کاری را انجام می دهد که انسان ها انجام می دهند.

ادعا این است که رفتارهای اخلاقی انسان ها در داده ها ثبت می شود و هوش مصنوعی همان قوانین اخلاقی را با تجزیه و تحلیل محاسباتی آغشته می کند. یک اخلاق شناس عموماً این را به عنوان رویکردی اجتماعی به اخلاق توصیف می کند. ارزش های مشترک جامعه در تلاش های جامعه به طور کلی منعکس می شود.

این ممکن است یک راه حل شیک به نظر برسد.

متأسفانه، تله های زیادی وجود دارد.

یکی از مشکلات آشکار این است که رانندگان انسانی ممکن است قبلاً در انتخاب توقف یا توقف (همانطور که قبلاً ذکر شد) نوعی تعصب را اعمال کرده باشند. سپس هوش مصنوعی نسخه‌ای از این سوگیری‌ها خواهد بود. آیا ما می خواهیم که چنین باشد؟

مشکل دیگری را در نظر بگیرید. فرض کنید رانندگان انسان به راحتی نحوه عملکرد خودروهای خودران با هوش مصنوعی را نمی پذیرند. فقط به این دلیل که رانندگان انسانی، فرضاً، مایل به توقف بودند، این ممکن است برای خودروهای خودران به یک اندازه فرض نشود. ممکن است رانندگان انسانی از خودروهای خودران با هوش مصنوعی که مدام برای عابران پیاده احتیاط توقف می‌کنند، عصبانی شوند، حتی اگر این اتفاق در دست رانندگان انسانی رخ می‌دهد، اما به نظر نمی‌رسد که رانندگان انسانی مزاحمتی ایجاد کند.

علاوه بر آزاردهنده بودن، می‌توانید احتمال اینکه رانندگان انسانی به طور ناخواسته اتومبیل‌های خودران را به عقب برگردانند را نیز به ذهن متبادر کنید. اگر یک راننده انسانی انتظار نداشت که خودروی خودران برای یک عابر پیاده متوقف شود، و اگر خودروی انسان محور مستقیماً پشت خودروی خودران قرار داشته باشد، ناهماهنگی فاحشی در انتظارات ایجاد می شود. سیستم رانندگی هوش مصنوعی ماشین خودران را متوقف می کند. راننده انسان این اقدام را پیش بینی نمی کرد. راننده انسان به ماشین خودران برخورد می کند. جراحات و احتمالاً تلفات جانی در پی دارد.

من عمداً به احتمال آسیب انسان اشاره کردم.

عابر پیاده در حال عبور از خیابان ممکن است در یک نگاه سریع به عنوان یک سوال پیش پا افتاده به نظر برسد. به نظر می رسد که هیچ کس نمی تواند با هر روشی که هوش مصنوعی برای متوقف کردن یا عدم توقف انتخاب کند آسیب ببیند. اشتباه! احتمال زیر گرفتن عابر پیاده وجود دارد. این احتمال وجود دارد که خودروی انسان محور به خودروی خودران برخورد کند. راننده و سرنشینان خودروی انسان محور ممکن است صدمه ببینند. راکبان داخل خودروی خودران ممکن است آسیب ببینند. جایگشت های اضافی از آسیب احتمالی انسانی به آسانی پیش بینی می شود.

نتیجه

در مورد آسیب انسانی صحبت می‌کنم، من چیز دیگری به شما می‌دهم تا ذهن شما را در مورد این معمای اخلاقی هوش مصنوعی درگیر کند.

یک خبر حاکی از آن است که مردی در حال رانندگی با خودرو به یک چهارراه بوده و برای این کار چراغ سبز نشان داده است. خودروی دیگری که توسط انسان هدایت می‌شد، چراغ قرمز تقاطع را انتخاب کرد و به‌طور غیرقانونی و غیرایمن بدون مانع وارد تقاطع شد و با تهدید به برخورد قانونی با خودروی متخلف برخورد کرد.

راننده به خبرنگاران گفت که باید بین ضربه زدن یکی را انتخاب می‌کرد، یا اینکه می‌توانست ماشینش را منحرف کند تا از تصادف جلوگیری کند، اما عابران پیاده در آن نزدیکی بودند و عمل انحراف می‌تواند آن افراد را به خطر بیندازد. شما چکار انجام خواهید داد؟ شما می توانید انتخاب کنید که با این ماشین در حال ظهور ضربه بخورید و شاید زندگی کنید تا داستان را تعریف کنید. یا می توانید سعی کنید از ضربه خوردن جلوگیری کنید، اما در عین حال احتمالاً عابران پیاده بی گناه را زیر پا می گذارید.

بسیاری از رانندگی روزانه ما دارای چنین تصمیمات اخلاقی عظیم و آنی است. من در این مورد به طور مفصل بحث کرده ام، همراه با ربط دادن این تصمیمات رانندگی مرگ یا زندگی به مشکل معروف یا برخی می گویند بدنام ترولی، به توضیح من در اینجا مراجعه کنید. پیوند اینجا.

در این سناریو راننده انسانی را با یک سیستم رانندگی هوش مصنوعی جایگزین کنید.

می خواهید هوش مصنوعی چه کاری انجام دهد؟

این یک سوال گیج کننده است.

یکی از رویکردها این است که هوش مصنوعی را طوری برنامه ریزی کنیم که به صورت کاملاً مستقیم حرکت رانندگی را انجام دهد، بنابراین حتی از نظر محاسباتی گزینه های دیگری مانند دور شدن از تصادف احتمالی را در نظر نمی گیرد. من پیش‌بینی می‌کنم که سواران ماشین‌های خودران از این که بفهمند هوش مصنوعی برای انجام هیچ کاری غیر از ضربه زدن ساخته نشده است ناراحت شوند. می توانید منتظر دعوا و هیاهو باشید.

رویکرد دیگر این است که سعی کنیم هوش مصنوعی را برای در نظر گرفتن احتمالات مختلف برنامه ریزی کنیم. چه کسی می‌تواند ADM را ایجاد کند که تصمیم می‌گیرد سیستم رانندگی هوش مصنوعی به کدام سمت برود؟ به نظر می رسد اجازه دادن به توسعه دهندگان هوش مصنوعی برای اتخاذ چنین تصمیمات سنگینی به تنهایی مملو از نگرانی های فراوان است.

می توانید سعی کنید به هوش مصنوعی اجازه دهید از داده های رانندگی انسان که توسط موقعیت های ترافیکی روزانه جمع آوری شده است، "یاد بگیرد". این شبیه معضل گذرگاه عابر پیاده و ایده پیشنهادی قبلی برای استفاده از داده های مونتاژ شده برای جمع آوری هوش مصنوعی هر آنچه که آداب اخلاقی محلی به نظر می رسد است. اخطارهای زیادی در مورد آن وجود دارد، مانند اینکه آیا الگوهای کشف شده ML/DL مناسب هستند یا نه، و غیره.

من همچنین از قبل هشدار داده بودم که بسته به آداب اخلاقی درگیر، احتمال دارد هوش مصنوعی رفتاری غیراخلاقی داشته باشد. برای مثال، فرض کنید هوش مصنوعی به نحوی بر روی یک الگوی محاسباتی فرود آمد تا همیشه عابران پیاده را هدف قرار دهد، هر زمان که ماشین دیگری تهدید به برخورد با ماشین خودران کرد.

اوه، مراقب عابران پیاده باشید، شما اهداف آماده ای خواهید بود.

فعلاً وقت آن است که بحث را ببندیم و این کار را با یک فکر نهایی دلچسب انجام دهیم.

شاید بدانید که آیزاک آسیموف "سه قانون رباتیک" خود را در سال 1950 پیشنهاد کرد و ما هنوز هم شیفته آن قوانین اعلام شده هستیم. اگرچه به نظر می رسد قوانین به راحتی قابل اجرا هستند، مانند اینکه یک سیستم یا ربات هوش مصنوعی نباید به انسان آسیب برساند و اجازه آسیب رساندن به انسان را ندهد، تفاوت های ظریف بسیار زیادی وجود دارد که این را پیچیده و گاهی غیرقابل دفاع می کند، به تحلیل من مراجعه کنید. در پیوند اینجا.

در هر صورت، این چیز دیگری است که آسیموف نیز به آن معروف است، هرچند کمتر: «هرگز اجازه ندهید که احساس اخلاقی شما مانع انجام درست کاری شود».

برای هوش مصنوعی اخلاقی که همه ما امیدواریم ابداع کنیم، باید در نظر داشته باشیم که اخلاق هوش مصنوعی آغشته شده ممکن است آن چیزی نباشد که ما پیش بینی کرده بودیم و به نوعی هوش مصنوعی همچنان باید هر کاری را که درست است انجام دهد. آسیموف به خوبی گفت. مدت‌ها قبل، به نظر می‌رسید که ارسطو به احساسات کاملاً مشابهی فکر می‌کرد.

منبع: https://www.forbes.com/sites/lanceeliot/2022/03/20/ethical-ai-ambitiously-hoping-to-have-ai-learn-ethical-behavior-by-itself-such-as- مورد-با-هوش-در-خودران-خودران/