اخلاق هوش مصنوعی مقابله با این که آیا انسان های خشمگینی که هوش مصنوعی را با خشونت می کوبند یا بدرفتاری می کنند، بسیار غیراخلاقی است، مانند آن دسته از افراد خشمگینی که به سیستم های هوش مصنوعی کاملاً خودمختار حمله می کنند.

به همین دلیل است که ما نمی توانیم چیزهای خوب داشته باشیم.

احتمالاً آن عبارت کاملاً محبوب را شنیده یا دیده اید و فوراً می دانید که به چه چیزی اشاره می کند. باور کنید یا نه، به نظر می رسد که قطعه هوشمندانه خرد حکیم حداقل به سال 1905 بازمی گردد، زمانی که عبارت مشابهی در بررسی بشردوستانه توسط الیزا بلون. به طور کلی، اصل بینش این است که گاهی اوقات ما در نهایت به شکستن، ضربه زدن، شکستن یا کلاً خراب کردن اشیاء یا مصنوعاتی می‌پردازیم که در غیر این صورت به نظر می‌رسد شایسته چنین رفتاری نیستند.

شما ممکن است بگویید که ما گاهی اوقات سوء استفاده - بدرفتاری اشیاء و مصنوعات، حتی آنهایی که ظاهراً آنها را می پرستیدیم یا آنها را ارزشمند می دانستیم.

این ممکن است به طور تصادفی اتفاق بیفتد، مانند بی احتیاطی و انداختن تلفن هوشمند خود در کمد (متأسفانه، این یکی از رایج ترین روش هایی است که تلفن های هوشمند غیرقابل استفاده می شوند). از سوی دیگر، شاید در حالت عصبانیت، تصمیم بگیرید که گوشی هوشمند خود را در اتاق پرتاب کنید و آن را به یک تکه مبلمان سنگین یا قوچ مستقیماً به دیوار می کوبید. احتمال دارد که صفحه نمایش شکسته شود و روده های الکترونیکی دیگر به درستی کار نکنند.

این خشم نمی توانست به خودی خود هیچ ربطی به گوشی هوشمند نداشته باشد. شاید با کسی بحث می‌کردید و اتفاقاً عصبانیت خود را از چیزی که احتمالاً در آن زمان در دست شما بود، بیرون می‌کشید. گوشی هوشمند صرفاً در مکان اشتباه در زمان نامناسب قرار داشت.

هرچند مواردی وجود دارد که شی به نحوی با فوران خشمگین ارتباط دارد. به عنوان مثال، شما ناامیدانه منتظر یک تماس مهم هستید و گوشی هوشمند شما به طور شگفت انگیزی از کار می افتد. چه ناامیدی! با خود فکر می کنید، این تلفن هوشمند لعنتی همیشه به نظر می رسد در بدترین زمان ها از بین می رود. خب، به جهنم، گوشی هوشمند قرار است تاوان این تخلف اخیر را با پرتاب شدن به طور خلاصه در اتاق بپردازد. این را بگیر، تو گوشی هوشمند خوبی نیستی.

آیا خشم همیشه باید جزء باشد؟

شاید شما با آرامش تصمیم گرفتید که تلفن هوشمند شما به پایان کار خود رسیده است. شما می خواهید یک جدید دریافت کنید. بنابراین، گوشی هوشمند موجود دارای ارزش کاهش یافته است. مطمئناً می توانید سعی کنید تلفن هوشمند کمی قدیمی را معامله کنید، اما شاید در عوض تصمیمی آگاهانه بگیرید که ترجیح می دهید کمی سرگرم شوید و ببینید چقدر می تواند باعث تحقیر فیزیکی شود. بنابراین، پس از مقداری استدلال متفکرانه، دستگاه را به شدت در سراسر اتاق پرتاب می کنید و آنچه را که اتفاق می افتد مشاهده می کنید. این فقط یک نوع آزمایش فیزیک است که به شما امکان می دهد میزان خوش ساخت گوشی هوشمند را بسنجید.

من شک دارم که بسیاری از ما وقتی تهاجم خود را به یک شی یا مصنوع انجام می دهیم از آن نوع منطق دقیق تنظیم شده استفاده کنیم. اغلب، عمل احتمالاً در چارچوب ذهنی متفاوتی انجام می شود. به نظر می رسد این یکی از آن نوع کنش های ارتجاعی فوری باشد. پس از آن، ممکن است از کاری که انجام دادید پشیمان شوید و به این فکر کنید که چه چیزی منجر به چنین طغیان شد.

این نوع رفتار خشن نسبت به یک جسم بی جان به طور بالقوه در مورد شخصی که دست به چنین اقدامی گستاخانه و به ظاهر نامطلوب می زند، چه می گوید؟

خود شیء احتمالاً عمداً در تلاش نیست که شما را فریب دهد. وقتی توستر شما نان شما را به درستی برشته نمی کند، تصور اینکه توستر آن روز با این فکر از خواب بیدار شد که می خواهد با سوزاندن نان تست، صبحانه شما را به هم بزند، سخت است. این کمی بعید است. توستر صرفا یک وسیله مکانیکی است. کار می کند یا کار نمی کند. اما این ایده که توستر می‌خواهد کار نکند یا با کار کردن بر خلاف میل شما یک توستر سریع روی شما بگذارد، خوب، این یک تصور گسترده است.

برخی هستند که معتقدند همه اشیاء شباهتی از کارما یا روح دارند. در آن تئوری، فرض می شود که اگر شما قبلاً به درستی از توستر مراقبت نمی کردید، توستر می توانست به دنبال انتقام باشد. اگرچه این یک ایده فلسفی جالب است، اما من از آن مفهوم سازی متافیزیکی می گذرم و با این فرض روزمره که اشیا فقط اشیاء هستند (برای روشن شدن، تصمیمی در مورد احتمال دیگر پیشنهاد نمی کنم، فقط آن را کنار می گذارم. لحظه).

این مماس جانبی در مورد کارما یا روح شایسته بود زیرا جنبه مرتبطی را در مورد رفتار انسان به نمایش می گذارد. می بینید، ممکن است وسوسه شویم که شکلی از سرزندگی را به اشیایی نسبت دهیم که به آنچه ما عموماً شبیه به احساسات می دانیم نزدیک تر هستند.

یک توستر ده دلاری که یک دستگاه بدون استخوان است، به ندرت چیزی است که ما ممکن است تمایل داشته باشیم با هاله ای شبیه به آن را مسح کنیم. اگر بخواهید می توانید این کار را انجام دهید، اما این یک کشش است. همچنین ممکن است شروع به نسبت دادن حس به همه اشیاء کنید، مانند صندلی، تیر چراغ برق، شیر آتش نشانی و غیره. مانند درخشش به چیز.

هنگامی که از الکسا یا سیری استفاده می کنید، خود دستگاه صرفاً یک بلندگو و یک میکروفون است، اما این راحتی مدرن مطمئناً می تواند کاندیدای بهتری برای نسبت دادن قدرت های مشابه باشد. ظاهراً می‌توانید با دستگاه تعامل داشته باشید و مکالمه‌ای را ادامه دهید، هرچند مسلماً یک مکالمه متلاطم و فاقد سیالیت تعاملات عادی انسان محور است. با این وجود، آسانی خاصی برای اجازه دادن به الکسا یا سیری وجود دارد که به سمت تخصیص پذیری حسی سوق پیدا کنند (نگاه من به مورد اخیر الکسا در ارائه مشاوره در مورد گذاشتن یک پنی در پریز برق، در این لینک در اینجا).

فرض کنید ما توستر را با ابزارهایی مانند پردازش زبان طبیعی (NLP)، شبیه به الکسا یا سیری تزئین می کنیم. می توانید با توستر خود صحبت کنید و به او بگویید که چه مقدار از برشته کاری مورد نظر را می خواهید انجام دهد. توستر به گفته شما پاسخ می دهد و سپس به شما می گوید که نان تست آماده است. به نظر می رسد که این باور ما را تغییر می دهد که توستر در واقع به ظرفیتی شبیه به احساس نزدیک تر می شود.

هر چه به نظر می رسد که ویژگی های یک دستگاه را به ویژگی های امکانات انسانی نزدیک تر کنیم، به همان اندازه ما را در مسیر نسبت دادن ویژگی های حس مانند به دستگاه هدایت می کند. واضح ترین آنها روبات ها هستند. هر ربات پیشرفته راه رفتن و صحبت کردن باید این تصور درونی ما را القا کند که این دستگاه چیزی بیش از یک ساختگی مکانیکی یا الکترونیکی است.

اجازه بدهید یک سوال از شما بپرسم و صادقانه پاسخ دهید.

قبل از اینکه این کار را انجام دهم، حدس می‌زنم که به نوعی آن ویدیوهای ویروسی را دیده‌اید که روبات‌های نسبتاً شیکی را به نمایش می‌گذارند که می‌توانند راه بروند، بخزند، پرش کنند یا بدوند. در برخی از آن ویدئوها، انسانی در نزدیکی آن ایستاده است و در ابتدا به نظر می رسد که آماده است تا در صورت لنگیدن ربات، آن را بگیرد. شرط می بندم که اکثر ما به آن به عنوان یک عمل مهربانانه فکر می کنیم، شبیه به زمانی که یک کودک نوپا راه رفتن را یاد می گیرد و در آنجا حضور دارد تا کودک را قبل از اینکه سرش را به زمین بزند، بگیرد.

شما به ندرت می بینید که انسان ها ربات ها را می گیرند، و در عوض، انسان ها را می بینید که ربات ها را می زنند تا ببینند ربات بعدی چه خواهد کرد. گاهی از چوب بلند استفاده می شود، شاید چوب هاکی یا چوب بیسبال. انسان عمدا و بدون هیچ شرمی به ربات حمله خواهد کرد. ربات ممکن است مخالفت کند، و ما منتظریم تا ببینیم ربات چه واکنشی نشان خواهد داد.

سوال شما اینجاست

وقتی می بینید که ربات به طور خلاصه ضربه خورده است، آیا برای ربات احساس بدی دارید؟

خیلی از مردم این کار رو می کنند. هنگامی که چنین ویدئوهایی برای اولین بار شروع به ارسال کردند، هزاران نظر خشم خود را از بدرفتاری با روبات ها ابراز کردند. مردم مشتاقانه پرسیدند که ربات چه کرد که مستحق این نوع سوء استفاده نامطلوب بود؟ برخی با عصبانیت گفتند که باید آن انسان ها را بیرون آورد و به خودشان چند لگد زد. این کار را متوقف کنید و چنین ویدیوهایی را با صدای بلند حذف کنید.

شما به راحتی می توانید همین احساس را در مورد یک توستر ده دلاری بره بونز داشته باشید، با این حال احتمالاً همان نگرانی های احشایی و تکان دهنده را ایجاد نمی کند. به نظر می رسد که هر چه یک شیء در طیفی از شیء کاملاً بی جان که هیچ شباهتی به ظرفیت های انسانی ندارد به اشیایی که شباهت بیشتری به احساسات انسانی دارند، نزدیکتر شود، حساسیت ما را از نسبت دادن اخلاقیات انسانی به آن شیء خدشه دار می کند. .

بیایید آن را بیشتر باز کنیم.

اگر صاحب یک گوشی هوشمند هستید و می‌خواهید آن را بشکنید، و اگر انجام این کار به کسی آسیبی نرساند، به نظر می‌رسد که ما از نظر اخلاقی مخالفت چندانی با چنین عملی نداریم. شما مالک آن هستید، می‌توانید هر کاری که می‌خواهید با آن انجام دهید (با فرض اینکه این عمل به دیگران آسیب نرساند).

البته، ممکن است از طرف شما این کار را احمقانه بدانیم، و این ممکن است یک سرریز داشته باشد. اگر می خواهید گوشی هوشمند خود را نابود کنید، چه کار دیگری می توانید انجام دهید؟ شاید این اقدام مخرب و به ظاهر بی‌معنایی، هشداری از چیزی در درون شما از یک پتانسیل بسیار بدتر باشد. در این طرز تفکر، ما آنقدر نگران گوشی هوشمند نیستیم که چگونه اقدامات شما در مورد گوشی هوشمند بازتابی از شما و رفتارهای شماست.

در مورد انسان‌هایی که به ربات‌های راه‌رو یا خزنده ضربه می‌زنند و هل می‌دهند، احتمالاً وقتی متوجه می‌شوید که آن انسان‌ها آزمایش‌کننده‌هایی هستند که دستمزد دریافت می‌کنند یا به طور حرفه‌ای به ربات‌ها به دلایل معمول ضربه می‌زنند، راحت می‌شوید. آنها در تلاشند تا ببینند ربات و هوش مصنوعی زیربنایی ربات چقدر می توانند با اتفاقات مخرب کنار بیایند.

تصور کنید که شخصی یک برنامه هوش مصنوعی نوشته است تا به یک ربات کمک کند بتواند راه برود یا بخزد. آن‌ها منطقاً می‌خواهند بدانند که وقتی ربات به بیراهه می‌رود و روی چیزی می‌چرخد، هوش مصنوعی چقدر خوب عمل می‌کند. آیا ربات می تواند خود را متعادل کند یا در صورت نیاز تعادل را مجدداً حفظ کند؟ با داشتن انسان در نزدیکی، ربات‌ها را می‌توان با فشار دادن و یا به حرکت درآوردن آزمایش کرد. به قول خودشان همه به نام علم است.

وقتی متوجه شدید که چرا انسان‌ها با روبات‌ها «بدرفتاری» می‌کنند، احتمالاً خشم خود را کنار می‌گذارید. ممکن است هنوز هم شک و تردیدی طولانی داشته باشید، زیرا دیدن یک سازه انسان‌مانند که ضربه می‌خورد، یادآور ضربه خوردن انسان یا حیوان است. اگرچه می‌دانید که ربات چیزی را «احساس» نمی‌کند، اما تماشای آن‌ها هنوز هم تا حدودی شخصاً دردناک است (برای اطلاعات بیشتر در مورد حس وابستگی انسان به سیستم‌های هوش مصنوعی مانند ربات‌ها، از جمله پدیده‌ای که به نام عجیب و غریب شناخته می‌شود. دره، بحث من را در این لینک در اینجا).

کسانی که در زمینه اخلاق هوش مصنوعی فعالیت می کنند، معمای روانشناختی اخلاقی را بررسی می کنند که وقتی با سیستم های هوش مصنوعی به شدت برخورد می شود، تجربه می کنیم. یکی از مهم‌ترین نگرانی‌ها این است که کسانی که چنین «بدرفتاری‌هایی» انجام می‌دهند ممکن است همه ما را وادار کنند که نسبت به انواع بدرفتاری‌ها، از جمله و به‌طور خطرناکی شیب لغزنده تمایل برای بدرفتاری با همنوعان، حساسیت کمتری داشته باشیم.

در یک مطالعه تحقیقاتی اخیر منتشر شده در مجله هوش و اخلاق محققان با عنوان «سوگیری‌های اجتماعی-شناختی در اخلاق هوش مصنوعی مردمی و گفتمان خطر» این موضوع را اینگونه توصیف می‌کنند: «همان پدیده می‌تواند در دوران هوش مصنوعی و روبات‌ها به یک مشکل روان‌شناختی اخلاقی تبدیل شود. هنگامی که واقعیت روزمره ما پر از سیستم های هوشمند مختلف است که فاقد جایگاه صبر اخلاقی هستند، ممکن است مردم به ظلم و بی تفاوتی عادت کنند. از آنجایی که ما گاهی به ربات‌ها فکر می‌کنیم که گویی آن‌ها زنده و آگاه هستند، ممکن است به طور ضمنی الگوهای رفتاری را اتخاذ کنیم که می‌تواند بر روابط ما با دیگران تأثیر منفی بگذارد. ساندوال، جوسی پالوماکی و آکو ویسالا).

نکته پایانی این است که ممکن است خودمان را به‌طور اجتناب‌ناپذیر بپذیریم که انجام بدرفتاری تقریباً اشکالی ندارد، صرف‌نظر از اینکه آیا نسبت به یک شی مانند یک ربات مبتنی بر هوش مصنوعی یا یک انسان زنده نفس می‌کشد. شما می توانید به این لیست پتانسیل افزایش بدرفتاری با حیوانات را نیز اضافه کنید. در مجموع، سیل‌های بدرفتاری می‌تواند یک سونامی خشن باشد که به‌طور خطرناکی هر کاری را که ما انجام می‌دهیم خیس می‌کند.

اینچ به اینچ، ما به بدرفتاری سیستم‌های هوش مصنوعی عادت خواهیم کرد و این به نوبه‌ی خود اینچ به اینچ دفع بدرفتاری را که گفته می‌شود کاهش می‌دهد.

این یک نظریه هوش مصنوعی اخلاقی است که از نزدیک مورد بررسی قرار می گیرد. این به ویژه در حال حاضر به موقع است، زیرا سیستم های هوش مصنوعی که در حال ساخت و تولید هستند، بیش از هر زمان دیگری شبیه به ظرفیت های انسانی هستند. هوش مصنوعی به سمتی می رود که شبیه احساسات انسان شود، بنابراین ما به طور بالقوه در حال تغییر بیشتر به سمت طیف وحشتناک بدرفتاری هستیم.

همانطور که به زودی توضیح خواهم داد، تمایل ما به انسان سازی سیستم های هوش مصنوعی وجود دارد. ما هوش مصنوعی شبیه به انسان را با جنبه‌های انسانی برابر می‌دانیم، علی‌رغم این واقعیت که امروزه هیچ هوش مصنوعی وجود ندارد و ما هنوز نمی‌دانیم که آیا هرگز به این احساس دست خواهیم یافت یا خیر. آیا مردم در تله ذهنی پذیرش بدرفتاری با هوش مصنوعی می افتند که گویی چراغ سبزی برای ادامه بدرفتاری با انسان ها و حیوانات (هر موجود زنده) است؟

برخی استدلال می کنند که ما باید این موضوع را در جوانه حذف کنیم.

به مردم بگویید که نباید با سیستم های هوش مصنوعی بدرفتاری کنند. حتی آن آزمایش‌کنندگانی که با روبات‌های راه‌رو و خزنده کار می‌کردند، با نمایش دادن فیلم‌های تلاش‌هایشان، ظاهراً با خوشحالی، خدمات بدی انجام دادند. این یکی دیگر از آجرهایی است که دیدگاه های اجتماعی در مورد بدرفتاری را زیر پا گذاشته است. اجازه ندهید که گلوله برفی از تپه برفی خشن شروع به غلتیدن کند.

اصرار داشته باشید که با همه چیز از جمله اشیا و مصنوعات با احترام رفتار کنیم. و به خصوص زمانی که آن اشیاء یا مصنوعات ارتباط یا شباهتی به شکل انسان داشته باشند. اگر نمی‌توانیم افرادی را که می‌خواهند گوشی هوشمند خود را به دیوار پرتاب کنند، متوقف کنیم، اما وقتی می‌خواهند یک ربات را بشکنند یا با هر وسیله‌ای که هاله‌ای شبیه انسان دارد بدرفتاری مشابه انجام دهند، باید پایمان را زمین بگذاریم. .

هاگواش، برخی با تحقیر فراوان پاسخ می دهند.

هیچ ارتباطی بین نحوه رفتار مردم با سیستم هوش مصنوعی و این ایده که آنها به نحوی نحوه رفتارشان با انسان ها و حیوانات را تغییر خواهند داد، وجود ندارد. آن دو موضوع متفاوت هستند. آنها را با هم قاطی نکنید، استدلال مخالف است.

مردم آنقدر باهوش هستند که اعمالشان نسبت به اشیا را از اعمالشان نسبت به موجودات زنده جدا نگه دارند. شما با تلاش برای اتصال آن نقطه ها دست تکان می دهید. به نظر می‌رسد نگرانی مشابهی در مورد بزرگ شدن با استفاده از بازی‌های ویدیویی که به بازیکنان اجازه می‌داد تا شخصیت‌های ویدیویی را شلیک کرده و از بین ببرند، ایجاد شد. در آن صورت، احتمالاً بدتر از آسیب رساندن به ربات‌های هوش مصنوعی بود، زیرا این بازی ویدیویی گاهی شخصیت‌های ویدیویی کاملاً شبیه انسان را به نمایش می‌گذارد.

ضد آن استدلال مخالف این است که بازی های ویدیویی با اشیاء واقعی سروکار ندارند. بازیکن می داند که در یک رویا غوطه ور شده است. این با پرتاب یک گوشی هوشمند به داخل اتاق یا ضربه زدن به ربات خزنده با چوب فاصله زیادی دارد. علاوه بر این، تحقیقاتی وجود دارد که از تردیدها در مورد اینکه چگونه بازی ویدیویی می‌تواند به رفتارهای دنیای واقعی سرایت کند، حمایت می‌کند.

اخلاق هوش مصنوعی در حال بررسی محرک‌های رفتار انسان است و اینکه چگونه ظهور سیستم‌های مبتنی بر هوش مصنوعی نسبتاً پیچیده تحت تأثیر قرار می‌گیرد، به‌ویژه با توجه به بدرفتاری‌هایی که گاه انسان‌ها با چنین سیستم‌های هوش مصنوعی انجام می‌دهند. صحبت از رانندگی شد (بله، من آن را پنهان کردم)، این به من اجازه می دهد تا به موضوع خودروهای خودران واقعی مبتنی بر هوش مصنوعی بپردازم، که به خوبی در این موضوع کلی جا می شود.

ببینید، به عنوان یک متخصص در زمینه هوش مصنوعی از جمله پیامدهای اخلاقی و قانونی، اغلب از من خواسته می‌شود که نمونه‌های واقع بینانه‌ای را که معضلات اخلاقی هوش مصنوعی را نشان می‌دهند شناسایی کنم تا بتوان ماهیت تا حدودی نظری موضوع را راحت‌تر درک کرد. یکی از جذاب‌ترین زمینه‌هایی که این معضل اخلاقی هوش مصنوعی را به وضوح نشان می‌دهد، ظهور خودروهای خودران واقعی مبتنی بر هوش مصنوعی است. این به عنوان یک مورد کاربردی مفید یا نمونه ای برای بحث و گفتگو در مورد موضوع مفید خواهد بود.

پس در اینجا یک سوال قابل توجه وجود دارد که قابل تامل است: آیا ظهور خودروهای خودران واقعی مبتنی بر هوش مصنوعی چیزی را در مورد بدرفتاری با اشیا یا مصنوعات روشن می کند؟

یک لحظه به من اجازه دهید تا پرسش را باز کنم.

اول، توجه داشته باشید که هیچ راننده انسانی در یک ماشین خودران واقعی دخیل نیست. به خاطر داشته باشید که خودروهای خودران واقعی از طریق سیستم رانندگی هوش مصنوعی هدایت می شوند. نه نیازی به راننده انسان پشت فرمان وجود دارد و نه پیش بینی ای برای رانندگی وسیله نقلیه توسط انسان وجود دارد. برای پوشش گسترده و مداوم من در مورد وسایل نقلیه خودران (AVs) و به خصوص خودروهای خودران، نگاه کنید به پیوند اینجا.

مایلم بیشتر توضیح دهم که منظور از خودروهای خودران واقعی چیست.

درک سطح اتومبیل های خودران

به عنوان یک توضیح ، اتومبیل های واقعی خودران از جمله مواردی هستند که هوش مصنوعی اتومبیل را کاملاً خود به خود هدایت می کند و هیچ گونه کمک انسانی در حین کار رانندگی وجود ندارد.

این وسایل نقلیه بدون راننده سطح 4 و سطح 5 در نظر گرفته می شوند (توضیحات من را در اینجا ببینید این لینک در اینجا) در حالی که خودرویی که نیاز به یک راننده انسانی برای مشارکت در رانندگی دارد معمولاً در سطح 2 یا سطح 3 در نظر گرفته می شود. افزودنی های خودکار که به عنوان ADA شناخته می شوندADA
S (سیستم های پیشرفته کمک راننده).

در سطح 5 هنوز یک اتومبیل واقعی رانندگی وجود ندارد ، که ما حتی نمی دانیم آیا این امر امکان پذیر خواهد بود یا اینکه رسیدن به آنجا چقدر طول می کشد.

در همین حال ، تلاش های سطح 4 به تدریج در تلاشند تا با انجام آزمایشات عمومی بسیار باریک و انتخابی در جاده ها ، کمی به سمت خود جلب کنند ، هرچند در مورد اینکه آیا این آزمایش به خودی خود مجاز است یا خیر ، اختلاف نظر وجود دارد (همه ما در یک آزمایش خوکچه هندی زنده یا مرگ هستیم) برخی از آنها ادعا می كنند كه در بزرگراهها و گذرگاههای ما در حال انجام است این لینک در اینجا).

از آنجا که اتومبیل های نیمه خودمختار به یک راننده انسانی احتیاج دارند ، تصویب آن دسته از اتومبیل ها تفاوت چندانی با رانندگی وسایل نقلیه معمولی نخواهد داشت ، بنابراین به تنهایی چیز جدیدی برای پوشش آنها در این موضوع وجود ندارد (هر چند ، همانطور که خواهید دید در یک لحظه ، نکات بعدی که بطور کلی اعمال می شود).

در مورد اتومبیل های نیمه خودمختار ، مهم است که در مورد جنبه نگران کننده ای که اخیراً بوجود آمده است ، هشدار داده شود ، یعنی این که با وجود آن رانندگان انسانی که با ارسال فیلم هایی از خودشان ، در حال خوابیدن در چرخ یک اتومبیل سطح 2 یا سطح 3 هستند. ، همه ما باید از اینكه گمان نرود راننده بتواند هنگام رانندگی یك اتومبیل نیمه خودمختار ، توجه خود را از وظیفه رانندگی دور كند ، خودداری كنیم.

شما مسئولیت اقدامات رانندگی وسیله نقلیه ، صرفنظر از میزان اتوماسیون در سطح 2 یا سطح 3 ، مسئولیت مسئولیت مسئولیت شما می باشد.

اتومبیل های خودران و دشمنی توسط انسان ها

برای وسایل نقلیه خود رانندگی واقعی سطح 4 و سطح 5 ، یک راننده انسانی درگیر در وظیفه رانندگی نخواهد بود.

همه سرنشینان مسافر خواهند بود.

هوش مصنوعی رانندگی را انجام می دهد.

یک جنبه برای بحث فوری این واقعیت را در بر دارد که هوش مصنوعی در سیستم های رانندگی هوش مصنوعی امروزی حساس نیست. به عبارت دیگر ، هوش مصنوعی در مجموع مجموعه ای از برنامه نویسی و الگوریتم های مبتنی بر رایانه است و مطمئناً قادر به استدلال به همان روشی نیست که انسان می تواند.

چرا این تاکید اضافی در مورد هوش مصنوعی نیست؟

از آنجا که می خواهم تأکید کنم هنگام بحث در مورد نقش سیستم رانندگی AI ، من خصوصیات انسانی را به AI نسبت نمی دهم. لطفاً توجه داشته باشید که این روزها تمایل مستمر و خطرناکی برای انسان سازی AI وجود دارد. در حقیقت ، افراد حساسیتی شبیه انسان به هوش مصنوعی امروزی دارند ، علی رغم این واقعیت انکارناپذیر و غیرقابل انکار که هنوز چنین هوش مصنوعی وجود ندارد.

با این توضیحات ، می توانید تصور کنید که سیستم رانندگی هوش مصنوعی بطور طبیعی از جنبه های رانندگی "آگاهی" نداشته باشد. رانندگی و همه آنچه که شامل می شود باید به عنوان بخشی از سخت افزار و نرم افزار اتومبیل خودران برنامه ریزی شوند.

بیایید به جنبه های بی شماری بپردازیم که در این موضوع بازی می شوند.

اول، مهم است که بدانیم همه خودروهای خودران با هوش مصنوعی یکسان نیستند. هر خودروساز و شرکت فناوری خودران رویکرد خود را برای ابداع خودروهای خودران در پیش گرفته است. به این ترتیب، اظهار نظر گسترده در مورد اینکه سیستم های رانندگی هوش مصنوعی چه کاری انجام خواهند داد یا انجام نمی دهند، دشوار است.

علاوه بر این ، هرگاه بیان شود که سیستم رانندگی هوش مصنوعی کار خاصی انجام نمی دهد ، بعداً توسعه دهندگانی که در واقع کامپیوتر را برای انجام این کار برنامه ریزی می کنند ، می توانند از این امر پیشی بگیرند. گام به گام ، سیستم های رانندگی هوش مصنوعی به تدریج در حال بهبود و گسترش هستند. امروزه محدودیت موجود ممکن است دیگر در نسخه یا نسخه بعدی سیستم وجود نداشته باشد.

من معتقدم که هشدارهای کافی برای تأکید بر آنچه که من در مورد آن صحبت می کنم فراهم می کند.

ما اکنون آماده هستیم تا به بررسی خودروهای خودران و سوالات اخلاقی هوش مصنوعی پیرامون بدرفتاری بالقوه خود نسبت به آن وسایل نقلیه خودران افتخاری بپردازیم.

اول، ممکن است به طور طبیعی فرض کنید که هیچ کس با یک ماشین خودران مبتنی بر هوش مصنوعی بدرفتاری نمی کند.

این منطقی به نظر می رسد. ما به طور کلی این ایده را می پذیریم که یکی از مزایای کلیدی داشتن اتومبیل های خودران این است که آنها در تصادفات اتومبیل بسیار کمتری نسبت به اتومبیل های انسان محور درگیر می شوند. هوش مصنوعی مشروب نمی‌نوشد و رانندگی نمی‌کند. هوش مصنوعی ویدیوهای گربه را در حالی که در فرمان است تماشا نمی کند. سالانه حدود 40,000 مرگ و میر تنها در ایالات متحده به دلیل تصادفات اتومبیل و حدود 2.5 میلیون جراحت رخ می دهد، که پیش بینی می شود با شیوع اتومبیل های خودران در جاده ها، بسیاری از آنها دیگر رخ ندهند.

شاید با خود بگویید چه چیزی در مورد خودروهای خودران دوست ندارید.

خوب، لیست نسبتا گسترده است، پوشش من را در اینجا ببینید این لینک در اینجا، اما با توجه به محدودیت های فضا در اینجا من فقط به چند مورد از جنبه های نامطلوب که به طور قابل توجهی بیان شده است می پردازم.

همانطور که قبلاً در ستون های خود ذکر کرده ام، مواردی وجود داشته است که افراد به سمت اتومبیل های خودران در حال عبور سنگ پرتاب می کنند و طبق گزارش ها، اشیاء فلزی مانند میخ را در خیابان قرار می دهند تا لاستیک اتومبیل های خودران را سوراخ کنند. این کار به دلایل ادعایی مختلف انجام شد. یکی این که مردم در منطقه ای که خودروهای خودران در آن تردد می کردند نگران نبودند سیستم های رانندگی هوش مصنوعی برای زمان پربازدید آماده باشند.

نگرانی این بود که سیستم رانندگی هوش مصنوعی ممکن است از کار بیفتد، شاید از روی کودکی که در آن طرف خیابان پرتاب می‌کند یا به سگ خانگی محبوبی که احتمالاً در جاده پرپیچ و خم می‌شود برخورد کند. با توجه به نکته قبلی در مورد ما که ظاهراً به عنوان خوکچه هندی رفتار می شدیم، اعتقاد بر این بود که آزمایش و آمادگی کافی صورت نگرفته بود و خودروهای خودران به طور نامناسبی رها می شدند. تلاش‌ها برای محدود کردن آزمایش‌ها به‌عنوان نمایش عمومی عصبانیت در مورد خودروهای خودران که به طور قانونی مجاز به تردد در اطراف بودند، انجام شد.

ممکن است دلایل دیگری هم در این موارد وجود داشته باشد. برای مثال، برخی پیشنهاد کرده‌اند که رانندگان انسانی که متکی به کسب درآمد از طریق اشتراک‌گذاری سواری هستند، نگران بودند که هوش مصنوعی در آستانه جایگزینی آنها باشد. این یک تهدید برای معیشت آنها بود. مطمئناً می‌دانید که ظهور اتومبیل‌های خودران واقعی مبتنی بر هوش مصنوعی هنوز راه درازی دارد و بحث جابجایی کارگران آنی نیست. بنابراین، به نظر می رسد که پرتاب سنگ و سایر حوادث احتمالاً بیشتر در مورد نگرانی های ایمنی بوده است.

برای اهداف ما در این موضوع درباره بدرفتاری با هوش مصنوعی، این سوال مطرح می‌شود که آیا تمایل به انجام این اقدامات تا حدی مخرب علیه خودروهای خودران مبتنی بر هوش مصنوعی، نشان‌دهنده اولیه شیب لغزنده از بدرفتاری با هوش مصنوعی به بدرفتاری با انسان‌ها است؟

این فکر را نگه دارید

زاویه دیگری از بدرفتاری در نظر گرفته شده با خودروهای خودران مبتنی بر هوش مصنوعی شامل "قلدری" است که برخی از رانندگان انسان و حتی عابران پیاده به سمت این وسایل نقلیه خودران هدف قرار داده اند. به تحلیل های من مراجعه کنید. پیوند اینجا و پیوند اینجا.

به طور خلاصه، رانندگان انسانی که در حال رانندگی هستند و احتمالاً با یک خودروی خودران مواجه می‌شوند، در مواقعی ترجیح می‌دهند تا ترفندهای مربوط به رانندگی را در اتومبیل‌های بدون راننده انجام دهند. این حقه گاهی اوقات صرفاً برای سرگرمی انجام می شود، اما بیشتر از آن اساس معمولاً به دلیل ناامیدی و عصبانیت در مورد سیستم های رانندگی هوش مصنوعی امروزی است.

بیشتر سیستم‌های رانندگی هوش مصنوعی طوری برنامه‌ریزی شده‌اند که کاملاً قانونی رانندگی کنند. رانندگان انسانی لزوماً به روشی کاملاً قانونی رانندگی نمی کنند. برای مثال، رانندگان انسانی اغلب بالاتر از حد مجاز سرعت اعلام شده رانندگی می‌کنند، و این کار را در مواقعی به بدترین راه‌ها انجام می‌دهند. هنگامی که رانندگان انسانی پشت یک خودروی خودران هستند، راننده انسانی خود را درگیر سیستم رانندگی هوش مصنوعی «slowpoke» می‌بیند.

افرادی که در مناطقی زندگی می کنند که در حال حاضر با خودروهای خودران پرجمعیت هستند، با دیدن خودروی خودران جلوی خود بلافاصله ناراحت می شوند. آنها می دانند که وسیله نقلیه خودران، سفر رانندگی آنها را طولانی تر از آنچه لازم است انجام می دهد. بنابراین، چنین رانندگانی ترجیح می دهند نسبت به خودروهای خودران پرخاشگر باشند.

رانندگان می دانند که می توانند ماشین خودران را دور بزنند و آن را قطع کنند. سیستم رانندگی هوش مصنوعی فقط سرعت وسیله نقلیه خودران را کاهش می دهد و به هیچ وجه واکنشی از خود نشان نمی دهد. اگر یک راننده انسانی سعی می کرد همان حرکت تهاجمی را با راننده انسانی دیگری انجام دهد، احتمال اینکه تقریباً به طور قطع تلافی شود وجود دارد. تا حدودی، رانندگان انسانی رانندگی پرخاشگرانه خود را بر اساس درک این موضوع که راننده آسیب دیده ممکن است تلافی کند، تعدیل می کنند.

آیا این نوع رفتار رانندگی انسان نسبت به خودروهای خودران مبتنی بر هوش مصنوعی جعبه رفتارهای بد رانندگی پاندورا را باز می کند؟

نتیجه

ما دو مورد کلی از افرادی که ظاهراً با خودروهای خودران مبتنی بر هوش مصنوعی بدرفتاری می‌کنند را در جدول قرار داده‌ایم. اولین نمونه شامل پرتاب سنگ و تلاش برای خنثی کردن استفاده از خودروهای خودران در جاده ها بود. مثال دوم مستلزم رانندگی تهاجمی در خودروهای خودران بود.

این حداقل این نگرانی ها را ایجاد می کند:

  • آیا ظهور چنین بدرفتاری به اتومبیل‌های انسان‌گردان نیز کشیده خواهد شد؟
  • اگر این امر ادامه یابد یا بیشتر گسترش یابد، آیا چنین بدرفتاری به دیگر جنبه‌های تلاش‌های انسانی سرایت می‌کند؟

یک پاسخ این است که اینها صرفاً واکنش‌های موقتی به خودروهای خودران مبتنی بر هوش مصنوعی هستند. اگر بتوان عموم مردم را متقاعد کرد که خودروهای خودران با خیال راحت در جاده‌های ما کار می‌کنند، پرتاب سنگ و این گونه اعمال طاقت‌فرسا تا حد زیادی ناپدید می‌شوند (که اتفاقاً به نظر می‌رسد که فروکش کرده است). اگر بتوان سیستم‌های رانندگی هوش مصنوعی را بهبود بخشید تا گلوگاه کمتری در جاده‌های ما ایجاد کند، رانندگان انسانی در نزدیکی ممکن است تمایل کمتری به تهاجمی نسبت به خودروهای خودران داشته باشند.

تمرکز در سراسر این بحث این بوده است که بدرفتاری احتمالاً باعث بدرفتاری می شود. هر چه بیشتر بدرفتاری کنید، مانند بدرفتاری با هوش مصنوعی، این بدرفتاری بیشتر پذیرفته می شود و انجام می شود، مثلاً علیه انسان ها و حیوانات.

باور کنید یا نه، این سکه روی دیگری هم دارد، اگرچه برخی آن را به عنوان یک تغییر خوش بینانه در این موضوع می دانند.

این پیشنهاد به ویژه خوشبینانه است: شاید درمان مناسب باعث درمان مناسب شود.

در اینجا منظورم چیست؟

برخی از کارشناسان معتقدند که از آنجایی که سیستم‌های رانندگی با هوش مصنوعی طوری برنامه‌ریزی شده‌اند که قانونی و با دقت رانندگی کنند، ممکن است رانندگان انسانی از این موضوع درس بگیرند و تصمیم بگیرند که عاقلانه‌تر رانندگی کنند. وقتی سایر خودروهای اطراف شما به شدت محدودیت سرعت را رعایت می کنند، شاید شما هم این کار را انجام دهید. هنگامی که آن خودروهای خودران در حال توقف کامل در تابلوهای استاپ هستند و سعی نمی‌کنند چراغ قرمز را روشن کنند، رانندگان انسانی نیز به همین ترتیب الهام می‌گیرند تا با هوشیاری رانندگی کنند.

یک شکاک آن خط فکر را نازک یا شاید حتی به طرز سعادتمندانه ای با چشمان گشاد و به طرز پوچ ساده لوحی می یابد.

من را یک خوش بین خطاب کنید، اما من به این ایده رویایی رای خواهم داد که رانندگان انسانی انگیزه بیشتری برای رانندگی عاقلانه تر خواهند داشت. البته، این واقعیت که خودروهای خودران واقعی مبتنی بر هوش مصنوعی، مانورهای حواس‌انگیز دیگر خودروهای انسان‌گردان اطراف را بر روی ویدئو و سایر حسگرهایشان ضبط می‌کنند و می‌توانند رانندگی غیرقانونی را به طور قطعی تنها با فشار دادن یک دکمه به پلیس گزارش دهند. ، ممکن است "الهام بخش" مورد نیاز برای رانندگی بهتر انسان را فراهم کند.

گاهی اوقات هم هویج و هم چوب لازم است تا رفتار انسان ها هماهنگ شود.

منبع: https://www.forbes.com/sites/lanceeliot/2022/07/30/ai-ethics-confronting-whether-irate-humans-that-violently-smash-or-mistreat-ai-is-alarmingly- غیراخلاقی-مانند-عصبانی-هایی-که-به-سیستم-های-کاملاً-مستقل-آی-دخت می زنند/