مبارزه با اخلاقیات هوش مصنوعی با تصادفات ناگزیر هوش مصنوعی، که بر خودروهای خودران خودران نیز تاثیر می گذارد.

آیا احتمالاً شخصی را می شناسید که به نظر می رسد به طور خاص در معرض تصادف باشد؟

به نظر می رسد همه ما این کار را انجام می دهیم.

شاید فردی از آن دسته باشد که می‌تواند روی پوست موز لیز بخورد یا روی یک گلدان گرانبها در اتاق نشیمن شما ضربه بزند. آنها آهنربای انسانی برای تصادفات از هر نوع هستند. ممکن است آنقدر بد باشد که حتی گاهی از بودن در کنار آنها بیزار باشید. ممکن است دچار سرریز شوم شوید یا عواقب ناپسند یکی از تصادفات ناخوشایند آنها را متحمل شوید.

اما شاید وقتی می گوییم هر کسی بیش از دیگران مستعد تصادفات است، بیش از حد خشن رفتار می کنیم. می توان این بحث را مطرح کرد که حوادث ممکن است برای هر یک از ما اتفاق بیفتد. همه ما در معرض احتمال ارتکاب یا درگیر شدن در تصادف هستیم. بهترین ما شامل.

بیایید در بالای این بحث یک سؤال آزاردهنده را جمع کنیم.

آیا تصادفات اجتناب ناپذیر است؟

به عبارت دیگر، مهم نیست که چقدر برای جلوگیری از حوادث تلاش می کنیم، به طور جدایی ناپذیری می تواند این باشد که با این وجود هنوز شانس و اطمینان نهایی وجود دارد که تصادفات رخ خواهند داد. شما می توانید به دنبال محافظت از جهان در برابر حوادث باشید. بدون شک محتاطانه به نظر می رسد. اما به هر طریقی، تصادفات همچنان سر زشت خود را بالا خواهند برد.

همانطور که می گویند، تصادفات در انتظار وقوع هستند.

ممکن است مفید باشد که منظور از اشاره به برخی رویدادها به عنوان تصادفی بودن مشخص شود. تعریف معمول فرهنگ لغت این است که تصادف نوعی حادثه است که به طور غیرمنتظره و غیرعمدی رخ می دهد، که برای آن یک نتیجه ناگوار وجود دارد که شامل یک ظاهر آسیب یا جراحت است.

با دقت آن تعریف را باز کنید.

حادثه مذکور غیر منتظره است. این بدان معناست که ما به نظر نمی‌رسیدیم که خود حادثه رخ دهد.

حادثه مذکور غیر عمدی است. این نشان می دهد که ما باید شرایطی را که در آن کسی عمداً به دنبال وقوع حادثه بوده است را رد کنیم. اگر یک شوخی پوست موز را روی زمین بگذارد که می‌داند یک بی‌گناه بدشانس و بی‌گمان پا می‌گذارد، به سختی می‌توان ادعا کرد که فردی که روی آن زمین می‌خورد دچار حادثه شده است. آنها در عوض فریب خوردند و موذیانه به دام کشیده شدند.

این تعریف همچنین شامل این معیار است که نتیجه تاسف بار است. یک حادثه در این زمینه باید به یک نتیجه تلخ منجر شود. شخصی که به طور تصادفی گلدان را کوبیده ترک خورده و احتمالاً به کالای لذیذ غیرقابل تعمیر آسیب رسانده است. صاحب گلدان از از دست دادن ارزش آسیب می بیند. شخصی که به گلدان برخورد کرد، ممکن است اکنون بابت ضرر به صاحبش مدیون باشد. بهشت نکند که کسی با شکستن گلدان بریده شده باشد یا خرد شده باشد.

به خاطر تعادل برابر، ممکن است بخواهیم توجه کنیم که تصادفات به اصطلاح "خوب" نیز وجود دارد. یک فرد ممکن است به دلیل یک حادثه، خود را در ثروت زیادی بیابد یا منافع حیاتی دیگری به دست آورد. یکی از نمونه هایی که اغلب ذکر شده، سر الکساندر فلمینگ و کشف تحسین شده پنی سیلین است. داستان از این قرار است که او در آزمایشگاهش کمی بی احتیاطی بود و پس از بازگشت از یک تعطیلات دو هفته ای، یک قالب روی یکی از بشقاب های کشت خود پیدا کرد. وی در این باره گفته است: «آدم گاهی چیزی را می‌یابد که دنبالش نیست. وقتی درست بعد از سپیده دم در 28 سپتامبر 1928 از خواب بیدار شدم، مطمئناً قصد نداشتم با کشف اولین آنتی بیوتیک یا قاتل باکتری در تمام پزشکی انقلابی ایجاد کنم. اما حدس می‌زنم این دقیقاً همان کاری بود که من انجام دادم.»

ما تصادفات مطلوب را کنار می گذاریم و در اینجا بر حوادث دلخراش تمرکز می کنیم. نسخه اخم‌شده تصادفات جایی است که آن پیامدهای نامطلوب می‌تواند به‌ویژه جان انسان را تهدید کند یا نتایج طاقت‌فرسایی داشته باشد. تا آنجا که ممکن است، تصادفات منفی را که می‌خواهیم به حداقل برسانیم (و البته، تصادفات مثبتی را که می‌خواهیم به حداکثر برسانیم، اگر این کار امکان‌پذیر باشد، هر چند در ستون بعدی به آن نوع صورتک اشاره خواهم کرد).

من می خواهم سؤال قبلی در مورد اجتناب ناپذیر بودن تصادفات را کمی بازگو کنم. تا کنون، ما توجه خود را به حوادثی که در یک نمونه خاص از یک فرد منفرد رخ می دهد، حفظ کرده ایم. شکی نیست که تصادفات نیز می توانند به طور همزمان بر تعداد زیادی از مردم تأثیر بگذارند. زمانی که افراد در یک سیستم پیچیده غوطه ور می شوند، می توان با آن مواجه شد.

خودتان را برای یک نوع سوال شناور قبلی آماده کنید.

آیا حوادث سیستم اجتناب ناپذیر است؟

ما باید این را در نظر بگیریم

فرض کنید یک کف کارخانه برای ساخت قطعات خودروها چیده شده است. کسانی که این کارخانه را طراحی کردند، بیایید بگوییم که به شدت نگران حوادث کارگری هستند که ممکن است رخ دهد. کارگران کارخانه موظفند همیشه از کلاه ایمنی استفاده کنند. تابلوهای موجود در کارخانه به شما توصیه می کنند که مراقب حوادث باشید و در کار خود مراقب باشید. تمام اقدامات احتیاطی برای جلوگیری از وقوع حوادث انجام می شود.

در این سیستم، ممکن است امیدوار باشیم که هیچ کس هرگز دچار حادثه نشود. آیا شما معتقدید که احتمال وقوع تصادف صفر است؟ به جرات می توانم بگویم که هیچ متفکر معقولی شرط نمی بندد که احتمال تصادف در این مورد صفر است. احتمال وقوع یک تصادف ممکن است واقعاً کم باشد، با این حال ما هنوز می دانیم و فرض می کنیم که با وجود تمام اقدامات احتیاطی، هنوز خطر کمی وجود دارد که یک تصادف رخ دهد.

همه اینها به این ایده اشاره دارد که در سیستمی با پیچیدگی کافی، ما باید باور کنیم که تصادفات همچنان رخ خواهند داد، صرف نظر از اینکه چقدر تلاش می کنیم از آنها جلوگیری کنیم. ما با اکراه از خودمان حمایت می کنیم که حوادث سیستم واقعاً اجتناب ناپذیر است. یک بیانیه بزرگ با این کالیبر ممکن است این هشدار را داشته باشد که سیستم باید از حد آستانه پیچیدگی برخوردار باشد به طوری که اساساً پوشش همه پایه‌ها برای جلوگیری از تصادفات غیرممکن است.

اکنون گام به گام با یک نظریه کلی در مورد تصادفات آشنا شده اید که می توانند به عنوان تصادفات عادی یا تئوری تصادفات عادی (NAT) برچسب گذاری شوند. در اینجا یک توضیح مفید توسط محققانی است که این مفهوم را بررسی کرده اند: "در مقیاس کافی بزرگ، هر سیستمی "حوادث عادی" ایجاد می کند. اینها حوادث اجتناب ناپذیری هستند که به دلیل ترکیبی از پیچیدگی، جفت شدن بین اجزا و آسیب احتمالی ایجاد می شوند. تصادف معمولی با تصادفات رایج خرابی قطعات متفاوت است، زیرا رویدادها و فعل و انفعالاتی که منجر به تصادف عادی می شود برای اپراتورهای سیستم قابل درک نیست" (همانطور که در "درک و جلوگیری از خرابی های هوش مصنوعی: راهنمای عملی" توسط رابرت ویلیامز و رومن یامپولسکی، فلسفه ها مجله).

دلیل اینکه من تو را به سرزمین به اصطلاح آورده ام تصادفات عادی این است که ممکن است لازم باشد این نظریه را با دقت در مورد چیزی که به تدریج و به طور اجتناب ناپذیری در جامعه ما فراگیر می شود، به کار ببریم، یعنی ظهور هوش مصنوعی (AI).

بیایید به این موضوع بپردازیم.

برخی افراد به اشتباه تصور می کنند که هوش مصنوعی به کمال می رسد. گمانه زنی ها ادامه دارد، سیستم های هوش مصنوعی اشتباه نمی کنند و ما را به دردسر نمی اندازند. تنها کاری که باید انجام دهید این است که اطمینان حاصل کنید که توسعه دهندگان هوش مصنوعی به اندازه کافی کار خود را انجام می دهند و البته، هوش مصنوعی هرگز کاری را انجام نخواهد داد که به عنوان تصادفی یا ایجاد یک حادثه تلقی شود.

نه چندان سریع در آن باور فرضی. اگر مایل به خرید به تئوری از تصادفات عادی، هر AI با هر پیچیدگی اساسی ناگزیر حادثه ای را به همراه خواهد داشت. صرف نظر از اینکه توسعه دهندگان هوش مصنوعی در اواخر شب چقدر برای جلوگیری از تصادف انجام می دهند، هوش مصنوعی مطمئناً در یک مقطع زمانی درگیر یک حادثه خواهد شد. این روشی است که کوکی خرد می شود. و گریه در شیر ریخته شده ما در مورد آن مهلتی ندارد.

به ترکیب هوش مصنوعی و اصول مفهومی آن فکر کنید تصادفات عادی.

تصور کنید که ما یک سیستم هوش مصنوعی داریم که سلاح های هسته ای را کنترل می کند. هوش مصنوعی با دقت ساخته شده است. هر چک و تعادل قابل تصور در سیستم هوش مصنوعی کدگذاری شده است. آیا از تصادف مبتنی بر هوش مصنوعی که ممکن است رخ دهد در امان هستیم؟ کسانی که از دیدگاه تصادفات عادی حمایت می کنند، می گویند که ما آنقدر که تصور می شود امن نیستیم. با توجه به اینکه هوش مصنوعی احتمالاً پیچیده است، یک تصادف عادی در سکوت منتظر است تا روزی، شاید در بدترین لحظه ممکن، پدیدار شود.

اصل این سؤالات و تردیدهای خاردار این است که ما باید در نظر داشته باشیم که هوش مصنوعی قطعاً تصادفی است و نوع بشر باید کاری معقولانه و پیشگیرانه در مورد خطراتی که ممکن است در پی خواهد داشت انجام دهد. همانطور که در یکی دو لحظه خواهید دید، این موضوع در مورد استفاده از هوش مصنوعی بسیار مهم است، و حوزه اخلاق هوش مصنوعی و هوش مصنوعی اخلاقی کمی در مورد اینکه چه کاری باید انجام شود، درگیر است. برای پوشش مداوم و گسترده من از اخلاق هوش مصنوعی و هوش مصنوعی اخلاقی، رجوع کنید به پیوند اینجا و پیوند اینجا، فقط به نام چند.

قبل از اینکه از سوراخ خرگوش پایین برویم، بیایید مطمئن شویم که در مورد ماهیت هوش مصنوعی یکسان هستیم. امروزه هیچ هوش مصنوعی وجود ندارد که حساس باشد. ما این را نداریم ما نمی دانیم که آیا هوش مصنوعی ممکن خواهد بود یا خیر. هیچ کس نمی تواند به درستی پیش بینی کند که آیا ما به هوش مصنوعی خواهیم رسید یا خیر، یا اینکه آیا هوش مصنوعی به طور معجزه آسایی به شکلی از ابرنواختر شناختی محاسباتی (که معمولاً به عنوان تکینگی شناخته می شود، به پوشش من مراجعه کنید) پیوند اینجا).

نوع هوش مصنوعی که من روی آن تمرکز می کنم شامل هوش مصنوعی غیر حساسی است که امروز داریم. اگر بخواهیم به شدت در مورد آن حدس بزنیم با احساس هوش مصنوعی، این بحث می تواند در جهتی کاملاً متفاوت پیش رود. ظاهراً یک هوش مصنوعی با کیفیت انسانی خواهد بود. باید در نظر داشته باشید که هوش مصنوعی حسی معادل شناختی انسانی است که به شما توصیه می کند. علاوه بر این، از آنجایی که برخی گمانه زنی می کنند که ممکن است هوش مصنوعی فوق هوشمند داشته باشیم، می توان تصور کرد که چنین هوش مصنوعی می تواند در نهایت از انسان ها باهوش تر باشد (برای کاوش من در مورد هوش مصنوعی فوق هوشمند به عنوان یک امکان، نگاه کنید به پوشش در اینجا). همه این سناریوها ارزیابی منبع را تقویت می کند.

بیایید همه چیز را روی زمین نگه داریم و هوش مصنوعی محاسباتی غیر حساس امروزی را در نظر بگیریم.

درک کنید که هوش مصنوعی امروزی قادر به «فکر کردن» به هیچ شکلی با تفکر انسان نیست. وقتی با الکسا یا سیری تعامل می کنید، ظرفیت های مکالمه ممکن است شبیه ظرفیت های انسانی به نظر برسد، اما واقعیت این است که محاسباتی است و فاقد شناخت انسانی است. آخرین دوره هوش مصنوعی از یادگیری ماشینی (ML) و یادگیری عمیق (DL) استفاده گسترده ای کرده است که از تطبیق الگوی محاسباتی استفاده می کند. این منجر به سیستم‌های هوش مصنوعی شده است که ظاهری شبیه به تمایلات انسان دارند. در همین حال، هیچ هوش مصنوعی امروزی وجود ندارد که شباهتی به عقل سلیم داشته باشد و هیچ یک از شگفتی‌های شناختی تفکر قوی انسانی را نداشته باشد.

ممکن است بدانید که زمانی که آخرین دوره هوش مصنوعی آغاز شد، شور و شوق زیادی برای آنچه که اکنون برخی می‌گویند وجود داشت. هوش مصنوعی برای خوب. متأسفانه، در پاشنه آن هیجان فوران، ما شروع به مشاهده کردیم هوش مصنوعی برای بد. برای مثال، سیستم‌های مختلف تشخیص چهره مبتنی بر هوش مصنوعی حاوی سوگیری‌های نژادی و سوگیری‌های جنسیتی هستند که من در مورد آن بحث کرده‌ام. پیوند اینجا.

تلاش برای مبارزه با هوش مصنوعی برای بد به طور فعال در حال انجام هستند. علاوه بر پر سر و صدا حقوقی تلاش برای مهار تخلفات، همچنین فشار اساسی به سمت پذیرش اخلاق هوش مصنوعی برای اصلاح شرارت هوش مصنوعی وجود دارد. تصور این است که ما باید اصول کلیدی هوش مصنوعی اخلاقی را برای توسعه و توسعه هوش مصنوعی اتخاذ و تأیید کنیم تا این کار را کاهش دهیم. هوش مصنوعی برای بد و به طور همزمان منادی و ترویج مرجح هوش مصنوعی برای خوب.

در یک مفهوم مرتبط، من طرفدار تلاش برای استفاده از هوش مصنوعی به عنوان بخشی از راه حل مشکلات هوش مصنوعی هستم، و با این شیوه تفکر با آتش مبارزه می کنم. برای مثال، ممکن است اجزای هوش مصنوعی اخلاقی را در یک سیستم هوش مصنوعی تعبیه کنیم که بر نحوه انجام بقیه هوش مصنوعی نظارت می‌کند و بنابراین به طور بالقوه در زمان واقعی هرگونه تلاش تبعیض آمیز را جلب می‌کند. پیوند اینجا. ما همچنین می‌توانیم یک سیستم هوش مصنوعی جداگانه داشته باشیم که به عنوان نوعی مانیتور اخلاق هوش مصنوعی عمل می‌کند. سیستم هوش مصنوعی به عنوان یک ناظر برای ردیابی و تشخیص اینکه چه زمانی هوش مصنوعی دیگر به ورطه غیراخلاقی می رود عمل می کند (تحلیل من از چنین قابلیت هایی را در اینجا ببینید. پیوند اینجا).

در مجموع، یک امید کلی این است که با ایجاد حسی از احکام اخلاقی هوش مصنوعی، حداقل بتوانیم آگاهی جامعه را نسبت به کارهایی که هوش مصنوعی هم می‌تواند به طور مفید انجام دهد و هم می‌تواند مضرات ایجاد کند، افزایش دهیم. من به طور گسترده در مورد تجزیه و تحلیل های جمعی مختلف از اصول اخلاق هوش مصنوعی بحث کرده ام، از جمله پوشش مجموعه ای ابداع شده توسط محققان که ماهیت بسیاری از اصول اخلاقی هوش مصنوعی ملی و بین المللی را در مقاله ای با عنوان "چشم انداز جهانی دستورالعمل های اخلاق هوش مصنوعی" بررسی و فشرده کرده است. که در طبیعت) و پوشش من در آن بررسی می شود پیوند اینجا، که منجر به این لیست کلیدی شد:

  • شفافیت
  • عدالت و انصاف
  • عدم سوء استفاده
  • مسئوليت
  • حریم خصوصی
  • سود رسانی
  • آزادی و خودمختاری
  • اعتماد
  • پایداری
  • کرامت
  • اتحاد

همانطور که ممکن است مستقیماً حدس بزنید، تلاش برای مشخص کردن جزئیات زیربنای این اصول می تواند بسیار سخت باشد. حتی بیشتر از آن، تلاش برای تبدیل این اصول گسترده به چیزی کاملاً ملموس و با جزئیات کافی برای استفاده در هنگام ساخت سیستم‌های هوش مصنوعی نیز یک مهره سخت است. به طور کلی می توان در مورد اینکه اصول اخلاقی هوش مصنوعی چیست و چگونه باید به طور کلی آنها را رعایت کرد، دست تکان داد، در حالی که وضعیت بسیار پیچیده تر در کدنویسی هوش مصنوعی است که باید لاستیک واقعی باشد که با جاده مطابقت می کند.

اصول اخلاقی هوش مصنوعی باید توسط توسعه دهندگان هوش مصنوعی، همراه با آنهایی که تلاش های توسعه هوش مصنوعی را مدیریت می کنند، و حتی آنهایی که در نهایت سیستم های هوش مصنوعی را انجام می دهند، مورد استفاده قرار گیرد. تمام ذینفعان در طول چرخه عمر توسعه و استفاده هوش مصنوعی در محدوده رعایت هنجارهای تثبیت شده هوش مصنوعی اخلاقی در نظر گرفته می شوند. این نکته مهمی است زیرا فرض معمول این است که «فقط کدنویس‌ها» یا کسانی که هوش مصنوعی را برنامه‌ریزی می‌کنند، مشمول رعایت مفاهیم اخلاق هوش مصنوعی هستند. همانطور که قبلاً گفته شد، برای ابداع و به کارگیری هوش مصنوعی به یک دهکده نیاز است، و برای آن کل دهکده باید به اصول اخلاقی هوش مصنوعی مسلط باشد و از آن پیروی کند.

ممکن است لازم باشد به فهرست‌های اخلاقی AI اضافه کنیم که باید صریحاً در نظر بگیریم و اقداماتی آشکار برای جلوگیری یا حداقل کاهش جدی مبتنی بر هوش مصنوعی انجام دهیم. تصادفات عادی که ممکن است رخ دهد کسانی که هوش مصنوعی را توسعه می دهند باید بهترین تلاش خود را در این زمینه انجام دهند. کسانی که هوش مصنوعی را به کار می گیرند باید همین کار را انجام دهند. کسانی که از هوش مصنوعی استفاده می کنند یا به نوعی در معرض آن هستند باید مراقب احتمال بروز حوادث هوش مصنوعی باشند.

ممکن است وسوسه شوید که فکر کنید می توان اقدامات احتیاطی کافی در هوش مصنوعی ایجاد کرد که احتمال تصادف به صفر برسد. برای کسانی که اهل فن هستند، غرور معمول این است که اگر یک تکه فناوری بتواند مشکلی ایجاد کند، مطمئناً یک فناوری دیگر می تواند مشکل را حل کند. فقط تا زمانی که مشکل از بین برود، فناوری های بیشتر و بیشتری را پرتاب کنید.

خوب، آنهایی که تصادفات سیستم محور را مطالعه کرده اند، تمایل دارند با ارائه دیدگاهی معروف به مدل پنیر سوئیسی (SCM) مخالفت کنند و مؤدبانه به ظلم فرضی فنی پاسخ دهند: "در SCM، لایه های ایمنی به عنوان برش هایی از مدل سازی می شوند. پنیر با سوراخ هایی در آنها نشان دهنده نقاط ضعف در هر لایه ایمنی است. با گذشت زمان، سوراخ ها تغییر شکل می دهند و به اطراف حرکت می کنند. در نهایت، مهم نیست که چند تکه پنیر (لایه‌های ایمنی) وجود داشته باشد، سوراخ‌ها در یک راستا قرار می‌گیرند و اجازه می‌دهند یک شلیک مستقیم از میان تمام برش‌های پنیر (یک تصادف رخ می‌دهد)» (بر اساس مقاله ذکر شده قبلی توسط رابرت ویلیامز و رومن یامپولسکی. ).

من نمی‌خواهم در این مماس جانبی گرفتار شوم که آیا یک راه تضمینی برای برنامه‌ریزی هوش مصنوعی وجود دارد یا نه که به طور کامل و همیشه از هرگونه احتمال تصادف جلوگیری کند. انواع روش های اثبات ریاضی و محاسباتی وجود دارد که در حال آزمایش هستند. من فکر می‌کنم منطقی و منصفانه است که اعلام کنیم ما امروز نه روش کار مقیاس‌پذیری داریم و نه فناوری‌هایی که بتواند چنین شانس صفر را تضمین کند، بعلاوه ما قطعاً مملو از هزاران تن از هوش مصنوعی هستیم که تولید می‌شود. مطمئناً به دنبال پیروی از چنین اقداماتی نبوده است. این نکته اخیر بسیار مهم است، زیرا حتی اگر بتوانیم چیزی را در یک آزمایشگاه هوش مصنوعی بسازیم، افزایش آن به هزاران تلاش بی‌دقت و بی‌خیال هوش مصنوعی در حال انجام و ظهور آن ادامه خواهد یافت، یک مسئله پیچیده است و به احتمال زیاد حتی اگر یک ماشین اثبات محاسباتی نقره‌ای باشد، حل نمی‌شود. گلوله وجود داشت

نکته دیگری که فکر می کنم شایسته ذکر مختصر است، هوش مصنوعی است که در نتیجه عوامل انسانی بدخواه به انجام اعمال ناشایست تبدیل می شود. من قصد ندارم آن موارد را در حوزه تصادفات هوش مصنوعی قرار دهم. به یاد داشته باشید که بحث آغازین نشان داد که تعریف فرهنگ لغت از تصادف یک حادثه است غیر عمد طبیعت اگر یک کلاهبردار سایبری انسانی بتواند یک سیستم هوش مصنوعی را وادار به انجام کارهای بد کند، من آن هوش مصنوعی را در زمره تصادف طبقه بندی نمی کنم. من اطمینان دارم که شما با این پیش فرض همراه خواهید بود.

یک سوال جالب مطرح می شود که چه مقدار از اقدامات ناخوشایند هوش مصنوعی را می توان صرفاً به یک تصادف هوش مصنوعی در مقابل عمل فریبنده یک مجرم سایبری نسبت داد. با توجه به برخی از پایگاه‌های اطلاعاتی گزارش‌دهنده رویدادهای هوش مصنوعی، به نظر می‌رسد که تصادفات هوش مصنوعی بیشتر از حوادث تحریک‌آمیز بدخواهانه اتفاق می‌افتند، اگرچه باید این تصور را با مقدار زیادی نمک در نظر بگیرید. این را به این دلیل می گویم که وسوسه بزرگی برای گزارش نکردن زمانی که یک سیستم هوش مصنوعی مورد حمله قرار گرفته است وجود دارد، و شاید تا حدودی مایل به گزارش دادن در هنگام وقوع حادثه هوش مصنوعی باشیم.

یک هشدار بسیار مهم وجود دارد که باید در مورد تصادفات هوش مصنوعی صحبت کنیم.

استفاده از عبارت «تصادفات هوش مصنوعی» به طور کلی نامطلوب است و برای همه ما آشفتگی ایجاد می کند، یعنی برای همه جامعه. زمانی که یک انسان تصادف می کند، ما اغلب شانه های خود را بالا می اندازیم و با فردی که تصادف کرده، همدردی می کنیم. به نظر می رسد ما با کلمه "تصادف" به گونه ای برخورد می کنیم که گویی به این معنی است که هیچ کس مسئول آنچه اتفاق افتاده است نیست.

بیایید تصادف رانندگی را مثال بزنیم. یکی از ماشین‌ها در پیچ راست می‌چرخد و تصادفاً به ماشین دیگری می‌خورد که مستقیم به جلو می‌رفت. اوک، این فقط یک تصادف بود و به طور تصادفی اتفاق افتاد. کسانی که در این حادثه دخیل نبوده‌اند، اگر رویداد صرفاً به عنوان یک تصادف مطرح شود، احتمالاً اجازه خواهند داد که موضوع از بین برود.

با این حال، من این احساس را دارم که اگر در ماشینی بودید که تصادف کرد، آنقدر با راننده ای که پیچ بسیار عریض را انجام داد، دلسوزی نمی کردید. مطمئناً نظر شما این است که راننده دیگر یک راننده لوس بوده و یک رانندگی ظاهراً غیرقانونی یا غیرعاقلانه منجر به تصادف اتومبیل شده است. با برچسب زدن این حادثه به عنوان "تصادف"، راننده ای که گیر کرده بود اکنون تا حدودی در وضعیت نامناسبی قرار دارد زیرا ظاهراً همه این اتفاقات به تنهایی رخ داده است، نه از طریق دستان راننده ای که خراب کرده است.

در واقع، کلمه "تصادف" به قدری مملو از معانی مختلفی است که به طور کلی، آمارهای دولتی در مورد تصادفات اتومبیل به جای استفاده از عبارت تصادفات اتومبیل، به این موضوع به عنوان تصادف یا تصادف اتومبیل اشاره می کند. به نظر نمی رسد یک تصادف اتومبیل یا تصادف اتومبیل تأثیری در چگونگی وقوع این حادثه داشته باشد. در همین حال، عبارت «تصادف با اتومبیل» تقریباً ما را به این فکر می‌کند که این یک اتفاق سرنوشت ساز یا به نوعی خارج از دستان بشر بوده است.

شما می توانید به وفور مشاهده کنید که چگونه این ملاحظات معنایی هنگام اشاره به تصادفات هوش مصنوعی مطرح می شود. ما نمی خواهیم توسعه دهندگان هوش مصنوعی پشت این سپر مفهومی پنهان شوند که هوش مصنوعی به طور تصادفی باعث آسیب رساندن به کسی شده است. همین امر در مورد کسانی که از هوش مصنوعی استفاده می کنند نیز صدق می کند. می‌توانید استدلال کنید که عبارت «حوادث هوش مصنوعی» تقریباً انسانی‌سازی هوش مصنوعی است که جامعه را گمراه می‌کند تا به انسان‌هایی که در پشت صحنه هوش مصنوعی بودند اجازه دهد از مسئولیت‌پذیری فرار کنند. برای بحث من در مورد اهمیت فزاینده مسئول دانستن انسان ها برای هوش مصنوعی خود، به بحث من در اینجا مراجعه کنید این لینک در اینجا و این لینک در اینجا.

من از این پس از عبارت تصادفی هوش مصنوعی استفاده خواهم کرد، اما این کار را با اکراه و تنها به این دلیل انجام می دهم که این روش مرسوم برای اشاره به این پدیده است. متأسفانه تلاش برای بیان متفاوت این موضوع متأسفانه بیشتر متورم می شود و به راحتی خوانده نمی شود. لطفاً مطمئن شوید که این عبارت را به گونه‌ای تفسیر کنید که باعث نشود به سمت دیگری نگاه کنید و متوجه نشوید که انسان‌های زیربنایی هوش مصنوعی در هنگام خراب شدن هوش مصنوعی مقصر هستند.

برای کمک به نشان دادن سردرگمی یا جنبه‌های گمراه‌کننده احتمالی اشاره به هوش مصنوعی به عنوان تصادف، می‌توانیم به اظهارات من در مورد ضربه زدن به گلدان بازگردیم. به این مثال از انجام این کار هوش مصنوعی توجه کنید: «این مشکل به کارهایی مربوط می شود که به طور تصادفی یا بی تفاوتی توسط هوش مصنوعی انجام می شود. یک ربات تمیزکننده که روی یک گلدان می کوبد یکی از نمونه های آن است. محیط‌های پیچیده آن‌قدر انواع «گلدان» دارند که بعید است بتوانیم برای همه عوارض جانبی آن‌ها را به صورت پنالتی برنامه‌ریزی کنیم» (بر اساس مقاله رابرت ویلیامز و رومن یامپولسکی).

به نظر می رسد یک سیستم هوش مصنوعی که در یک خانه مورد استفاده قرار می گیرد و سپس "به طور تصادفی" یک گلدان را می کوبد، نشان می دهد که هیچ کس نباید برای این عملکرد نامطلوب هوش مصنوعی سرزنش شود. این فقط یک تصادف بود، می‌توان با تأسف گفت. از سوی دیگر، ما به درستی باید بپرسیم که چرا سیستم هوش مصنوعی برای رسیدگی به شرایط گلدان به طور کلی برنامه ریزی نشده است. حتی اگر توسعه‌دهندگان هوش مصنوعی پیش‌بینی نمی‌کردند که یک گلدان به خودی خود در محدوده اشیایی باشد که می‌توان با آن‌ها مواجه شد، ما مطمئناً می‌توانیم این سوال را بپرسیم که چرا اجتناب از شیء فراگیر وجود نداشته است که سیستم هوش مصنوعی را از ضربه زدن به آن جلوگیری کند. گلدان (بنابراین، هوش مصنوعی ممکن است مسلماً گلدان را به عنوان یک گلدان طبقه بندی نکند، اما همچنان می تواند از آن به عنوان یک شی قابل تشخیص اجتناب کند).

من پیش‌بینی کرده‌ام و همچنان پیش‌بینی می‌کنم که ما به تدریج به سمت یک نبرد حقوقی عظیم بر سر ظهور سیستم‌های هوش مصنوعی می‌رویم که خود را دچار «حوادث هوش مصنوعی» می‌کنند و به نوعی آسیب می‌رسانند. تا به حال، جامعه به هیچ وجه واکنش قابل توجهی به عقب‌نشینی قانونی هوش مصنوعی که به بازار عرضه می‌شود و عواقب نامطلوبی دارد، چه از روی عمد یا ناخواسته، نشان نداده است. باند AI امروز که تبدیل به طلایی از سازندگان نیمه کاره هوش مصنوعی شده است و آنهایی که با عجله استقرار هوش مصنوعی را اجرا می کنند، در حال حاضر خوش شانس هستند و از دعاوی مدنی و پیگردهای کیفری نسبتاً دست نخورده باقی می مانند.

واکنش حقوقی ناشی از هوش مصنوعی دیر یا زود در راه است.

در ادامه، چگونه باید تلاش کنیم و با اجتناب ناپذیری تصادفات به اصطلاح هوش مصنوعی کنار بیاییم؟

یکی از کارهایی که می توانیم فوراً انجام دهیم این است که پیش بینی کنیم حوادث هوش مصنوعی چگونه ممکن است رخ دهد. با پیش‌بینی حوادث هوش مصنوعی، حداقل می‌توانیم به دنبال ابداع وسایلی برای کاهش آنها یا به حداقل رساندن احتمال وقوع آنها باشیم. علاوه بر این، می‌توانیم نرده‌های محافظ را در جای خود قرار دهیم تا زمانی که تصادف هوش مصنوعی اتفاق می‌افتد، احتمال آسیب‌های آشکار کاهش یابد.

مجموعه ای مفید از عواملی که در مقاله تحقیقاتی ذکر شده قبلی توضیح داده شد درک و اجتناب از خطاهای هوش مصنوعی: یک راهنمای عملی شامل این ویژگی ها (به نقل از مقاله تحقیق):

  • سیستمی که تحت تأثیر خروجی های هوش مصنوعی قرار می گیرد.
  • تأخیر زمانی بین خروجی‌های هوش مصنوعی و سیستم بزرگ‌تر، قابلیت مشاهده سیستم، سطح توجه انسان و توانایی اپراتورها برای اصلاح عملکرد نادرست هوش مصنوعی.
  • حداکثر آسیب ممکن توسط استفاده مخرب از سیستم هایی که هوش مصنوعی کنترل می کند.
  • جفت شدن اجزا در مجاورت هوش مصنوعی و پیچیدگی تعاملات.
  • شکاف دانش هوش مصنوعی و سایر فناوری های مورد استفاده و سطح انرژی سیستم.

در این مقطع از این بحث سنگین، شرط می بندم که شما خواهان نمونه های گویا هستید که ممکن است موضوع تصادفات هوش مصنوعی را بیشتر روشن کند. مجموعه‌ای از نمونه‌های خاص و مطمئناً محبوب وجود دارد که به دلم نشسته است. ببینید، به عنوان یک متخصص در زمینه هوش مصنوعی از جمله پیامدهای اخلاقی و قانونی، اغلب از من خواسته می‌شود که نمونه‌های واقع‌بینانه‌ای را که معضلات اخلاقی هوش مصنوعی را نشان می‌دهند شناسایی کنم تا بتوان ماهیت تا حدودی نظری موضوع را راحت‌تر درک کرد. یکی از جذاب‌ترین زمینه‌هایی که این معضل اخلاقی هوش مصنوعی را به وضوح نشان می‌دهد، ظهور خودروهای خودران واقعی مبتنی بر هوش مصنوعی است. این به عنوان یک مورد استفاده مفید یا نمونه ای برای بحث و گفتگوی کافی در مورد موضوع خواهد بود.

پس در اینجا یک سوال قابل توجه وجود دارد که قابل تامل است: آیا ظهور خودروهای خودران واقعی مبتنی بر هوش مصنوعی چیزی را در مورد ظهور تصادفات به اصطلاح هوش مصنوعی روشن می کند و اگر چنین است، این چه چیزی را نشان می دهد؟

یک لحظه به من اجازه دهید تا پرسش را باز کنم.

اول، توجه داشته باشید که هیچ راننده انسانی در یک ماشین خودران واقعی دخیل نیست. به خاطر داشته باشید که خودروهای خودران واقعی از طریق سیستم رانندگی هوش مصنوعی هدایت می شوند. نه نیازی به راننده انسان پشت فرمان وجود دارد و نه پیش بینی ای برای رانندگی وسیله نقلیه توسط انسان وجود دارد. برای پوشش گسترده و مداوم من در مورد وسایل نقلیه خودران (AVs) و به خصوص خودروهای خودران، نگاه کنید به پیوند اینجا.

مایلم بیشتر توضیح دهم که منظور از خودروهای خودران واقعی چیست.

درک سطح اتومبیل های خودران

به عنوان یک توضیح، خودروهای خودران واقعی، خودروهایی هستند که هوش مصنوعی خودرو را کاملاً به تنهایی رانندگی می کند و هیچ کمک انسانی در طول کار رانندگی وجود ندارد.

این وسایل نقلیه بدون راننده سطح 4 و سطح 5 در نظر گرفته می شوند (توضیحات من را در اینجا ببینید این لینک در اینجا) ، در حالی که خودرویی که نیاز به یک راننده انسانی برای مشارکت در رانندگی دارد معمولاً در سطح 2 یا سطح 3 در نظر گرفته می شود. افزودنی های خودکار که به عنوان ADAS (سیستم های کمک راننده پیشرفته) شناخته می شوند.

هنوز یک خودروی خودران واقعی در سطح 5 وجود ندارد، و ما هنوز حتی نمی دانیم که آیا امکان دستیابی به آن وجود دارد یا خیر، و نه اینکه چقدر طول می کشد تا به آنجا برسیم.

در همین حال ، تلاش های سطح 4 به تدریج در تلاشند تا با انجام آزمایشات عمومی بسیار باریک و انتخابی در جاده ها ، کمی به سمت خود جلب کنند ، هرچند در مورد اینکه آیا این آزمایش به خودی خود مجاز است یا خیر ، اختلاف نظر وجود دارد (همه ما در یک آزمایش خوکچه هندی زنده یا مرگ هستیم) برخی از آنها ادعا می كنند كه در بزرگراهها و گذرگاههای ما در حال انجام است این لینک در اینجا).

از آنجا که اتومبیل های نیمه خودمختار به یک راننده انسانی احتیاج دارند ، تصویب آن دسته از اتومبیل ها تفاوت چندانی با رانندگی وسایل نقلیه معمولی نخواهد داشت ، بنابراین به تنهایی چیز جدیدی برای پوشش آنها در این موضوع وجود ندارد (هر چند ، همانطور که خواهید دید در یک لحظه ، نکات بعدی که بطور کلی اعمال می شود).

در مورد اتومبیل های نیمه خودمختار ، مهم است که در مورد جنبه نگران کننده ای که اخیراً بوجود آمده است ، هشدار داده شود ، یعنی این که با وجود آن رانندگان انسانی که با ارسال فیلم هایی از خودشان ، در حال خوابیدن در چرخ یک اتومبیل سطح 2 یا سطح 3 هستند. ، همه ما باید از اینكه گمان نرود راننده بتواند هنگام رانندگی یك اتومبیل نیمه خودمختار ، توجه خود را از وظیفه رانندگی دور كند ، خودداری كنیم.

شما مسئولیت اقدامات رانندگی وسیله نقلیه ، صرفنظر از میزان اتوماسیون در سطح 2 یا سطح 3 ، مسئولیت مسئولیت مسئولیت شما می باشد.

اتومبیل های خودران و حوادث هوش مصنوعی

برای وسایل نقلیه خود رانندگی واقعی سطح 4 و سطح 5 ، یک راننده انسانی درگیر در وظیفه رانندگی نخواهد بود.

همه سرنشینان مسافر خواهند بود.

هوش مصنوعی رانندگی را انجام می دهد.

یک جنبه برای بحث فوری این واقعیت را در بر دارد که هوش مصنوعی در سیستم های رانندگی هوش مصنوعی امروزی حساس نیست. به عبارت دیگر ، هوش مصنوعی در مجموع مجموعه ای از برنامه نویسی و الگوریتم های مبتنی بر رایانه است و مطمئناً قادر به استدلال به همان روشی نیست که انسان می تواند.

چرا این تاکید اضافی در مورد هوش مصنوعی نیست؟

از آنجا که می خواهم تأکید کنم هنگام بحث در مورد نقش سیستم رانندگی AI ، من خصوصیات انسانی را به AI نسبت نمی دهم. لطفاً توجه داشته باشید که این روزها تمایل مستمر و خطرناکی برای انسان سازی AI وجود دارد. در حقیقت ، افراد حساسیتی شبیه انسان به هوش مصنوعی امروزی دارند ، علی رغم این واقعیت انکارناپذیر و غیرقابل انکار که هنوز چنین هوش مصنوعی وجود ندارد.

با این توضیحات ، می توانید تصور کنید که سیستم رانندگی هوش مصنوعی بطور طبیعی از جنبه های رانندگی "آگاهی" نداشته باشد. رانندگی و همه آنچه که شامل می شود باید به عنوان بخشی از سخت افزار و نرم افزار اتومبیل خودران برنامه ریزی شوند.

بیایید به جنبه های بی شماری بپردازیم که در این موضوع بازی می شوند.

اول، مهم است که بدانیم همه خودروهای خودران با هوش مصنوعی یکسان نیستند. هر خودروساز و شرکت فناوری خودران رویکرد خود را برای ابداع خودروهای خودران در پیش گرفته است. به این ترتیب، اظهار نظر گسترده در مورد اینکه سیستم های رانندگی هوش مصنوعی چه کاری انجام خواهند داد یا انجام نمی دهند، دشوار است.

علاوه بر این ، هرگاه بیان شود که سیستم رانندگی هوش مصنوعی کار خاصی انجام نمی دهد ، بعداً توسعه دهندگانی که در واقع کامپیوتر را برای انجام این کار برنامه ریزی می کنند ، می توانند از این امر پیشی بگیرند. گام به گام ، سیستم های رانندگی هوش مصنوعی به تدریج در حال بهبود و گسترش هستند. امروزه محدودیت موجود ممکن است دیگر در نسخه یا نسخه بعدی سیستم وجود نداشته باشد.

من معتقدم که هشدارهای کافی برای تأکید بر آنچه که من در مورد آن صحبت می کنم فراهم می کند.

ما اکنون آماده هستیم تا به بررسی خودروهای خودران و احتمالات اخلاقی هوش مصنوعی بپردازیم که مستلزم ظهور تصادفات به اصطلاح هوش مصنوعی است.

تصور کنید که یک خودروی خودران مبتنی بر هوش مصنوعی در خیابان های محله شما در حال حرکت است و به نظر می رسد با خیال راحت رانندگی می کند. در ابتدا، توجه ویژه ای به هر بار که توانستید نگاهی اجمالی به خودروی خودران داشته باشید، داشتید. این وسیله نقلیه خودران با قفسه سنسورهای الکترونیکی خود که شامل دوربین‌های فیلمبرداری، واحدهای رادار، دستگاه‌های LIDAR و مواردی از این قبیل است، متمایز بود. پس از چندین هفته از گشت و گذار خودروی خودران در جامعه شما، اکنون به سختی متوجه آن می شوید. تا آنجا که به شما مربوط می شود، این فقط یک ماشین دیگر در جاده های عمومی شلوغ است.

برای اینکه فکر نکنید آشنایی با دیدن ماشین‌های خودران غیرممکن یا غیرممکن است، من بارها در مورد اینکه چگونه مناطقی که در محدوده آزمایش‌های ماشین‌های خودران هستند، به تدریج به دیدن وسایل نقلیه خوش‌محور عادت کرده‌اند، نوشته‌ام. بسیاری از محلی‌ها در نهایت از حالت خمیازه‌ای بی‌حوصله به حالت خمیازه‌های بی‌حوصلگی روی آوردند تا شاهد ماشین‌های پر پیچ و خم خودران باشند.

احتمالاً دلیل اصلی در حال حاضر که آنها ممکن است متوجه خودروهای خودران شوند، عامل تحریک و عصبانیت است. سیستم‌های رانندگی با هوش مصنوعی مطمئن می‌شوند که خودروها از تمام محدودیت‌های سرعت و قوانین جاده پیروی می‌کنند. برای رانندگان انسانی گیج‌کننده در ماشین‌های سنتی خود که توسط انسان هدایت می‌شوند، در مواقعی که پشت ماشین‌های خودران مبتنی بر هوش مصنوعی کاملاً قانون‌مدار گیر می‌کنید، عصبانی می‌شوید.

این چیزی است که ممکن است همه ما به درستی یا نادرست به آن عادت کنیم.

بازگشت به داستان ما

یک روز ماشین خودران تصادف می کند.

در حین چرخش به راست، سیستم رانندگی هوش مصنوعی خودروی خودران را به طور گسترده ای تاب داد و به یک خودروی انسان محور برخورد کرد. خودروی انسان محور در حال حرکت در مسیر مناسب ترافیک بود. هیچ فرصت خاصی برای راننده انسان وجود نداشت که منحرف شود یا از ضربه خوردن جلوگیری کند. علاوه بر این، هیچ هشدار یا نشانه ای از سوی خودروی خودران مبنی بر اینکه قرار است به طور گسترده به سمت راست بپیچد وجود نداشت.

آیا این تصادف است؟

مطمئناً می‌توانیم بگوییم که در داخل موضوع تصادف هوش مصنوعی قرار می‌گیرد. مبنای چنین ادعایی این است که یک سیستم رانندگی هوش مصنوعی در فرمان ماشین خودران وجود داشته است. به هر دلیلی، هوش مصنوعی تصمیم گرفت هنگام پیچیدن به راست، یک نوسان گسترده ایجاد کند. نتیجه منجر به برخورد خودروی خودران با خودروی انسان محور شد.

بحث قبلی در مورد معانی مرتبط با کلمه "تصادف" را به خاطر بیاورید و ببینید که چگونه چنین لحنی در این سناریو ظاهر می شود. همچنین، به یاد داشته باشید که ما در مورد یک راننده انسانی که یک پیچ گسترده به سمت راست می‌پیچد و با خودروی انسان‌گردان برخورد می‌کند، صحبت کردیم. ما متوجه شدیم که مفهوم "حادثه" بودن این عمل گمراه کننده و گیج کننده است. راننده انسانی که تاب عریض را ساخت، می‌توانست پشت این ایده پنهان شود که تصادفی صرفاً اتفاقی یا هوس‌بازی سرنوشت رخ داده است.

به جای برچسب زدن به این سناریو به عنوان "تصادف با هوش مصنوعی" در مورد خودروی خودران مبتنی بر هوش مصنوعی که از عرض خارج می شود و با خودروی انسان محور برخورد می کند، شاید باید بگوییم که این یک تصادف اتومبیل یا برخورد اتومبیل با خودران بوده است. ماشین رانندگی و ماشین انسان محور. سپس می‌توانیم از سردرگمی خالی بودن تصادفی از وسایل ناشناخته صرف نظر کنیم.

فکر می کنید واکنش مردم به این حادثه چه خواهد بود؟

خوب، اگر خودروسازان یا شرکت‌های فناوری خودران بتوانند به این موضوع به‌عنوان تصادف برچسب‌گذاری کنند، ممکن است بتوانند از واکنش‌های احتمالی جامعه در کل دور بزنند. احساس همدردی در مورد حوادثی که همه گفته می شود احتمالاً در شرایط خاص جاری می شود. برای اطلاعات بیشتر در مورد نحوه واکنش شهرها، شهرستان ها و رهبران ایالتی به طور بالقوه به حوادث وسایل نقلیه خودمختار هوش مصنوعی، به بحث یک مطالعه هاروارد که با همکاری من رهبری کردم و همانطور که در توضیح داده شد، مراجعه کنید. پیوند اینجا.

اگر این وضعیت به طور واضح به عنوان یک تصادف اتومبیل یا برخورد اتومبیل توصیف شود، شاید در این صورت متوجه شوید که ممکن است کسی یا چیزی مقصر این حادثه باشد. یک واکنش تند و سریع ممکن است این باشد که هوش مصنوعی مسئول شناخته می شود. مسئله این است که تا زمانی که تصمیم نگیریم هوش مصنوعی را به عنوان شخصیت حقوقی معرفی کنیم، نخواهید توانست مسئولیت خود را بر عهده هوش مصنوعی قرار دهید (به بحث من در مورد هوش مصنوعی و شخصیت حقوقی در اینجا مراجعه کنید. پیوند اینجا).

ما می‌توانیم سیستم رانندگی هوش مصنوعی را بررسی کنیم تا بفهمیم چه چیزی منجر به رانندگی نامناسب و متعاقب آن تصادف اتومبیل شده است. البته این بدان معنا نیست که هوش مصنوعی پاسخگو خواهد بود. طرف های مسئول شامل توسعه دهندگان هوش مصنوعی، اپراتور ناوگان خودروی خودران و دیگران هستند. من افراد دیگری را نیز درج می‌کنم، زیرا این احتمال وجود دارد که شهر تا حدی مسئول طراحی گوشه‌ای باشد که در آن پیچ انجام شده است. علاوه بر این، فرض کنید یک عابر پیاده در حال خروج از گوشه بود و سیستم رانندگی هوش مصنوعی تصمیم گرفت از آن شخص اجتناب کند و با این حال در تصادف اتومبیل گرفتار شد.

و به همین ترتیب.

نتیجه

ما می خواهیم بدانیم که هوش مصنوعی چه چیزی را محاسباتی می کند و برای انجام چه کاری برنامه ریزی شده است. آیا هوش مصنوعی همانطور که کدگذاری شده بود عمل کرد؟ شاید هوش مصنوعی با یک باگ یا خطا در برنامه‌نویسی مواجه شده باشد، که این اقدامات را توجیه نمی‌کند، اما سرنخ‌های بیشتری از چگونگی وقوع سقوط ارائه می‌دهد.

چه نوع نرده های محافظ هوش مصنوعی در سیستم رانندگی هوش مصنوعی برنامه ریزی شده است؟ اگر نرده‌های محافظ وجود داشت، می‌خواستیم بفهمیم چرا به نظر می‌رسد مانع از تصادف خودرو نمی‌شوند. شاید سیستم رانندگی هوش مصنوعی می توانست به جای چرخش متوقف شود. ما می‌خواهیم بدانیم هوش مصنوعی چه جایگزین‌هایی را از نظر محاسباتی در طول این حادثه ارزیابی کرده است.

علاوه بر پرداختن به ماجرای خاص، یکی دیگر از نگرانی‌های به حق این است که آیا سیستم رانندگی هوش مصنوعی نقصی دارد یا جنبه‌های تعبیه‌شده دیگری که می‌تواند انواع مشابهی از اعمال نامطلوب را انجام دهد. در اصل، این حادثه ممکن است یک شاخص گویا برای آینده باشد. چگونه از شبیه‌سازی‌های رایانه‌ای موقعیت‌های رانندگی برای پیش‌بینی این نوع سیستم رانندگی هوش مصنوعی استفاده شد؟ آیا تست‌های رانندگی جاده‌ای کافی برای مشخص کردن مشکلات هوش مصنوعی که ممکن است منجر به تصادف خودرو شود وجود داشت؟

این سناریو معمای بحث انگیزی را نشان می دهد که با ظهور خودروهای خودران مبتنی بر هوش مصنوعی روبرو است.

اینجوری میشه

از یک سو، تمایل جامعه به پذیرش سریع خودروهای خودران وجود دارد، زیرا این امید وجود دارد که سیستم های رانندگی هوش مصنوعی به همان اندازه ایمن یا احتمالاً ایمن تر از رانندگان انسانی باشند. تنها در ایالات متحده در حال حاضر سالانه نزدیک به 40,000 تلفات انسانی به دلیل تصادفات اتومبیل و حدود 2.5 میلیون جراحت انسانی داریم. تجزیه و تحلیل ها نشان می دهد که بخش قابل توجهی از این تصادفات رانندگی به خطاهای انسانی مانند رانندگی در حالت مستی، رانندگی در حین حواس پرت و غیره مربوط می شود (به ارزیابی من از این آمار در اینجا مراجعه کنید. پیوند اینجا).

سیستم‌های رانندگی هوش مصنوعی نمی‌نوشند و رانندگی نمی‌کنند. آنها نیازی به استراحت نخواهند داشت و در هنگام رانندگی فرسوده نخواهند شد. فرض بر این است که با ایجاد خودروهای خودران به عنوان یک روش حمل و نقل مناسب، می توانیم تعداد رانندگان انسانی را کاهش دهیم. این به نوبه خود به این معنی است که ما به طور خلاصه تعداد تلفات انسانی سالانه و جراحات ناشی از تصادفات اتومبیل را کاهش خواهیم داد.

برخی از کارشناسان گفته اند که ما در نهایت با تلفات و صدمات صفر مواجه خواهیم شد، و ظاهراً آن خودروهای خودران غیرقابل تصادف خواهند بود، اما این یک مجموعه انتظارات کاملاً پوچ و کاملاً نادرست است. من توضیح داده ام که چرا این کار اینقدر نابخردانه است پیوند اینجا.

در هر صورت، فرض کنید که ما مقداری تصادفات رانندگی خواهیم داشت که خودروهای خودران درگیر آن می شوند. سوالی که بر سر آن عذاب آور است این است که آیا ما به عنوان جامعه اصلاً حاضریم چنین مواردی را تحمل کنیم؟ برخی می گویند که اگر حتی یک مرگ یا یک جراحت در نتیجه اتومبیل های خودران واقعی اتفاق بیفتد، کل کیت و کابودل باید بسته شود.

دیدگاه متضاد این است که اگر جان‌های نجات‌یافته شمارش سالانه را کاهش می‌دهد، باید به تشویق ظهور خودروهای خودران ادامه دهیم و چنین واکنش غیر منطقی نشان ندهیم. ما باید این فرض را بپذیریم که برخی از تلفات و جراحات همچنان وجود خواهد داشت، حتی با خودروهای خودران، و در عین حال متوجه باشیم که اگر تعداد سالانه کاهش یابد، نشان می دهد که ما در مسیر درستی هستیم.

البته، برخی استدلال می‌کنند که ما نباید خودروهای خودران را در جاده‌های عمومی خود داشته باشیم تا زمانی که در نتیجه شبیه‌سازی‌های رایانه‌ای گسترده و جامع و یا از طریق آزمایش مسیر بسته خصوصی، برای چنین استفاده‌ای پاک نشده باشند. استدلال متقابل این است که تنها راه کارآمد و سریع‌ترین راه برای به حرکت درآوردن خودروهای خودران، استفاده از جاده‌های عمومی است و هر گونه تأخیر در پذیرش خودروهای خودران، در غیر این صورت به شمارش وحشتناک تصادف‌های اتومبیل‌های انسان‌ران اجازه ادامه خواهد داد. من این بحث را به طور مفصل در ستون های خود پوشش داده ام و از خوانندگان می خواهم که به آن بحث ها نگاه کنند تا به درک کامل دیدگاه ها در مورد این موضوع بحث برانگیز دست یابند.

بیایید فعلاً همه چیز را جمع بندی کنیم.

تصادفات هوش مصنوعی قرار است اتفاق بیفتد. ما باید در برابر انگیزه تلقی کردن تصادف هوش مصنوعی به ظاهر مقاومت کنیم تصادفی و بنابراین به دروغ اجازه دهید سازندگان و کسانی که هوش مصنوعی را به کار می‌گیرند، کاملاً از قلاب خارج شوند.

یک پیچ و تاب اضافه وجود دارد که من به عنوان آخرین فکر جذاب برای روز شما را با آن می گذارم.

کمدین Dane Cook به این لطیفه در مورد تصادفات رانندگی گفت: "یکی دو روز پیش، من تصادف رانندگی کردم. تقصیر من نیست. حتی اگر تقصیر تو نباشد، طرف مقابل از ماشینش پیاده می‌شود و به تو نگاه می‌کند که انگار تقصیر توست: چرا پشت چراغ قرمز ایستادی و اجازه دادی 80 بزنم!»

نکته اصلی این است که یک سیستم هوش مصنوعی ممکن است اصرار داشته باشد که وقتی یک تصادف هوش مصنوعی با آن هوش مصنوعی خاص رخ می دهد، هوش مصنوعی ادعا می کند که این حادثه تقصیر انسان بوده است و مطمئناً تقصیر هوش مصنوعی نیست. به هر حال، این می تواند به وفور درست باشد و انسان ممکن است با ادعای اینکه تقصیر هوش مصنوعی است، سعی در قربانی کردن هوش مصنوعی داشته باشد.

یا شاید هوش مصنوعی در تلاش است تا انسان را قربانی کند.

می بینید، هوش مصنوعی که ما ابداع می کنیم ممکن است از این طریق، تصادفی یا غیرممکن دشوار باشد.

منبع: https://www.forbes.com/sites/lanceeliot/2022/04/28/ai-ethics-wrestling-with-the-inevitably-of-ai-accidents-which-looms-over-autonomous-self- رانندگی-ماشین-هم/