فشار دادن مرزهای اخلاقیات هوش مصنوعی به دنیای برآمده از هوش مصنوعی اخلاقی رادیکال، که به طور بالقوه از طریق استفاده از خودروهای خودران مبتنی بر هوش مصنوعی مبهوت شده نمونه است.

آیا نگاه غالب و توجه ظاهر امروزی به‌طور گسترده‌ای در حال ظهور اخلاق هوش مصنوعی به یک بی‌حرکتی واقعی تبدیل شده است؟

به نظر می رسد که برخی قاطعانه چنین فکر می کنند.

بیایید این را باز کنیم.

ممکن است به طور کلی آگاه باشید که افزایش علاقه به پیامدهای اخلاقی هوش مصنوعی وجود داشته است. این اغلب به عنوان اخلاق هوش مصنوعی یا هوش مصنوعی اخلاقی نامیده می شود، که در اینجا این دو نام را عمدتاً معادل و قابل تعویض در نظر می گیریم (فکر می کنم برخی ممکن است در مورد این فرض ایراد بگیرند، اما می خواهم پیشنهاد کنم که حواسمان پرت نشود. تفاوت های بالقوه، در صورت وجود، برای اهداف این بحث).

بخشی از دلیل افزایش ملاحظات اخلاقی و اخلاقی در مورد هوش مصنوعی به دلیل افزایش تدریجی موج به اصطلاح هوش مصنوعی برای بد. ببینید، در ابتدا آخرین موج هوش مصنوعی عمدتاً ارائه دهنده تلقی می شد هوش مصنوعی برای خوب. این ایده ای بود که هوش مصنوعی می تواند در حل بسیاری از مشکلات غیر قابل حلی که محاسبات تاکنون نتوانسته بود به آنها کمک کند کمک کند. ممکن است در نهایت متوجه شویم که از هوش مصنوعی برای مقابله با بسیاری از سخت ترین مسائل جهان استفاده می کنیم.

در طول آن سفر تا حدی رویایی، متوجه شد که روی دیگر سکه وجود دارد. همین است هوش مصنوعی برای بد. به عنوان مثال، ممکن است درباره تشخیص چهره مبتنی بر هوش مصنوعی بدانید که در برخی مواقع تعصبات نژادی و تعصبات جنسیتی را نشان می دهد (تحلیل من را در این لینک اینجا ببینید). خوب نیست. در حال حاضر بسیاری از نمونه‌های واضح از سیستم‌های هوش مصنوعی وجود دارد که دارای انبوهی از نابرابری‌های نامناسب در عملکرد تصمیم‌گیری الگوریتمی (ADM) خود هستند.

برخی از مسائل غیراخلاقی در هوش مصنوعی از نظر اخلاقی مرزی هستند، در حالی که مسائل دیگر تقریباً فراتر از مرزهای اخلاقی معقول هستند. علاوه بر این، می توانید حساب کنید که هوش مصنوعی ممکن است ظاهراً به طور غیرقانونی عمل کند یا کاملاً یک مجری غیرقانونی ممنوع است. هدف دو مرحله ای که توسط قانون و آداب اخلاقی چکش می شود، کاهش سرعت است هوش مصنوعی برای بد و به دنبال جلوگیری از هجوم مداوم هوش مصنوعی است که به طور پیش فرض ممکن است به طور کامل با عناصر بسیار غیراخلاقی و غیرقانونی آغشته شود.

من به طور گسترده ای موضوع اخلاق هوش مصنوعی را در ستون های خود پوشش داده ام، مانند پوشش در این پیوند و همچنین در این پیوند اینجا، فقط برای نام بردن چند مورد. یک مجموعه نسبتاً رایج از عوامل هوش مصنوعی اخلاقی شامل توجه به این ویژگی‌های هوش مصنوعی است:

  • عدالت
  • شفافیت
  • قابل توضیح
  • حریم خصوصی
  • امانت
  • کرامت
  • سود رسانی
  • غیره

اینها سازه های اجتماعی است که اغلب به آنها اشاره شده است که ما باید در مورد ساخت و توسعه هوش مصنوعی امروزی در مورد آنها فکر کنیم. این احتمال وجود دارد که اگر به یک مقاله یا پست وبلاگی که اخلاق هوش مصنوعی را پوشش می دهد نگاهی بیندازید، متوجه خواهید شد که موضوع مقاله بر یکی از آن عوامل یا ویژگی های ذکر شده متمرکز است.

من معتقدم که در مجموع کسانی که خواهان هوش مصنوعی اخلاقی هستند موافق هستند که این عوامل ارزش توجه دارند. در واقع، به نظر می‌رسد مشکل واقعی این است که تولیدکنندگان هوش مصنوعی و کسانی که هوش مصنوعی را تبلیغ می‌کنند، به نظر نمی‌رسد این پیام را دریافت کنند. این باعث شده است که افراد در میان جنبش اخلاق هوش مصنوعی بیشتر توضیح دهند که چرا این ویژگی ها بسیار مهم هستند. متأسفانه، بسیاری از توسعه‌دهندگان و شرکت‌های هوش مصنوعی که از هوش مصنوعی بهره می‌برند، یا فکر می‌کنند داشتن این خوب است، بنابراین صرفاً اختیاری است، یا هوش مصنوعی اخلاقی را بیشتر یک تمرین آکادمیک انتزاعی می‌دانند تا چیزی که ماهیت عملی روزمره دارد.

طبق پیش‌بینی‌های من، بسیاری از کسانی که سرشان را در مورد هوش مصنوعی اخلاقی می‌اندازند، روزی بیدار می‌شوند و با گستاخی متوجه می‌شوند که زیر پوشش سخت جامعه و همچنین قانون هستند. مردم با کشف این موضوع که هوش مصنوعی فراگیر که در انواع کالاها و خدمات تعبیه شده است، با تعصبات و نابرابری های ذاتی همراه است، بسیار ناراحت خواهند شد. قانونگذاران در حال حاضر قوانین جدیدی را به پیش می‌برند تا اطمینان حاصل کنند که کسانی که چنین هوش مصنوعی را ترویج می‌کنند تحت قوانین قانونی بدون ابهام قرار می‌گیرند، در نتیجه کار را برای سازندگان هوش مصنوعی و کسانی که هوش مصنوعی را به کار می‌گیرند سخت‌تر می‌کند تا از هرگونه پتانسیل‌های جنایی مدنی و دادستانی نامطلوب خودداری کنند. از تلاش های آنها

چرخ‌های عدالت بدون این‌که تلنگری به نظر برسند، به‌طور اجتناب‌ناپذیری راه خود را به سوی کسانی که در حال انتشار و تقویت هوش مصنوعی هستند، می‌چرخاند.

برای روشن شدن، هوش مصنوعی برای بد لزوماً صرفاً به بازیگران شرور نسبت داده نمی شود. به نظر می رسد که اکثر توسعه دهندگان هوش مصنوعی و کسانی که هوش مصنوعی را به کل جهان ارائه می دهند، اغلب از آنچه در دست دارند بی اطلاع هستند. به نظر می رسد که زنگ هشدار در مورد اخلاق هوش مصنوعی هنوز به گوش آنها نرسیده است. شما می توانید با کسانی که به طرز سعادتمندانه ای بی خبر هستند همدردی کنید، اگرچه این امر آنها را کاملاً از مسئولیت و وظیفه نهایی مراقبت معاف نمی کند.

مایلم به اختصار اشاره کنم که نباید گرفتار این تله ذهنی موذیانه شوید که تقصیر هوش مصنوعی ناگوار به پای خود هوش مصنوعی است. این تقریباً خنده دار است، اگرچه همچنان به عنوان یک دریچه فرار مورد استفاده قرار می گیرد و به طور باورنکردنی به نظر می رسد هر از گاهی روی کسانی که با هوش مصنوعی امروزی آشنایی ندارند، کار می کند. ببینید، هوش مصنوعی امروزی حساس نیست. حتی نزدیک نیست. ما نمی دانیم که آیا هوش مصنوعی امکان پذیر است یا خیر. ما نمی دانیم چه زمانی ممکن است هوش مصنوعی به دست آید.

نکته پایانی این است که بازی سرزنش هوش مصنوعی که حواس همه را پرت می کند با اشاره انگشت به هوش مصنوعی به عنوان طرف مسئول، اگر نه کلاهبرداری کاملاً مفتضحانه است، نابخردانه است، استنباط من در مورد این موضوع را در لینک اینجا ببینید. هوش مصنوعی موجود توسط توسعه دهندگان انسانی برنامه ریزی شده است. هوش مصنوعی موجود توسط انسان منتشر و در دسترس قرار می گیرد. شرکت‌هایی که هوش مصنوعی می‌سازند و شرکت‌هایی که مجوز یا خرید هوش مصنوعی را برای اهداف استفاده از هوش مصنوعی در کالاها و خدماتشان می‌دهند، کاملاً مبتنی بر نوع بشر هستند. انسان‌ها مسئول هستند، نه هوش مصنوعی (شاید، در آینده، هوش مصنوعی ظاهری متفاوت و پیشرفته‌تر داشته باشیم، و در آن زمان باید بیشتر با تمایز محل سرزنش مبارزه کنیم).

به عنوان یک جمع بندی سریع، ما باید سپاسگزار باشیم که صدابرداران هوش مصنوعی اخلاقی به شدت در تلاش هستند تا جامعه را در مورد پیامدهای اخلاقی هوش مصنوعی راهنمایی کنند. در حال حاضر، تقریباً شبیه عمل سیزیف است که یک تخته سنگ را به بالای تپه ای شیب دار می غلتاند. بسیاری از کسانی که باید گوش کنند، این کار را نمی کنند. کسانی که گوش می دهند همیشه به اقدامات اصلاحی ترغیب نمی شوند. درست همانطور که سیزیف وظیفه غبطه‌انگیز هل دادن آن تخته سنگ را تا ابد به بالای تپه بر عهده داشت، تقریباً می‌توانید فرض کنید که ناهنجاری اخلاق هوش مصنوعی نیز ضرورتاً باید یک غوغای ابدی باشد.

به نظر می رسد که موضوع در مورد اخلاق هوش مصنوعی حل می شود و احتمالاً می توانیم به موضوع دیگری برویم.

اما، صبر کنید، چیزهای بیشتری وجود دارد.

ممکن است تعجب کنید یا حتی متعجب شوید که بدانید برخی ادعا می کنند که مجموعه موجود ملاحظات هوش مصنوعی اخلاقی نادیده گرفته شده است. آن‌ها با صدای بلند تشویق می‌کنند، سنگ‌کلید اصلی اخلاق هوش مصنوعی در یک گروه‌اندیشی غرق شده است.

این معامله است.

گفته می‌شود فهرستی از عوامل اخلاقی هوش مصنوعی که قبلاً ذکر شد، به یک دغدغه خفه‌کننده توسط خدمه هوش مصنوعی اخلاقی تبدیل شده است. همه بی‌خبر آن عوامل را می‌پذیرند و بارها و بارها به همان عوامل ضربه می‌زنند. مانند اتاق پژواک، غالب اخلاق شناسان هوش مصنوعی همان آهنگ را برای خود تکرار می کنند و از صدای آن لذت می برند. تعداد کمی هستند که مایلند از بسته خارج شوند. ذهنیت گله ای بر هوش مصنوعی اخلاقی غلبه کرده است (اینطور ادعا می شود).

این معما چگونه به وجود آمد؟ ظاهراً می‌توانید این جریان نامطلوب هوش مصنوعی اخلاقی را بر اساس اتفاق یا بر اساس طرح توضیح دهید.

در سناریوی اتفاقی، تمرکز بر عوامل کلیدی بسیار آسان است. شما مجبور نیستید بیرون از جعبه بروید، همانطور که بود. علاوه بر این، کسانی که در اردوگاه هوش مصنوعی اخلاقی هستند، احتمالاً به جای جستجوی مفاهیم فراتر از حد معمول، به کار یا ایده های مشابه علاقه مند هستند. کبوتر با کبوتر، باز با باز. گفته می شود اینچ به اینچ، عرصه اخلاق هوش مصنوعی در یک خوشه تنگ جمع شده است و به طور کلی با آشنایی و راحتی که ایجاد می کند خوب است.

من مطمئن هستم که این مورد خشم بسیاری از شرکت کنندگان در اخلاق هوش مصنوعی را به دنبال خواهد داشت (به خاطر داشته باشید که من فقط به آنچه دیگران ادعا می کنند اشاره می کنم و آن ادعاها را تأیید نمی کنم).

اگر می‌خواهید خشم را افزایش دهید، این پیشنهاد را در نظر بگیرید که این پدیده با طراحی به وجود آمده است. در حوزه‌ای که احتمالاً نظریه‌پردازان توطئه هستند، گفته می‌شود که فن‌آوران هوش مصنوعی و شرکت‌های فناوری یا به طور مستقیم یا ناخودآگاه در محدود کردن ملاحظات هوش مصنوعی اخلاقی سهیم هستند.

چرا آنها این کار را می کنند؟

ما دو احتمال را بررسی خواهیم کرد.

یک تصور این است که فن‌آوران هوش مصنوعی از مجموعه‌ای از ملاحظات هوش مصنوعی اخلاقی حمایت می‌کنند، زیرا آن عوامل خاص تا حدودی قابل اصلاح از طریق فناوری هستند. به عنوان مثال، اگر می‌خواهید توضیح‌پذیری داشته باشید، فن‌آوران و محققان هوش مصنوعی شب و روز در تلاش هستند تا قابلیت‌های هوش مصنوعی (XAI) قابل توضیح را ایجاد کنند. زیبایی فهرست غالب عوامل هوش مصنوعی اخلاقی در این است که آنها در محدوده اختیارات فناوری هوش مصنوعی قرار می گیرند. آنهایی که به این نظریه نسبت می‌دهند، می‌توانند پیشنهاد کنند که هر عامل دیگری که به‌راحتی با هوش مصنوعی قابل حل نیست، نمی‌تواند در فهرست عوامل جذابیت پیدا کند.

سپس شما نوع شرورتر دیگر را خواهید داشت. پیشنهاد می‌شود که شرکت‌های با فناوری پیشرفته و سایرین وجود دارند که می‌خواهند اساساً به موضوعات اخلاقی هوش مصنوعی خدمات ارائه دهند. از این نظر، آنها از فهرست کوتاه تری از نگرانی های قابل حل فن آوری لذت می برند. هر تلاشی برای اضافه کردن نگرانی های دیگر زندگی را برای آن شرکت های فناوری سخت تر می کند. آنها می خواهند سرمایه گذاری مورد نیاز برای تسکین اعلامیه های هوش مصنوعی اخلاقی را به حداقل برسانند.

گمان می‌کنم که این نوع کنایه‌ها ناگزیر است که مشت‌ها را برانگیزد و بسیار فراتر از خشم ساده باشد. کسانی که خستگی ناپذیر تلاش می کنند تا از هوش مصنوعی اخلاقی پیروی کنند و به آن کمک کنند، به طور بالقوه توسط این ادعاها لکه دار می شوند، و شما به راحتی می توانید تصور کنید که چرا آنها از اتهامات به ظاهر بی شرمانه و در کل وقیحانه خشمگین می شوند.

بیایید یک نزاع را شروع نکنیم و در عوض یک لحظه هوشیارانه و تأمل برانگیز را در نظر بگیریم تا ببینیم اردوگاه هوش مصنوعی اخلاقی چه چیز دیگری را ظاهراً از دست داده است. اردوگاه دیگری که خواهان گسترش و گسترش دیدگاه هوش مصنوعی اخلاقی معاصر است، گاهی اوقات به عنوان هوش مصنوعی اخلاقی رادیکال.

ممکن است تعجب کنید که آیا نام Radical Ethical AI مناسب است یا نامطلوب.

مفهوم چیزی که "رادیکال" است می تواند خوب یا بد باشد. یکی از تفسیرهای Radical Ethical AI این است که تلاشی برای متزلزل ساختن وضعیت موجود اخلاق هوش مصنوعی است. استفاده از «رادیکال» نشان می‌دهد که ما باید یک چرخش دراماتیک هماهنگ داشته باشیم و نه اینکه فقط اندکی چرخش را تنظیم کنیم یا ضعیف ارائه کنیم. شما می‌توانید استدلال کنید که استفاده از «رادیکال» به روش‌های موجود مشابه استفاده از دفیبریلاتور ضربه‌ای وارد می‌کند که در غیر این صورت از طریق قرارداد معمول به دست نمی‌آید.

دیگران می گویند که با الصاق کلمه "رادیکال" شما یک آشفتگی ایجاد می کنید. برخی رادیکالیسم را عجیب و غریب، لغزش به سمت عجیب و غریب یا عجیب و غریب تفسیر می کنند. مرکزگرایان ممکن است بلافاصله این تصور را که آیا یک تفکر گروهی وجود دارد یا نه به دلیل نامگذاری تنها به عنوان یک تدبیر توهین آمیز، رد کنند. برخی می گویند لحن لفاظی را کاهش دهید، و ممکن است توجه و علاقه جدی تری به خود جلب کنید.

با وجود موضوع نامگذاری، ممکن است ذاتاً کنجکاو باشید که بدانید این اردوگاه دیگر چه چیزی را گم کرده است. هرگونه واکنش احشایی به واچاماکالیت را کنار بگذارید.

ممکن است ظاهراً بپرسید که گوشت گاو کجاست؟

من سعی خواهم کرد برخی از موارد اشاره شده به مواد گمشده را نشان دهم.

اول، یکی از موارد ناظر ادعایی این است که دیدگاه رایج در مورد هوش مصنوعی اخلاقی سنتی (کهنه‌مدّه؟) یک فرض پنهان محدودکننده است که هوش مصنوعی اجتناب‌ناپذیر است. بنابراین، به جای بررسی اینکه آیا هوش مصنوعی باید حتی برای انواع خاصی از کاربردها و شرایط اجتماعی در کارت باشد، موضع غالب این است که هوش مصنوعی در راه است و ما باید آن را به بهترین شکل ممکن برسانیم. ممکن است به زبان ساده بگویید که این کار شبیه گذاشتن رژ لب روی خوک است (یعنی همچنان خوک است، مهم نیست چه کاری انجام می دهید تا ظاهراً بهتر به نظر برسد).

اگر این موضوع را افراط کنید، شک و تردید در مورد انصاف، حفظ حریم خصوصی و بقیه موارد شاید مانند صندلی های حرکت دادن روی عرشه تایتانیک باشد. این کشتی همچنان در حال غرق شدن است، به این معنی که فرض می کنیم هوش مصنوعی قرار است اتفاق بیفتد، مهم نیست که چه اتفاقی می افتد. اما، شاید ما باید در مورد اینکه آیا غرق شدن تنها گزینه پیش رو است، تجدید نظر کنیم.

من یک لحظه دیگر به این ملاحظات باز خواهم گشت.

در اینجا به سرعت برخی دیگر از موارد ادعا شده در زمینه هوش مصنوعی اخلاقی وجود دارد که یا به آنها توجه نمی شود و یا به دلیل توجه فراوان به سایر موضوعات رایج از بین رفته اند:

  • علاوه بر استفاده از هوش مصنوعی برای مدیریت انسان‌ها، مانند افزایش استفاده از هوش مصنوعی برای تصمیم‌گیری استخدام و اخراج در شرکت‌ها، در مورد استفاده از هوش مصنوعی برای مدیریت حیوانات نیز تردید وجود دارد. تلاش هایی در حال انجام است تا از هوش مصنوعی در مزارع، باغ وحش ها و به طور کلی هر مکانی که حیوانات تمایل به نگهداری دارند، استفاده شود. هوش مصنوعی چگونه بر رفاه حیوانات تأثیر می گذارد؟
  • مواقعی وجود دارد که ظاهراً هوش مصنوعی در جوامع آسیب‌پذیر آزمایش بتا می‌شود، این کار در اولین تلاش انجام می‌شود و سپس هوش مصنوعی بعداً به طور گسترده‌تری منتشر می‌شود. توجه شدید اخلاقی هوش مصنوعی باید به این شیوه ها معطوف شود.
  • به نظر می رسد که بحث های زیادی در مورد جایگزینی کارگران با هوش مصنوعی در حال انجام است، اگرچه توجه کمتری به تأثیرات هوش مصنوعی به عنوان ابزار نظارتی مورد استفاده برای نظارت بر کارگران کم دستمزد وجود دارد.
  • به نظر می رسد که توجه کافی در مورد تأثیرات زیست محیطی و زیست محیطی ساخت و نگه داشتن سیستم های هوش مصنوعی صورت نگرفته است (به عنوان یک کنار، ممکن است بحث من در مورد ردپای کربن مرتبط با هوش مصنوعی برای شما جالب باشد، پیوند را در اینجا ببینید).

· و غیره.

برخی از متخصصان در هوش مصنوعی اخلاقی وجود دارند که احتمالاً فوراً به این موضوع اشاره می‌کنند که اینها در واقع موضوعاتی هستند که می‌توان در ادبیات و بحث‌های مربوط به اخلاق هوش مصنوعی یافت. آنها بی سابقه نیستند و به طور نفس گیر جدیدی هم نیستند.

من معتقدم که دیدگاه پاک‌اندیشان Radical Ethical AI این است که آنها ادعا نمی‌کنند که زمین کاملاً رد نشده را کشف کرده‌اند. در عوض، آن‌ها ادعا می‌کنند که تمرکز موجود هوش مصنوعی اخلاقی، هوای تنفس‌پذیر را خفه می‌کند و اجازه می‌دهد دیگر موضوعات «بی‌گانه» به حق خود نرسند.

شاید یک راه دلپذیرتر برای بیان این موضوع این باشد که توجه غالب به اخلاق هوش مصنوعی توجه کمتری به سایر موضوعات حیاتی داشته است. می‌توانید پیشنهاد کنید که نقاط کور وجود دارد و فکر کردن به اینکه آیا می‌توان آن‌ها را بیشتر در تار قرار داد یا نه، مفید است (این مورد نیز در مقاله مورد بحث قرار گرفته است. مجله هوش و اخلاق در مقاله اخیر با عنوان "نقاط کور در اخلاق هوش مصنوعی" توسط تیلو هاگندورف).

اکنون که ما این حماسه را پوشش داده ایم که آیا هوش مصنوعی اخلاقی کمی در حال فروپاشی است، که برخی می گویند یک بحث مضحک است و در عین حال برخی دیگر اصرار دارند که این موضوع واقعی است و بدتر می شود، شاید بتوانیم لحظه ای را برای کاوش در نظر بگیریم. یک مورد استفاده برای نگاهی دقیق تر به موضوع.

به عنوان یک متخصص در زمینه هوش مصنوعی از جمله پیامدهای اخلاقی و قانونی، اغلب از من خواسته می شود که نمونه های واقع بینانه ای را که معضل هم ترازی را نشان می دهد شناسایی کنم تا بتوان ماهیت تا حدودی نظری موضوع را راحت تر درک کرد. یکی از جذاب‌ترین زمینه‌هایی که این معضل اخلاقی هوش مصنوعی را به وضوح نشان می‌دهد، ظهور خودروهای خودران واقعی مبتنی بر هوش مصنوعی است. این به عنوان یک مورد استفاده مفید یا نمونه ای برای بحث و گفتگوی کافی در مورد موضوع خواهد بود.

پس در اینجا یک سوال قابل توجه وجود دارد که قابل تامل است: آیا ظهور خودروهای خودران واقعی مبتنی بر هوش مصنوعی ملاحظات هوش مصنوعی اخلاقی خارج از چارچوب را ارائه می دهد که عموماً بدون چالش یا به اندازه کافی آشکار نشده است؟

یک لحظه به من اجازه دهید تا پرسش را باز کنم.

اول، توجه داشته باشید که هیچ راننده انسانی در یک ماشین خودران واقعی دخیل نیست. به خاطر داشته باشید که خودروهای خودران واقعی از طریق سیستم رانندگی هوش مصنوعی هدایت می شوند. نه نیازی به راننده انسان پشت فرمان وجود دارد و نه پیش بینی ای برای رانندگی وسیله نقلیه توسط انسان وجود دارد. برای پوشش گسترده و مداوم من در مورد وسایل نقلیه خودران (AVs) و به خصوص خودروهای خودران، لینک اینجا را ببینید.

مایلم بیشتر توضیح دهم که منظور از خودروهای خودران واقعی چیست.

درک سطح اتومبیل های خودران

به عنوان یک توضیح ، اتومبیل های واقعی خودران از جمله مواردی هستند که هوش مصنوعی اتومبیل را کاملاً خود به خود هدایت می کند و هیچ گونه کمک انسانی در حین کار رانندگی وجود ندارد.

این وسایل نقلیه بدون راننده سطح 4 و سطح 5 در نظر گرفته می شوند (توضیحات من را در این لینک در اینجا ببینید) ، در حالی که اتومبیلی که به راننده انسانی نیاز دارد تا در کار رانندگی مشترک باشد ، در سطح 2 یا سطح 3 در نظر گرفته می شود. به اشتراک بگذارید وظیفه رانندگی نیمه مستقل توصیف شده است ، و به طور معمول شامل انواع اضافی خودکار است که به آنها ADAS (Advanced Driver-Assist Systems) گفته می شود.

در سطح 5 هنوز یک اتومبیل واقعی رانندگی وجود ندارد ، که ما حتی نمی دانیم آیا این امر امکان پذیر خواهد بود یا اینکه رسیدن به آنجا چقدر طول می کشد.

در همین حال ، تلاش های سطح 4 به تدریج در تلاشند تا با انجام آزمایشات عمومی بسیار باریک و انتخابی در جاده ها ، برخی از کشش ها را به خود جلب کنند ، هرچند در مورد اینکه آیا این آزمایش به خودی خود مجاز است یا خیر ، اختلاف نظر وجود دارد (همه ما در یک آزمایش خوکچه هندی زنده یا مرگ هستیم) برخی ادعا می کنند ، در این پیوند اینجا را ببینید).

از آنجا که اتومبیل های نیمه خودمختار به یک راننده انسانی احتیاج دارند ، تصویب آن دسته از اتومبیل ها تفاوت چندانی با رانندگی وسایل نقلیه معمولی نخواهد داشت ، بنابراین به تنهایی چیز جدیدی برای پوشش آنها در این موضوع وجود ندارد (هر چند ، همانطور که خواهید دید در یک لحظه ، نکات بعدی که بطور کلی اعمال می شود).

در مورد اتومبیل های نیمه خودمختار ، مهم است که در مورد جنبه نگران کننده ای که اخیراً بوجود آمده است ، هشدار داده شود ، یعنی این که با وجود آن رانندگان انسانی که با ارسال فیلم هایی از خودشان ، در حال خوابیدن در چرخ یک اتومبیل سطح 2 یا سطح 3 هستند. ، همه ما باید از اینكه گمان نرود راننده بتواند هنگام رانندگی یك اتومبیل نیمه خودمختار ، توجه خود را از وظیفه رانندگی دور كند ، خودداری كنیم.

شما مسئولیت اقدامات رانندگی وسیله نقلیه ، صرفنظر از میزان اتوماسیون در سطح 2 یا سطح 3 ، مسئولیت مسئولیت مسئولیت شما می باشد.

اتومبیل های خودران و موارد دور از ذهن یا طرد شده از ملاحظات هوش مصنوعی اخلاقی

برای وسایل نقلیه خود رانندگی واقعی سطح 4 و سطح 5 ، یک راننده انسانی درگیر در وظیفه رانندگی نخواهد بود.

همه سرنشینان مسافر خواهند بود.

هوش مصنوعی رانندگی را انجام می دهد.

یک جنبه برای بحث فوری این واقعیت را در بر دارد که هوش مصنوعی در سیستم های رانندگی هوش مصنوعی امروزی حساس نیست. به عبارت دیگر ، هوش مصنوعی در مجموع مجموعه ای از برنامه نویسی و الگوریتم های مبتنی بر رایانه است و مطمئناً قادر به استدلال به همان روشی نیست که انسان می تواند.

چرا این تاکید اضافی در مورد هوش مصنوعی نیست؟

از آنجا که می خواهم تأکید کنم هنگام بحث در مورد نقش سیستم رانندگی AI ، من خصوصیات انسانی را به AI نسبت نمی دهم. لطفاً توجه داشته باشید که این روزها تمایل مستمر و خطرناکی برای انسان سازی AI وجود دارد. در حقیقت ، افراد حساسیتی شبیه انسان به هوش مصنوعی امروزی دارند ، علی رغم این واقعیت انکارناپذیر و غیرقابل انکار که هنوز چنین هوش مصنوعی وجود ندارد.

با این توضیحات ، می توانید تصور کنید که سیستم رانندگی هوش مصنوعی بطور طبیعی از جنبه های رانندگی "آگاهی" نداشته باشد. رانندگی و همه آنچه که شامل می شود باید به عنوان بخشی از سخت افزار و نرم افزار اتومبیل خودران برنامه ریزی شوند.

بیایید به جنبه های بی شماری بپردازیم که در این موضوع بازی می شوند.

اول، مهم است که بدانیم همه خودروهای خودران با هوش مصنوعی یکسان نیستند. هر خودروساز و شرکت فناوری خودران رویکرد خود را برای ابداع خودروهای خودران در پیش گرفته است. به این ترتیب، اظهار نظر گسترده در مورد اینکه سیستم های رانندگی هوش مصنوعی چه کاری انجام خواهند داد یا انجام نمی دهند، دشوار است.

علاوه بر این ، هرگاه بیان شود که سیستم رانندگی هوش مصنوعی کار خاصی انجام نمی دهد ، بعداً توسعه دهندگانی که در واقع کامپیوتر را برای انجام این کار برنامه ریزی می کنند ، می توانند از این امر پیشی بگیرند. گام به گام ، سیستم های رانندگی هوش مصنوعی به تدریج در حال بهبود و گسترش هستند. امروزه محدودیت موجود ممکن است دیگر در نسخه یا نسخه بعدی سیستم وجود نداشته باشد.

من معتقدم که هشدارهای کافی برای تأکید بر آنچه که من در مورد آن صحبت می کنم فراهم می کند.

ما اکنون آماده هستیم تا به بررسی خودروهای خودران بپردازیم و اینکه آیا ملاحظات هوش مصنوعی اخلاقی رادیکال خارج از چارچوب ظاهراً به اندازه کافی حق ندارند یا خیر.

با توجه به محدودیت های فضا، بیایید روی یک موضوع خاص تمرکز کنیم که سپس می توانیم به آن بپردازیم. به طور خاص، این اتهام کلی وجود دارد که اخلاق AI غالب ظاهراً دارای یک فرض پنهان است که هوش مصنوعی اجتناب ناپذیر است.

اگر این فرض اصلی را در مورد خودروهای خودران مبتنی بر هوش مصنوعی به کار ببریم، نشان می‌دهد که جامعه هوش مصنوعی اخلاقی به طور کلی با این فرض که خودروهای خودران به طور اجتناب‌ناپذیری ابداع و تولید می‌شوند، است. آنها به ارزش اسمی می اندیشند که اتومبیل های خودران ظهور خواهند کرد، در حالی که ادعای متقابل این است که آنها باید نه این فرض پنهان را داشته باشیم و در عوض به این موضوع فکر کنیم که شاید ما نباید خودروهای خودران با هوش مصنوعی داشته باشیم (یا نوع دیگری مانند آن‌ها را فقط در شرایط خاص و نه به صورت گسترده داشته باشیم).

این یک سوال عالی است.

برای روشن شدن و بیان مجدد، ادعای غیر از این که ملاحظات غالب هوش مصنوعی اخلاقی در مورد خودروهای خودران با هوش مصنوعی ظاهراً با فرض اجتناب ناپذیر بودن خودروهای خودران با هوش مصنوعی قایق را از دست داده است. در آن طرز تفکر، انتظارات به دو صورت نمایش داده می شود:

1. تعداد کمی از بررسی‌ها در مورد اینکه آیا ما حتی باید ماشین‌های خودران با هوش مصنوعی داشته باشیم وجود داشته باشد، یا به کناری منتقل می‌شود، یا نفسی برای جلب توجه نمی‌کند، و

2. تمرکز احتمالی بر روی خودروهای خودران با هوش مصنوعی در عوض بر روی جزئیات مربوط به پیامدهای اخلاقی هوش مصنوعی لیست سنتی عوامل، مانند توضیح پذیری، انصاف، حریم خصوصی و غیره خواهد بود و در مجموع این کار را تحت پوشش کلی یا بی صدا انجام می دهد. فرض بر این است که ما قطعاً آن وسایل نقلیه خودران افتخارآمیز را خواهیم داشت (بدون اینکه هیچ گزینه دیگری به طور گسترده مورد توجه قرار نگیرد).

یک پیشنهاد جالب

حتی یک بازرسی گاه به گاه از توجه عمومی به چنین مسائلی در رابطه با خودروهای خودران با هوش مصنوعی نشان می دهد که این فرض وجود دارد که خودروهای خودران با هوش مصنوعی تا حدودی اجتناب ناپذیر هستند، هرچند بیایید مطمئن شویم که یک هشدار بزرگ و نشانگر هشدار دهنده با پاورقی دو ستاره وجود دارد. همراه با آن بیانیه فراگیر

به همین دلیل است

ما هنوز نمی دانیم که آیا خودروهای خودران واقعی مبتنی بر هوش مصنوعی واقعاً امکان پذیر خواهند بود یا خیر.

مطمئناً، آزمایش‌های جاده‌ای عمومی باریک در حال انجام است. اینها مطلقاً در سطح 5 نیستند. هیچ کس نمی تواند به طور منطقی بر خلاف آن در این نقطه غیرقابل انکار استدلال کند. می‌توانید بگویید که برخی از آزمایش‌های مناسب به نوعی به سطح 4 منحرف می‌شوند، اما به شکلی لرزان و با ODD‌های نسبتاً شکننده (ODD یا دامنه‌های طراحی عملیات، شرایطی هستند که در آن یک سازنده خودروی خودران بیان می‌کند که وسیله نقلیه خودران آنها می‌تواند با خیال راحت کار کند. ، بحث من را در این لینک اینجا ببینید).

همانطور که گفته شد، عرصه خودروهای خودران بسیار بیشتر از چند سال پیش است. دلایل منطقی برای خوش بین بودن در مورد آنچه در آینده اتفاق خواهد افتاد وجود دارد. بزرگترین نقطه گیر، جدول زمانی است که این بازی چه زمانی انجام می شود. پیش‌بینی‌های قبلی توسط کارشناسان به آسانی آمده و رفته است. شما می توانید انتظار داشته باشید که پیش بینی های موجود مطمئناً به همان سرنوشت دچار شوند.

به طور خلاصه، به نظر می رسد که می توانید به طور غیررسمی بگویید که دلیل کافی برای این فرض وجود دارد که خودروهای خودران واقعی مبتنی بر هوش مصنوعی در نهایت به وجود خواهند آمد. به نظر می رسد که ما در میان ODD های بسیار محدود به سمت سطح 4 پیش می رویم. به نظر می رسد گسترش منطقی بعدی شامل داشتن ODD های بیشتر است، مواردی که تنوع و عمق بیشتری دارند. در مقطعی که در آن ما به اندازه کافی حوزه‌های ODD همپوشانی و تا حدودی جامع را فتح کرده‌ایم، به نظر می‌رسد که این امر به ورود جدی به سطح 5 ختم می‌شود. این حداقل فلسفه پیشرفت پیش‌بینی‌شده (که همه آن را قبول ندارند) است.

من به آن پیچیدگی‌های به ظاهر پیچیده اشاره می‌کنم، زیرا درمورد اینکه اعلام کنیم ماشین‌های خودران واقعی مبتنی بر هوش مصنوعی وجود دارند یا به لحظه بزرگ وجود آنها رسیده‌ایم، سردرگمی زیادی وجود دارد. تعریف شما از خودروهای خودران واقعی مبتنی بر هوش مصنوعی چیست؟ اگر می گویید این لحظه ای است که به سطح 4 رسیده اید، خوب، حدس می زنم می توانید شروع به ریختن آن بطری های شامپاین کنید. اگر می گویید زمانی که سطح 4 را پشت سر گذاشته ایم، باید آن بطری های شامپاین را در انبار قرار دهید. اگر می گویید زمانی است که ما به سطح 5 تسلط پیدا کرده ایم، آن بطری ها به پشت قفسه های ذخیره سازی می روند و باید انتظار داشته باشید که گرد و غبار شوند.

در مجموع، اگر جامعه در واقع این فرض را می‌کند که خودروهای خودران با هوش مصنوعی اجتناب‌ناپذیر هستند، می‌توانید استدلال کنید که این یک فرض فوق‌العاده است. همه با آن بحث موافق نیستند، بنابراین برای کسانی از شما که از احتمال ادعایی ناراحت هستند، اختلاف شدید شما بسیار قابل توجه است.

آیا به طور بالقوه با همراهی با فرض اجتناب ناپذیری خودروهای خودران با هوش مصنوعی، خود را دچار مشکل یا تنگنا می کنیم؟

پیچش ها و چرخش های جذابی وجود دارد که این معما به سطح می آورد.

به عنوان مثال، یکی از نگرانی‌هایی که قبلاً اغلب در مورد آن بحث شده این است که ما ممکن است خودروهای خودران مبتنی بر هوش مصنوعی داشته باشیم که به طور انحصاری در برخی مناطق در دسترس هستند اما در برخی دیگر نه. مناطقی که خودروهای خودران خواهند داشت «داراها» هستند، در حالی که مناطقی که آنها را ندارند، «نداشتن ها» هستند که اساسا از استفاده از مزایای خودروهای خودران جلوگیری می کنند.

این اعلام شده است نخبه گرا یا منبی عدالتی نگرانی پدیدارشناختی که بسیاری بیان کرده اند. در واقع، من بارها به این موضوع پرداخته ام، مانند این پیوند در اینجا و در این تحلیل بزرگتر در پیوند اینجا.

ایده این است که خودروهای خودران با هوش مصنوعی احتمالاً در ناوگان عملیاتی خواهند شد. اپراتورهای ناوگان محل استقرار خودروهای خودران خود را انتخاب خواهند کرد. مکان فرضی درآمدزایی برای استفاده از خودروهای خودران در بخش های ثروتمندتر یک شهر یا شهر است. کسانی که در بخش های فقیر یا فقیر یک شهر یا شهر زندگی می کنند، دسترسی آماده به ماشین های خودران نخواهند داشت.

منطق مشابهی برای ادعای این که کشورها نیز به طور مشابه خود را در همان مخمصه خواهند دید، تعمیم داده شده است. کشورهای ثروتمندتر استفاده از خودروهای خودران را تجربه خواهند کرد، در حالی که کشورهای فقیرتر تجربه نخواهند کرد. دارندگان دسترسی و استفاده بیشتری از وسایل نقلیه خودران خواهند داشت، نداشته ها نخواهند داشت.

ممکن است از خود بپرسید که دارندگان چه چیزهایی دریافت می کنند که نداشته ها به دست نمی آورند. یک نشانه متداول این است که این انتظار وجود دارد که خودروهای بدون راننده با هوش مصنوعی تصادفات و تصادفات اتومبیل کمتری داشته باشند. اعتقاد بر این است که تعداد جراحات و تلفات انسانی ناشی از تصادفات اتومبیل به طور چشمگیری کاهش می یابد. به این ترتیب، بخش‌های ثروتمندتر یک شهر یا شهر، یا کشورهای ثروتمندتر، می‌توانند صدمات و تلفات ناشی از خودروی خود را کاهش دهند، در حالی که مناطق انسان‌محور که گزینه یا جایگزینی از طریق خود مبتنی بر هوش مصنوعی ندارند. -رانندگی خودروها شاهد چنین کاهش متناسبی نخواهند بود.

لطفاً بدانید که خودروهای خودران با هوش مصنوعی مزایای دیگری نیز دارند که به طور مشابه در دارایی‌ها جمع می‌شوند و در خودروهای نداشتن متحمل نمی‌شوند (بیشتر را در این لینک اینجا ببینید).

نکته در اینجا این است که می‌توانید «خودران‌های خودران اجتناب‌ناپذیر هستند» را با اشاره به اینکه هوش مصنوعی اخلاقی در حال حاضر در مورد خودروهای خودران که فقط به صورت انتخابی در دسترس هستند، دست نوشته‌ها را افزایش دهید. من می دانم که ممکن است شبیه یک چوب شور به نظر برسد. آنچه این می گوید این است که ما از قبل به طور مشخص نگران نبودن هوش مصنوعی در برخی از بخش های اجتماعی هستیم. در آن گستره تفکر، این نمونه سازی از هوش مصنوعی با توجه به آن زمینه ها به خودی خود اجتناب ناپذیر نیست (اگر شما رانده شوید).

نتیجه

شما بدون شک با این توصیه حکیمانه هوشمندانه آشنا هستید که می گوید آنچه را که نمی دانید می تواند به شما آسیب برساند، در حالی که چیزی که نمی دانید و نمی دانید می تواند واقعاً شما را از بین ببرد.

یک دیدگاه در مورد وضعیت هوش مصنوعی اخلاقی رادیکال این است که علیرغم هرگونه حیرت مرتبط با نامگذاری، حداقل باید آنچه را که تصور می شود از دست می دهیم بشنویم. شاید یک تفکر گروهی در حال وقوع باشد و به اصطلاح هوش مصنوعی اخلاقی مرسوم یا اخلاق هوش مصنوعی قدیمی توانسته است راکد شود و روی ملاحظات خاصی گیر کند. اگر چنین است، یک ضربه به عقب ممکن است به روشن شدن مجدد موتورها و حرکت به سمت دامنه وسیع‌تر کمک کند.

یا، ممکن است Ethical AI و AI Ethics خوب پیش بروند، از شما بسیار متشکرم، و این شاخه فقط تلاش می کند که مگس در پماد باشد. جنبه منفی به خصوص مخل یا نگران کننده به نظر نمی رسد. وقتی یا اگر همه چیز به نحوی از کنترل خارج شود، ممکن است یک ارزیابی مجدد عابدانه و هماهنگ از قلمرو، از شایستگی بصیرتی برخوردار باشد.

بهبود مستمر یک آرزوی ستودنی است. و، تقریباً می‌توان گفت که وقتی نوبت به ظهور هوش مصنوعی می‌رسد، نمی‌خواهیم با تأخیر بفهمیم که چیزهایی را که نمی‌دانستیم نمی‌دانستیم، و باید می‌دانستیم که در رأس آن هستیم. جنبه هایی که ما نمی دانستیم (یا اینکه آنها را تا حدودی می شناختیم و ناخواسته آنها را سرکوب کردیم).

این خیلی رادیکال به نظر نمی رسد، اینطور است؟

منبع: https://www.forbes.com/sites/lanceeliot/2022/02/20/pushing-the-boundaries-of-ai-ethics-into-the-topsy-turvy-world-of-radical-ethical- Ai-potentially-exmplified-via-case-use-faunted-based-air-driving-cars/