آیا نگاه غالب و توجه ظاهر امروزی بهطور گستردهای در حال ظهور اخلاق هوش مصنوعی به یک بیحرکتی واقعی تبدیل شده است؟
به نظر می رسد که برخی قاطعانه چنین فکر می کنند.
بیایید این را باز کنیم.
ممکن است به طور کلی آگاه باشید که افزایش علاقه به پیامدهای اخلاقی هوش مصنوعی وجود داشته است. این اغلب به عنوان اخلاق هوش مصنوعی یا هوش مصنوعی اخلاقی نامیده می شود، که در اینجا این دو نام را عمدتاً معادل و قابل تعویض در نظر می گیریم (فکر می کنم برخی ممکن است در مورد این فرض ایراد بگیرند، اما می خواهم پیشنهاد کنم که حواسمان پرت نشود. تفاوت های بالقوه، در صورت وجود، برای اهداف این بحث).
بخشی از دلیل افزایش ملاحظات اخلاقی و اخلاقی در مورد هوش مصنوعی به دلیل افزایش تدریجی موج به اصطلاح هوش مصنوعی برای بد. ببینید، در ابتدا آخرین موج هوش مصنوعی عمدتاً ارائه دهنده تلقی می شد هوش مصنوعی برای خوب. این ایده ای بود که هوش مصنوعی می تواند در حل بسیاری از مشکلات غیر قابل حلی که محاسبات تاکنون نتوانسته بود به آنها کمک کند کمک کند. ممکن است در نهایت متوجه شویم که از هوش مصنوعی برای مقابله با بسیاری از سخت ترین مسائل جهان استفاده می کنیم.
در طول آن سفر تا حدی رویایی، متوجه شد که روی دیگر سکه وجود دارد. همین است هوش مصنوعی برای بد. به عنوان مثال، ممکن است درباره تشخیص چهره مبتنی بر هوش مصنوعی بدانید که در برخی مواقع تعصبات نژادی و تعصبات جنسیتی را نشان می دهد (تحلیل من را در این لینک اینجا ببینید). خوب نیست. در حال حاضر بسیاری از نمونههای واضح از سیستمهای هوش مصنوعی وجود دارد که دارای انبوهی از نابرابریهای نامناسب در عملکرد تصمیمگیری الگوریتمی (ADM) خود هستند.
برخی از مسائل غیراخلاقی در هوش مصنوعی از نظر اخلاقی مرزی هستند، در حالی که مسائل دیگر تقریباً فراتر از مرزهای اخلاقی معقول هستند. علاوه بر این، می توانید حساب کنید که هوش مصنوعی ممکن است ظاهراً به طور غیرقانونی عمل کند یا کاملاً یک مجری غیرقانونی ممنوع است. هدف دو مرحله ای که توسط قانون و آداب اخلاقی چکش می شود، کاهش سرعت است هوش مصنوعی برای بد و به دنبال جلوگیری از هجوم مداوم هوش مصنوعی است که به طور پیش فرض ممکن است به طور کامل با عناصر بسیار غیراخلاقی و غیرقانونی آغشته شود.
من به طور گسترده ای موضوع اخلاق هوش مصنوعی را در ستون های خود پوشش داده ام، مانند پوشش در این پیوند و همچنین در این پیوند اینجا، فقط برای نام بردن چند مورد. یک مجموعه نسبتاً رایج از عوامل هوش مصنوعی اخلاقی شامل توجه به این ویژگیهای هوش مصنوعی است:
- عدالت
- شفافیت
- قابل توضیح
- حریم خصوصی
- امانت
- کرامت
- سود رسانی
- غیره
اینها سازه های اجتماعی است که اغلب به آنها اشاره شده است که ما باید در مورد ساخت و توسعه هوش مصنوعی امروزی در مورد آنها فکر کنیم. این احتمال وجود دارد که اگر به یک مقاله یا پست وبلاگی که اخلاق هوش مصنوعی را پوشش می دهد نگاهی بیندازید، متوجه خواهید شد که موضوع مقاله بر یکی از آن عوامل یا ویژگی های ذکر شده متمرکز است.
من معتقدم که در مجموع کسانی که خواهان هوش مصنوعی اخلاقی هستند موافق هستند که این عوامل ارزش توجه دارند. در واقع، به نظر میرسد مشکل واقعی این است که تولیدکنندگان هوش مصنوعی و کسانی که هوش مصنوعی را تبلیغ میکنند، به نظر نمیرسد این پیام را دریافت کنند. این باعث شده است که افراد در میان جنبش اخلاق هوش مصنوعی بیشتر توضیح دهند که چرا این ویژگی ها بسیار مهم هستند. متأسفانه، بسیاری از توسعهدهندگان و شرکتهای هوش مصنوعی که از هوش مصنوعی بهره میبرند، یا فکر میکنند داشتن این خوب است، بنابراین صرفاً اختیاری است، یا هوش مصنوعی اخلاقی را بیشتر یک تمرین آکادمیک انتزاعی میدانند تا چیزی که ماهیت عملی روزمره دارد.
طبق پیشبینیهای من، بسیاری از کسانی که سرشان را در مورد هوش مصنوعی اخلاقی میاندازند، روزی بیدار میشوند و با گستاخی متوجه میشوند که زیر پوشش سخت جامعه و همچنین قانون هستند. مردم با کشف این موضوع که هوش مصنوعی فراگیر که در انواع کالاها و خدمات تعبیه شده است، با تعصبات و نابرابری های ذاتی همراه است، بسیار ناراحت خواهند شد. قانونگذاران در حال حاضر قوانین جدیدی را به پیش میبرند تا اطمینان حاصل کنند که کسانی که چنین هوش مصنوعی را ترویج میکنند تحت قوانین قانونی بدون ابهام قرار میگیرند، در نتیجه کار را برای سازندگان هوش مصنوعی و کسانی که هوش مصنوعی را به کار میگیرند سختتر میکند تا از هرگونه پتانسیلهای جنایی مدنی و دادستانی نامطلوب خودداری کنند. از تلاش های آنها
چرخهای عدالت بدون اینکه تلنگری به نظر برسند، بهطور اجتنابناپذیری راه خود را به سوی کسانی که در حال انتشار و تقویت هوش مصنوعی هستند، میچرخاند.
برای روشن شدن، هوش مصنوعی برای بد لزوماً صرفاً به بازیگران شرور نسبت داده نمی شود. به نظر می رسد که اکثر توسعه دهندگان هوش مصنوعی و کسانی که هوش مصنوعی را به کل جهان ارائه می دهند، اغلب از آنچه در دست دارند بی اطلاع هستند. به نظر می رسد که زنگ هشدار در مورد اخلاق هوش مصنوعی هنوز به گوش آنها نرسیده است. شما می توانید با کسانی که به طرز سعادتمندانه ای بی خبر هستند همدردی کنید، اگرچه این امر آنها را کاملاً از مسئولیت و وظیفه نهایی مراقبت معاف نمی کند.
مایلم به اختصار اشاره کنم که نباید گرفتار این تله ذهنی موذیانه شوید که تقصیر هوش مصنوعی ناگوار به پای خود هوش مصنوعی است. این تقریباً خنده دار است، اگرچه همچنان به عنوان یک دریچه فرار مورد استفاده قرار می گیرد و به طور باورنکردنی به نظر می رسد هر از گاهی روی کسانی که با هوش مصنوعی امروزی آشنایی ندارند، کار می کند. ببینید، هوش مصنوعی امروزی حساس نیست. حتی نزدیک نیست. ما نمی دانیم که آیا هوش مصنوعی امکان پذیر است یا خیر. ما نمی دانیم چه زمانی ممکن است هوش مصنوعی به دست آید.
نکته پایانی این است که بازی سرزنش هوش مصنوعی که حواس همه را پرت می کند با اشاره انگشت به هوش مصنوعی به عنوان طرف مسئول، اگر نه کلاهبرداری کاملاً مفتضحانه است، نابخردانه است، استنباط من در مورد این موضوع را در لینک اینجا ببینید. هوش مصنوعی موجود توسط توسعه دهندگان انسانی برنامه ریزی شده است. هوش مصنوعی موجود توسط انسان منتشر و در دسترس قرار می گیرد. شرکتهایی که هوش مصنوعی میسازند و شرکتهایی که مجوز یا خرید هوش مصنوعی را برای اهداف استفاده از هوش مصنوعی در کالاها و خدماتشان میدهند، کاملاً مبتنی بر نوع بشر هستند. انسانها مسئول هستند، نه هوش مصنوعی (شاید، در آینده، هوش مصنوعی ظاهری متفاوت و پیشرفتهتر داشته باشیم، و در آن زمان باید بیشتر با تمایز محل سرزنش مبارزه کنیم).
به عنوان یک جمع بندی سریع، ما باید سپاسگزار باشیم که صدابرداران هوش مصنوعی اخلاقی به شدت در تلاش هستند تا جامعه را در مورد پیامدهای اخلاقی هوش مصنوعی راهنمایی کنند. در حال حاضر، تقریباً شبیه عمل سیزیف است که یک تخته سنگ را به بالای تپه ای شیب دار می غلتاند. بسیاری از کسانی که باید گوش کنند، این کار را نمی کنند. کسانی که گوش می دهند همیشه به اقدامات اصلاحی ترغیب نمی شوند. درست همانطور که سیزیف وظیفه غبطهانگیز هل دادن آن تخته سنگ را تا ابد به بالای تپه بر عهده داشت، تقریباً میتوانید فرض کنید که ناهنجاری اخلاق هوش مصنوعی نیز ضرورتاً باید یک غوغای ابدی باشد.
به نظر می رسد که موضوع در مورد اخلاق هوش مصنوعی حل می شود و احتمالاً می توانیم به موضوع دیگری برویم.
اما، صبر کنید، چیزهای بیشتری وجود دارد.
ممکن است تعجب کنید یا حتی متعجب شوید که بدانید برخی ادعا می کنند که مجموعه موجود ملاحظات هوش مصنوعی اخلاقی نادیده گرفته شده است. آنها با صدای بلند تشویق میکنند، سنگکلید اصلی اخلاق هوش مصنوعی در یک گروهاندیشی غرق شده است.
این معامله است.
گفته میشود فهرستی از عوامل اخلاقی هوش مصنوعی که قبلاً ذکر شد، به یک دغدغه خفهکننده توسط خدمه هوش مصنوعی اخلاقی تبدیل شده است. همه بیخبر آن عوامل را میپذیرند و بارها و بارها به همان عوامل ضربه میزنند. مانند اتاق پژواک، غالب اخلاق شناسان هوش مصنوعی همان آهنگ را برای خود تکرار می کنند و از صدای آن لذت می برند. تعداد کمی هستند که مایلند از بسته خارج شوند. ذهنیت گله ای بر هوش مصنوعی اخلاقی غلبه کرده است (اینطور ادعا می شود).
این معما چگونه به وجود آمد؟ ظاهراً میتوانید این جریان نامطلوب هوش مصنوعی اخلاقی را بر اساس اتفاق یا بر اساس طرح توضیح دهید.
در سناریوی اتفاقی، تمرکز بر عوامل کلیدی بسیار آسان است. شما مجبور نیستید بیرون از جعبه بروید، همانطور که بود. علاوه بر این، کسانی که در اردوگاه هوش مصنوعی اخلاقی هستند، احتمالاً به جای جستجوی مفاهیم فراتر از حد معمول، به کار یا ایده های مشابه علاقه مند هستند. کبوتر با کبوتر، باز با باز. گفته می شود اینچ به اینچ، عرصه اخلاق هوش مصنوعی در یک خوشه تنگ جمع شده است و به طور کلی با آشنایی و راحتی که ایجاد می کند خوب است.
من مطمئن هستم که این مورد خشم بسیاری از شرکت کنندگان در اخلاق هوش مصنوعی را به دنبال خواهد داشت (به خاطر داشته باشید که من فقط به آنچه دیگران ادعا می کنند اشاره می کنم و آن ادعاها را تأیید نمی کنم).
اگر میخواهید خشم را افزایش دهید، این پیشنهاد را در نظر بگیرید که این پدیده با طراحی به وجود آمده است. در حوزهای که احتمالاً نظریهپردازان توطئه هستند، گفته میشود که فنآوران هوش مصنوعی و شرکتهای فناوری یا به طور مستقیم یا ناخودآگاه در محدود کردن ملاحظات هوش مصنوعی اخلاقی سهیم هستند.
چرا آنها این کار را می کنند؟
ما دو احتمال را بررسی خواهیم کرد.
یک تصور این است که فنآوران هوش مصنوعی از مجموعهای از ملاحظات هوش مصنوعی اخلاقی حمایت میکنند، زیرا آن عوامل خاص تا حدودی قابل اصلاح از طریق فناوری هستند. به عنوان مثال، اگر میخواهید توضیحپذیری داشته باشید، فنآوران و محققان هوش مصنوعی شب و روز در تلاش هستند تا قابلیتهای هوش مصنوعی (XAI) قابل توضیح را ایجاد کنند. زیبایی فهرست غالب عوامل هوش مصنوعی اخلاقی در این است که آنها در محدوده اختیارات فناوری هوش مصنوعی قرار می گیرند. آنهایی که به این نظریه نسبت میدهند، میتوانند پیشنهاد کنند که هر عامل دیگری که بهراحتی با هوش مصنوعی قابل حل نیست، نمیتواند در فهرست عوامل جذابیت پیدا کند.
سپس شما نوع شرورتر دیگر را خواهید داشت. پیشنهاد میشود که شرکتهای با فناوری پیشرفته و سایرین وجود دارند که میخواهند اساساً به موضوعات اخلاقی هوش مصنوعی خدمات ارائه دهند. از این نظر، آنها از فهرست کوتاه تری از نگرانی های قابل حل فن آوری لذت می برند. هر تلاشی برای اضافه کردن نگرانی های دیگر زندگی را برای آن شرکت های فناوری سخت تر می کند. آنها می خواهند سرمایه گذاری مورد نیاز برای تسکین اعلامیه های هوش مصنوعی اخلاقی را به حداقل برسانند.
گمان میکنم که این نوع کنایهها ناگزیر است که مشتها را برانگیزد و بسیار فراتر از خشم ساده باشد. کسانی که خستگی ناپذیر تلاش می کنند تا از هوش مصنوعی اخلاقی پیروی کنند و به آن کمک کنند، به طور بالقوه توسط این ادعاها لکه دار می شوند، و شما به راحتی می توانید تصور کنید که چرا آنها از اتهامات به ظاهر بی شرمانه و در کل وقیحانه خشمگین می شوند.
بیایید یک نزاع را شروع نکنیم و در عوض یک لحظه هوشیارانه و تأمل برانگیز را در نظر بگیریم تا ببینیم اردوگاه هوش مصنوعی اخلاقی چه چیز دیگری را ظاهراً از دست داده است. اردوگاه دیگری که خواهان گسترش و گسترش دیدگاه هوش مصنوعی اخلاقی معاصر است، گاهی اوقات به عنوان هوش مصنوعی اخلاقی رادیکال.
ممکن است تعجب کنید که آیا نام Radical Ethical AI مناسب است یا نامطلوب.
مفهوم چیزی که "رادیکال" است می تواند خوب یا بد باشد. یکی از تفسیرهای Radical Ethical AI این است که تلاشی برای متزلزل ساختن وضعیت موجود اخلاق هوش مصنوعی است. استفاده از «رادیکال» نشان میدهد که ما باید یک چرخش دراماتیک هماهنگ داشته باشیم و نه اینکه فقط اندکی چرخش را تنظیم کنیم یا ضعیف ارائه کنیم. شما میتوانید استدلال کنید که استفاده از «رادیکال» به روشهای موجود مشابه استفاده از دفیبریلاتور ضربهای وارد میکند که در غیر این صورت از طریق قرارداد معمول به دست نمیآید.
دیگران می گویند که با الصاق کلمه "رادیکال" شما یک آشفتگی ایجاد می کنید. برخی رادیکالیسم را عجیب و غریب، لغزش به سمت عجیب و غریب یا عجیب و غریب تفسیر می کنند. مرکزگرایان ممکن است بلافاصله این تصور را که آیا یک تفکر گروهی وجود دارد یا نه به دلیل نامگذاری تنها به عنوان یک تدبیر توهین آمیز، رد کنند. برخی می گویند لحن لفاظی را کاهش دهید، و ممکن است توجه و علاقه جدی تری به خود جلب کنید.
با وجود موضوع نامگذاری، ممکن است ذاتاً کنجکاو باشید که بدانید این اردوگاه دیگر چه چیزی را گم کرده است. هرگونه واکنش احشایی به واچاماکالیت را کنار بگذارید.
ممکن است ظاهراً بپرسید که گوشت گاو کجاست؟
من سعی خواهم کرد برخی از موارد اشاره شده به مواد گمشده را نشان دهم.
اول، یکی از موارد ناظر ادعایی این است که دیدگاه رایج در مورد هوش مصنوعی اخلاقی سنتی (کهنهمدّه؟) یک فرض پنهان محدودکننده است که هوش مصنوعی اجتنابناپذیر است. بنابراین، به جای بررسی اینکه آیا هوش مصنوعی باید حتی برای انواع خاصی از کاربردها و شرایط اجتماعی در کارت باشد، موضع غالب این است که هوش مصنوعی در راه است و ما باید آن را به بهترین شکل ممکن برسانیم. ممکن است به زبان ساده بگویید که این کار شبیه گذاشتن رژ لب روی خوک است (یعنی همچنان خوک است، مهم نیست چه کاری انجام می دهید تا ظاهراً بهتر به نظر برسد).
اگر این موضوع را افراط کنید، شک و تردید در مورد انصاف، حفظ حریم خصوصی و بقیه موارد شاید مانند صندلی های حرکت دادن روی عرشه تایتانیک باشد. این کشتی همچنان در حال غرق شدن است، به این معنی که فرض می کنیم هوش مصنوعی قرار است اتفاق بیفتد، مهم نیست که چه اتفاقی می افتد. اما، شاید ما باید در مورد اینکه آیا غرق شدن تنها گزینه پیش رو است، تجدید نظر کنیم.
من یک لحظه دیگر به این ملاحظات باز خواهم گشت.
در اینجا به سرعت برخی دیگر از موارد ادعا شده در زمینه هوش مصنوعی اخلاقی وجود دارد که یا به آنها توجه نمی شود و یا به دلیل توجه فراوان به سایر موضوعات رایج از بین رفته اند:
- علاوه بر استفاده از هوش مصنوعی برای مدیریت انسانها، مانند افزایش استفاده از هوش مصنوعی برای تصمیمگیری استخدام و اخراج در شرکتها، در مورد استفاده از هوش مصنوعی برای مدیریت حیوانات نیز تردید وجود دارد. تلاش هایی در حال انجام است تا از هوش مصنوعی در مزارع، باغ وحش ها و به طور کلی هر مکانی که حیوانات تمایل به نگهداری دارند، استفاده شود. هوش مصنوعی چگونه بر رفاه حیوانات تأثیر می گذارد؟
- مواقعی وجود دارد که ظاهراً هوش مصنوعی در جوامع آسیبپذیر آزمایش بتا میشود، این کار در اولین تلاش انجام میشود و سپس هوش مصنوعی بعداً به طور گستردهتری منتشر میشود. توجه شدید اخلاقی هوش مصنوعی باید به این شیوه ها معطوف شود.
- به نظر می رسد که بحث های زیادی در مورد جایگزینی کارگران با هوش مصنوعی در حال انجام است، اگرچه توجه کمتری به تأثیرات هوش مصنوعی به عنوان ابزار نظارتی مورد استفاده برای نظارت بر کارگران کم دستمزد وجود دارد.
- به نظر می رسد که توجه کافی در مورد تأثیرات زیست محیطی و زیست محیطی ساخت و نگه داشتن سیستم های هوش مصنوعی صورت نگرفته است (به عنوان یک کنار، ممکن است بحث من در مورد ردپای کربن مرتبط با هوش مصنوعی برای شما جالب باشد، پیوند را در اینجا ببینید).
· و غیره.
برخی از متخصصان در هوش مصنوعی اخلاقی وجود دارند که احتمالاً فوراً به این موضوع اشاره میکنند که اینها در واقع موضوعاتی هستند که میتوان در ادبیات و بحثهای مربوط به اخلاق هوش مصنوعی یافت. آنها بی سابقه نیستند و به طور نفس گیر جدیدی هم نیستند.
من معتقدم که دیدگاه پاکاندیشان Radical Ethical AI این است که آنها ادعا نمیکنند که زمین کاملاً رد نشده را کشف کردهاند. در عوض، آنها ادعا میکنند که تمرکز موجود هوش مصنوعی اخلاقی، هوای تنفسپذیر را خفه میکند و اجازه میدهد دیگر موضوعات «بیگانه» به حق خود نرسند.
شاید یک راه دلپذیرتر برای بیان این موضوع این باشد که توجه غالب به اخلاق هوش مصنوعی توجه کمتری به سایر موضوعات حیاتی داشته است. میتوانید پیشنهاد کنید که نقاط کور وجود دارد و فکر کردن به اینکه آیا میتوان آنها را بیشتر در تار قرار داد یا نه، مفید است (این مورد نیز در مقاله مورد بحث قرار گرفته است. مجله هوش و اخلاق در مقاله اخیر با عنوان "نقاط کور در اخلاق هوش مصنوعی" توسط تیلو هاگندورف).
اکنون که ما این حماسه را پوشش داده ایم که آیا هوش مصنوعی اخلاقی کمی در حال فروپاشی است، که برخی می گویند یک بحث مضحک است و در عین حال برخی دیگر اصرار دارند که این موضوع واقعی است و بدتر می شود، شاید بتوانیم لحظه ای را برای کاوش در نظر بگیریم. یک مورد استفاده برای نگاهی دقیق تر به موضوع.
به عنوان یک متخصص در زمینه هوش مصنوعی از جمله پیامدهای اخلاقی و قانونی، اغلب از من خواسته می شود که نمونه های واقع بینانه ای را که معضل هم ترازی را نشان می دهد شناسایی کنم تا بتوان ماهیت تا حدودی نظری موضوع را راحت تر درک کرد. یکی از جذابترین زمینههایی که این معضل اخلاقی هوش مصنوعی را به وضوح نشان میدهد، ظهور خودروهای خودران واقعی مبتنی بر هوش مصنوعی است. این به عنوان یک مورد استفاده مفید یا نمونه ای برای بحث و گفتگوی کافی در مورد موضوع خواهد بود.
پس در اینجا یک سوال قابل توجه وجود دارد که قابل تامل است: آیا ظهور خودروهای خودران واقعی مبتنی بر هوش مصنوعی ملاحظات هوش مصنوعی اخلاقی خارج از چارچوب را ارائه می دهد که عموماً بدون چالش یا به اندازه کافی آشکار نشده است؟
یک لحظه به من اجازه دهید تا پرسش را باز کنم.
اول، توجه داشته باشید که هیچ راننده انسانی در یک ماشین خودران واقعی دخیل نیست. به خاطر داشته باشید که خودروهای خودران واقعی از طریق سیستم رانندگی هوش مصنوعی هدایت می شوند. نه نیازی به راننده انسان پشت فرمان وجود دارد و نه پیش بینی ای برای رانندگی وسیله نقلیه توسط انسان وجود دارد. برای پوشش گسترده و مداوم من در مورد وسایل نقلیه خودران (AVs) و به خصوص خودروهای خودران، لینک اینجا را ببینید.
مایلم بیشتر توضیح دهم که منظور از خودروهای خودران واقعی چیست.
درک سطح اتومبیل های خودران
به عنوان یک توضیح ، اتومبیل های واقعی خودران از جمله مواردی هستند که هوش مصنوعی اتومبیل را کاملاً خود به خود هدایت می کند و هیچ گونه کمک انسانی در حین کار رانندگی وجود ندارد.
این وسایل نقلیه بدون راننده سطح 4 و سطح 5 در نظر گرفته می شوند (توضیحات من را در این لینک در اینجا ببینید) ، در حالی که اتومبیلی که به راننده انسانی نیاز دارد تا در کار رانندگی مشترک باشد ، در سطح 2 یا سطح 3 در نظر گرفته می شود. به اشتراک بگذارید وظیفه رانندگی نیمه مستقل توصیف شده است ، و به طور معمول شامل انواع اضافی خودکار است که به آنها ADAS (Advanced Driver-Assist Systems) گفته می شود.
در سطح 5 هنوز یک اتومبیل واقعی رانندگی وجود ندارد ، که ما حتی نمی دانیم آیا این امر امکان پذیر خواهد بود یا اینکه رسیدن به آنجا چقدر طول می کشد.
در همین حال ، تلاش های سطح 4 به تدریج در تلاشند تا با انجام آزمایشات عمومی بسیار باریک و انتخابی در جاده ها ، برخی از کشش ها را به خود جلب کنند ، هرچند در مورد اینکه آیا این آزمایش به خودی خود مجاز است یا خیر ، اختلاف نظر وجود دارد (همه ما در یک آزمایش خوکچه هندی زنده یا مرگ هستیم) برخی ادعا می کنند ، در این پیوند اینجا را ببینید).
از آنجا که اتومبیل های نیمه خودمختار به یک راننده انسانی احتیاج دارند ، تصویب آن دسته از اتومبیل ها تفاوت چندانی با رانندگی وسایل نقلیه معمولی نخواهد داشت ، بنابراین به تنهایی چیز جدیدی برای پوشش آنها در این موضوع وجود ندارد (هر چند ، همانطور که خواهید دید در یک لحظه ، نکات بعدی که بطور کلی اعمال می شود).
در مورد اتومبیل های نیمه خودمختار ، مهم است که در مورد جنبه نگران کننده ای که اخیراً بوجود آمده است ، هشدار داده شود ، یعنی این که با وجود آن رانندگان انسانی که با ارسال فیلم هایی از خودشان ، در حال خوابیدن در چرخ یک اتومبیل سطح 2 یا سطح 3 هستند. ، همه ما باید از اینكه گمان نرود راننده بتواند هنگام رانندگی یك اتومبیل نیمه خودمختار ، توجه خود را از وظیفه رانندگی دور كند ، خودداری كنیم.
شما مسئولیت اقدامات رانندگی وسیله نقلیه ، صرفنظر از میزان اتوماسیون در سطح 2 یا سطح 3 ، مسئولیت مسئولیت مسئولیت شما می باشد.
اتومبیل های خودران و موارد دور از ذهن یا طرد شده از ملاحظات هوش مصنوعی اخلاقی
برای وسایل نقلیه خود رانندگی واقعی سطح 4 و سطح 5 ، یک راننده انسانی درگیر در وظیفه رانندگی نخواهد بود.
همه سرنشینان مسافر خواهند بود.
هوش مصنوعی رانندگی را انجام می دهد.
یک جنبه برای بحث فوری این واقعیت را در بر دارد که هوش مصنوعی در سیستم های رانندگی هوش مصنوعی امروزی حساس نیست. به عبارت دیگر ، هوش مصنوعی در مجموع مجموعه ای از برنامه نویسی و الگوریتم های مبتنی بر رایانه است و مطمئناً قادر به استدلال به همان روشی نیست که انسان می تواند.
چرا این تاکید اضافی در مورد هوش مصنوعی نیست؟
از آنجا که می خواهم تأکید کنم هنگام بحث در مورد نقش سیستم رانندگی AI ، من خصوصیات انسانی را به AI نسبت نمی دهم. لطفاً توجه داشته باشید که این روزها تمایل مستمر و خطرناکی برای انسان سازی AI وجود دارد. در حقیقت ، افراد حساسیتی شبیه انسان به هوش مصنوعی امروزی دارند ، علی رغم این واقعیت انکارناپذیر و غیرقابل انکار که هنوز چنین هوش مصنوعی وجود ندارد.
با این توضیحات ، می توانید تصور کنید که سیستم رانندگی هوش مصنوعی بطور طبیعی از جنبه های رانندگی "آگاهی" نداشته باشد. رانندگی و همه آنچه که شامل می شود باید به عنوان بخشی از سخت افزار و نرم افزار اتومبیل خودران برنامه ریزی شوند.
بیایید به جنبه های بی شماری بپردازیم که در این موضوع بازی می شوند.
اول، مهم است که بدانیم همه خودروهای خودران با هوش مصنوعی یکسان نیستند. هر خودروساز و شرکت فناوری خودران رویکرد خود را برای ابداع خودروهای خودران در پیش گرفته است. به این ترتیب، اظهار نظر گسترده در مورد اینکه سیستم های رانندگی هوش مصنوعی چه کاری انجام خواهند داد یا انجام نمی دهند، دشوار است.
علاوه بر این ، هرگاه بیان شود که سیستم رانندگی هوش مصنوعی کار خاصی انجام نمی دهد ، بعداً توسعه دهندگانی که در واقع کامپیوتر را برای انجام این کار برنامه ریزی می کنند ، می توانند از این امر پیشی بگیرند. گام به گام ، سیستم های رانندگی هوش مصنوعی به تدریج در حال بهبود و گسترش هستند. امروزه محدودیت موجود ممکن است دیگر در نسخه یا نسخه بعدی سیستم وجود نداشته باشد.
من معتقدم که هشدارهای کافی برای تأکید بر آنچه که من در مورد آن صحبت می کنم فراهم می کند.
ما اکنون آماده هستیم تا به بررسی خودروهای خودران بپردازیم و اینکه آیا ملاحظات هوش مصنوعی اخلاقی رادیکال خارج از چارچوب ظاهراً به اندازه کافی حق ندارند یا خیر.
با توجه به محدودیت های فضا، بیایید روی یک موضوع خاص تمرکز کنیم که سپس می توانیم به آن بپردازیم. به طور خاص، این اتهام کلی وجود دارد که اخلاق AI غالب ظاهراً دارای یک فرض پنهان است که هوش مصنوعی اجتناب ناپذیر است.
اگر این فرض اصلی را در مورد خودروهای خودران مبتنی بر هوش مصنوعی به کار ببریم، نشان میدهد که جامعه هوش مصنوعی اخلاقی به طور کلی با این فرض که خودروهای خودران به طور اجتنابناپذیری ابداع و تولید میشوند، است. آنها به ارزش اسمی می اندیشند که اتومبیل های خودران ظهور خواهند کرد، در حالی که ادعای متقابل این است که آنها باید نه این فرض پنهان را داشته باشیم و در عوض به این موضوع فکر کنیم که شاید ما نباید خودروهای خودران با هوش مصنوعی داشته باشیم (یا نوع دیگری مانند آنها را فقط در شرایط خاص و نه به صورت گسترده داشته باشیم).
این یک سوال عالی است.
برای روشن شدن و بیان مجدد، ادعای غیر از این که ملاحظات غالب هوش مصنوعی اخلاقی در مورد خودروهای خودران با هوش مصنوعی ظاهراً با فرض اجتناب ناپذیر بودن خودروهای خودران با هوش مصنوعی قایق را از دست داده است. در آن طرز تفکر، انتظارات به دو صورت نمایش داده می شود:
1. تعداد کمی از بررسیها در مورد اینکه آیا ما حتی باید ماشینهای خودران با هوش مصنوعی داشته باشیم وجود داشته باشد، یا به کناری منتقل میشود، یا نفسی برای جلب توجه نمیکند، و
2. تمرکز احتمالی بر روی خودروهای خودران با هوش مصنوعی در عوض بر روی جزئیات مربوط به پیامدهای اخلاقی هوش مصنوعی لیست سنتی عوامل، مانند توضیح پذیری، انصاف، حریم خصوصی و غیره خواهد بود و در مجموع این کار را تحت پوشش کلی یا بی صدا انجام می دهد. فرض بر این است که ما قطعاً آن وسایل نقلیه خودران افتخارآمیز را خواهیم داشت (بدون اینکه هیچ گزینه دیگری به طور گسترده مورد توجه قرار نگیرد).
یک پیشنهاد جالب
حتی یک بازرسی گاه به گاه از توجه عمومی به چنین مسائلی در رابطه با خودروهای خودران با هوش مصنوعی نشان می دهد که این فرض وجود دارد که خودروهای خودران با هوش مصنوعی تا حدودی اجتناب ناپذیر هستند، هرچند بیایید مطمئن شویم که یک هشدار بزرگ و نشانگر هشدار دهنده با پاورقی دو ستاره وجود دارد. همراه با آن بیانیه فراگیر
به همین دلیل است
ما هنوز نمی دانیم که آیا خودروهای خودران واقعی مبتنی بر هوش مصنوعی واقعاً امکان پذیر خواهند بود یا خیر.
مطمئناً، آزمایشهای جادهای عمومی باریک در حال انجام است. اینها مطلقاً در سطح 5 نیستند. هیچ کس نمی تواند به طور منطقی بر خلاف آن در این نقطه غیرقابل انکار استدلال کند. میتوانید بگویید که برخی از آزمایشهای مناسب به نوعی به سطح 4 منحرف میشوند، اما به شکلی لرزان و با ODDهای نسبتاً شکننده (ODD یا دامنههای طراحی عملیات، شرایطی هستند که در آن یک سازنده خودروی خودران بیان میکند که وسیله نقلیه خودران آنها میتواند با خیال راحت کار کند. ، بحث من را در این لینک اینجا ببینید).
همانطور که گفته شد، عرصه خودروهای خودران بسیار بیشتر از چند سال پیش است. دلایل منطقی برای خوش بین بودن در مورد آنچه در آینده اتفاق خواهد افتاد وجود دارد. بزرگترین نقطه گیر، جدول زمانی است که این بازی چه زمانی انجام می شود. پیشبینیهای قبلی توسط کارشناسان به آسانی آمده و رفته است. شما می توانید انتظار داشته باشید که پیش بینی های موجود مطمئناً به همان سرنوشت دچار شوند.
به طور خلاصه، به نظر می رسد که می توانید به طور غیررسمی بگویید که دلیل کافی برای این فرض وجود دارد که خودروهای خودران واقعی مبتنی بر هوش مصنوعی در نهایت به وجود خواهند آمد. به نظر می رسد که ما در میان ODD های بسیار محدود به سمت سطح 4 پیش می رویم. به نظر می رسد گسترش منطقی بعدی شامل داشتن ODD های بیشتر است، مواردی که تنوع و عمق بیشتری دارند. در مقطعی که در آن ما به اندازه کافی حوزههای ODD همپوشانی و تا حدودی جامع را فتح کردهایم، به نظر میرسد که این امر به ورود جدی به سطح 5 ختم میشود. این حداقل فلسفه پیشرفت پیشبینیشده (که همه آن را قبول ندارند) است.
من به آن پیچیدگیهای به ظاهر پیچیده اشاره میکنم، زیرا درمورد اینکه اعلام کنیم ماشینهای خودران واقعی مبتنی بر هوش مصنوعی وجود دارند یا به لحظه بزرگ وجود آنها رسیدهایم، سردرگمی زیادی وجود دارد. تعریف شما از خودروهای خودران واقعی مبتنی بر هوش مصنوعی چیست؟ اگر می گویید این لحظه ای است که به سطح 4 رسیده اید، خوب، حدس می زنم می توانید شروع به ریختن آن بطری های شامپاین کنید. اگر می گویید زمانی که سطح 4 را پشت سر گذاشته ایم، باید آن بطری های شامپاین را در انبار قرار دهید. اگر می گویید زمانی است که ما به سطح 5 تسلط پیدا کرده ایم، آن بطری ها به پشت قفسه های ذخیره سازی می روند و باید انتظار داشته باشید که گرد و غبار شوند.
در مجموع، اگر جامعه در واقع این فرض را میکند که خودروهای خودران با هوش مصنوعی اجتنابناپذیر هستند، میتوانید استدلال کنید که این یک فرض فوقالعاده است. همه با آن بحث موافق نیستند، بنابراین برای کسانی از شما که از احتمال ادعایی ناراحت هستند، اختلاف شدید شما بسیار قابل توجه است.
آیا به طور بالقوه با همراهی با فرض اجتناب ناپذیری خودروهای خودران با هوش مصنوعی، خود را دچار مشکل یا تنگنا می کنیم؟
پیچش ها و چرخش های جذابی وجود دارد که این معما به سطح می آورد.
به عنوان مثال، یکی از نگرانیهایی که قبلاً اغلب در مورد آن بحث شده این است که ما ممکن است خودروهای خودران مبتنی بر هوش مصنوعی داشته باشیم که به طور انحصاری در برخی مناطق در دسترس هستند اما در برخی دیگر نه. مناطقی که خودروهای خودران خواهند داشت «داراها» هستند، در حالی که مناطقی که آنها را ندارند، «نداشتن ها» هستند که اساسا از استفاده از مزایای خودروهای خودران جلوگیری می کنند.
این اعلام شده است نخبه گرا یا منبی عدالتی نگرانی پدیدارشناختی که بسیاری بیان کرده اند. در واقع، من بارها به این موضوع پرداخته ام، مانند این پیوند در اینجا و در این تحلیل بزرگتر در پیوند اینجا.
ایده این است که خودروهای خودران با هوش مصنوعی احتمالاً در ناوگان عملیاتی خواهند شد. اپراتورهای ناوگان محل استقرار خودروهای خودران خود را انتخاب خواهند کرد. مکان فرضی درآمدزایی برای استفاده از خودروهای خودران در بخش های ثروتمندتر یک شهر یا شهر است. کسانی که در بخش های فقیر یا فقیر یک شهر یا شهر زندگی می کنند، دسترسی آماده به ماشین های خودران نخواهند داشت.
منطق مشابهی برای ادعای این که کشورها نیز به طور مشابه خود را در همان مخمصه خواهند دید، تعمیم داده شده است. کشورهای ثروتمندتر استفاده از خودروهای خودران را تجربه خواهند کرد، در حالی که کشورهای فقیرتر تجربه نخواهند کرد. دارندگان دسترسی و استفاده بیشتری از وسایل نقلیه خودران خواهند داشت، نداشته ها نخواهند داشت.
ممکن است از خود بپرسید که دارندگان چه چیزهایی دریافت می کنند که نداشته ها به دست نمی آورند. یک نشانه متداول این است که این انتظار وجود دارد که خودروهای بدون راننده با هوش مصنوعی تصادفات و تصادفات اتومبیل کمتری داشته باشند. اعتقاد بر این است که تعداد جراحات و تلفات انسانی ناشی از تصادفات اتومبیل به طور چشمگیری کاهش می یابد. به این ترتیب، بخشهای ثروتمندتر یک شهر یا شهر، یا کشورهای ثروتمندتر، میتوانند صدمات و تلفات ناشی از خودروی خود را کاهش دهند، در حالی که مناطق انسانمحور که گزینه یا جایگزینی از طریق خود مبتنی بر هوش مصنوعی ندارند. -رانندگی خودروها شاهد چنین کاهش متناسبی نخواهند بود.
لطفاً بدانید که خودروهای خودران با هوش مصنوعی مزایای دیگری نیز دارند که به طور مشابه در داراییها جمع میشوند و در خودروهای نداشتن متحمل نمیشوند (بیشتر را در این لینک اینجا ببینید).
نکته در اینجا این است که میتوانید «خودرانهای خودران اجتنابناپذیر هستند» را با اشاره به اینکه هوش مصنوعی اخلاقی در حال حاضر در مورد خودروهای خودران که فقط به صورت انتخابی در دسترس هستند، دست نوشتهها را افزایش دهید. من می دانم که ممکن است شبیه یک چوب شور به نظر برسد. آنچه این می گوید این است که ما از قبل به طور مشخص نگران نبودن هوش مصنوعی در برخی از بخش های اجتماعی هستیم. در آن گستره تفکر، این نمونه سازی از هوش مصنوعی با توجه به آن زمینه ها به خودی خود اجتناب ناپذیر نیست (اگر شما رانده شوید).
نتیجه
شما بدون شک با این توصیه حکیمانه هوشمندانه آشنا هستید که می گوید آنچه را که نمی دانید می تواند به شما آسیب برساند، در حالی که چیزی که نمی دانید و نمی دانید می تواند واقعاً شما را از بین ببرد.
یک دیدگاه در مورد وضعیت هوش مصنوعی اخلاقی رادیکال این است که علیرغم هرگونه حیرت مرتبط با نامگذاری، حداقل باید آنچه را که تصور می شود از دست می دهیم بشنویم. شاید یک تفکر گروهی در حال وقوع باشد و به اصطلاح هوش مصنوعی اخلاقی مرسوم یا اخلاق هوش مصنوعی قدیمی توانسته است راکد شود و روی ملاحظات خاصی گیر کند. اگر چنین است، یک ضربه به عقب ممکن است به روشن شدن مجدد موتورها و حرکت به سمت دامنه وسیعتر کمک کند.
یا، ممکن است Ethical AI و AI Ethics خوب پیش بروند، از شما بسیار متشکرم، و این شاخه فقط تلاش می کند که مگس در پماد باشد. جنبه منفی به خصوص مخل یا نگران کننده به نظر نمی رسد. وقتی یا اگر همه چیز به نحوی از کنترل خارج شود، ممکن است یک ارزیابی مجدد عابدانه و هماهنگ از قلمرو، از شایستگی بصیرتی برخوردار باشد.
بهبود مستمر یک آرزوی ستودنی است. و، تقریباً میتوان گفت که وقتی نوبت به ظهور هوش مصنوعی میرسد، نمیخواهیم با تأخیر بفهمیم که چیزهایی را که نمیدانستیم نمیدانستیم، و باید میدانستیم که در رأس آن هستیم. جنبه هایی که ما نمی دانستیم (یا اینکه آنها را تا حدودی می شناختیم و ناخواسته آنها را سرکوب کردیم).
این خیلی رادیکال به نظر نمی رسد، اینطور است؟
منبع: https://www.forbes.com/sites/lanceeliot/2022/02/20/pushing-the-boundaries-of-ai-ethics-into-the-topsy-turvy-world-of-radical-ethical- Ai-potentially-exmplified-via-case-use-faunted-based-air-driving-cars/