درس‌های اخلاق هوش مصنوعی و سیستم‌های خودمختار از آن پرواز اخیر خطوط هوایی آلاسکا که خلبان و کمک خلبان قبل از پرواز با یکدیگر مخالفت کردند و به‌طور ناگهانی تصمیم گرفتند تاکسی را به ترمینال بازگردانند و راه‌های جداگانه‌ای را انتخاب کنند به دست آمده است.

ایرلاین ها اخیراً اخبار زیادی را به خود اختصاص داده اند.

ما در بحران تابستانی پروازها هستیم. مسافران خسته و ناامید خود را با انواع اختلالات پرواز و انحراف در برنامه ریزی خطوط هوایی مواجه می کنند. پروازها به طور غیرمنتظره ای لغو می شوند. پروازها با تاخیر انجام می شود. مسافران بخار می کنند. متأسفانه موارد زیادی از مسافران وجود داشته است که اجازه می‌دهند این ناراحتی‌ها فوران کنند، و ما فیلم‌های ویروسی بسیار زیادی از درگیری‌های سر به سر و گاهی اوقات مشت‌های مشت‌زنی دیده‌ایم.

به ندرت در مورد اختلافات بین خلبان و کمک خلبان که ممکن است در کابین خلبان رخ دهد، یاد می گیریم.

این کاملاً تعجب آور است.

در واقع، ما به طور طبیعی متحیر می شویم که فکر کنیم خلبان و کمک خلبان در هر مرحله از پرواز ظاهراً اختلاف نظر جدی دارند. اگر اختلاف نظر مربوط به این باشد که کدام مارک قهوه بهترین است، فرض ما این است که این امر در تلاش کاری که مستلزم پرواز با هواپیما است دخالت نخواهد کرد. این دو به سادگی از عدم برخورد چشم به چشم خود در مورد موضوعی به ظاهر بی ربط دوری می کنند. رفتار حرفه ای و آموزش طولانی مدت خلبانی آنها شروع می شود و آنها تمرکز خود را بر روی جزئیات پرواز متمرکز می کنند.

هر چند زمانی را در نظر بگیرید که الف اختلاف نظر حرفه ای مداخله می کند

من قصد دارم به طور خلاصه خبری را که به طور گسترده در مورد یک نمونه اخیر از اتفاقی که در طول پرواز در ایالات متحده رخ داده است و مربوط به یک اختلاف نظر حرفه ای ادعا شده در کابین خلبان است، با شما به اشتراک بگذارم.

این عمدتاً در اینجا ذکر شده است تا بتوانیم یک موضوع مرتبط را که برای ظهور هوش مصنوعی (AI) اهمیت زیادی دارد، بررسی کنیم. ببینید، می‌توانیم بگوییم که باید بگوییم اختلاف حرفه‌ای بین انسان‌ها نه فقط در یک اختلاف انسان به انسان، بلکه می‌توانیم چیزی مشابه در میان پذیرش هوش مصنوعی و در نتیجه اختلافات حرفه‌ای انسان در مقابل هوش مصنوعی رخ دهد. . همه انواع ملاحظات اخلاقی هوش مصنوعی مطرح می شوند. برای پوشش گسترده و مداوم من در مورد اخلاق هوش مصنوعی و مسائل اخلاقی هوش مصنوعی، نگاه کنید پیوند اینجا و پیوند اینجا, فقط به نام چند.

خود را برای یک داستان جذاب آماده کنید.

همانطور که اخیراً در اخبار گزارش شده است، ظاهراً یک مورد "اختلاف حرفه ای" در طی یک پرواز هواپیمایی آلاسکا که از واشنگتن به سانفرانسیسکو می رفت به وجود آمد. بر اساس اخبار منتشر شده، پرواز از گیت دور شده بود و روی آسفالت منتظر مجوز تاکسی و پرواز بود. طوفانی در راه بود و منجر به تاخیر بیش از یک ساعت و نیم پرواز شد. معلوم شد که هواپیما در نهایت چرخید و به سمت دروازه برگشت، که برخی از مسافران معمولاً تصور می‌کردند که صرفاً یک اقدام احتیاطی مرتبط با طوفان است.

در توییت‌های مختلف، به نظر می‌رسد که خلبان و کمک خلبان در طول مدت حضورشان در کابین خلبان، نوعی خصومت دور از دید داشته‌اند و به نوعی به این نتیجه رسیده‌اند که محتاطانه‌ترین رویکرد، پاک کردن پرواز و بازگشت به ترمینال خواهد بود. . توییت‌ها حاکی از آن بود که کاپیتان و افسر اول ظاهراً نمی‌توانند با یکدیگر کنار بیایند. شرکت هواپیمایی بعداً بیانیه ای صادر کرد که وضعیت تاسف بار بود (وضعیت به خودی خود به صراحت بیان یا توضیح داده نشد)، دو افسر پرواز توسط مدیریت ارزیابی شدند و مناسب برای پرواز تشخیص داده شدند، خدمه تعویض شدند و پرواز در نهایت انجام شد. و بعداً به سانفرانسیسکو رسید.

به یک معنا، اگر در واقع خلبان و کمک خلبان یک اختلاف نظر حرفه ای داشتند، مانند اینکه آیا هواپیما به طور مناسب برای پرواز آماده است یا اینکه آیا خطر پرواز در میان طوفان در محدوده ایمنی مناسب است، آن مسافران باید راحت شوند و ممنون که هواپیما به دروازه بازگردانده شد. ایمن بودن بهتر از متاسف بودن داشتن یک تاخیر اضافی ارزش کاهش احتمالی خطرات مرتبط با یک سفر ناهموار یا نامطلوب پرواز را دارد.

برخی از افراد ممکن است تعجب کنند که چنین اختلاف نظر حرفه ای ممکن است ایجاد شود.

شاید تصور نادرستی داشته باشیم که همه چیزهایی که در کابین خلبان اتفاق می‌افتد کاملاً دقیق و به خوبی نوشته شده است. به نظر می رسد که تمام اشکال اختیار انسان از این روند حذف شده است. بر اساس نمودارهای دقیق و کاملاً محاسبه شده، پرواز یا ادامه دارد یا خیر. وقتی تصور می شود که کل کیت و کیت بر اساس محاسبات غیرقابل انکار حقایق و ارقام استوار است، هیچ اختلاف نظری وجود ندارد.

این حقیقت کامل ماجرا نیست. مطمئناً تعداد زیادی پروتکل و انواع کنترل ها و تعادل ها وجود دارد، اما این همه ذره ای از قضاوت انسان را از بین نمی برد. خلبانان و کمک خلبانان هنوز قضاوت انسانی را اعمال می کنند. خوشبختانه، این قضاوت انسانی با سالها پرواز انجام می شود. این احتمال وجود دارد که خلبان و کمک خلبان در یک هواپیمای مسافربری تجاری تجربه پرواز قبلی را داشته باشند و به راحتی از استدلال و قضاوت عمیق چندین ساله خود در ارتباط با حضور در کنترل پرواز استفاده کنند.

با توجه به نقش قابل توجه قضاوت انسان، ممکن است به طور منطقی پیش بینی کنیم که خلبان و کمک خلبان گاهی اوقات با هم اختلاف نظرهای حرفه ای دارند. اغلب اوقات، احتمالاً چنین اختلاف نظر بسیار کمی وجود دارد. احتمالاً خلبان و کمک خلبان برای پروازهای روزانه به خوبی با غلبه زمان هماهنگ هستند. تنها زمانی که یک سناریوی پرواز ممکن است خارج از محدوده‌های معمولی باشد، انتظار داریم اصطکاک شدیدتری ایجاد شود.

اگر اختلاف نظر شدیدی بین این دو وجود داشته باشد، به جرات می‌توانم بگویم که می‌خواهیم آن‌ها را هش کنند.

موقعیتی را تصور کنید که در آن خلبان به شدت می خواهد ادامه دهد اما کمک خلبان متوجه می شود که خطرات بسیار زیاد است. صرف خم شدن خلبان به خلبان نامطلوب به نظر می رسد. کمک خلبان یک کنترل و تعادل برای آنچه که یک خلبان ممکن است به انجام آن فکر کند است. برای کسانی که می‌خواهند یک کمک خلبان ببندد و صرفاً به هر چیزی که خلبان دستور می‌دهد بدون فکر عمل کند، خوب، این اطمینان چندانی نیست. خلبان صرفاً یک «خلبان» یدکی نیست که تنها زمانی وارد تصویر شود که خلبان کاملاً ناتوان باشد. این یک درک نادرست از ارزش وجود خلبان و کمک خلبان در کابین است.

زاویه دیگری نیز در این مورد وجود دارد.

مورد خلبانی را در نظر بگیرید که معتقد نیست پرواز باید ادامه یابد و در همین حین خلبان در مورد بلند شدن در هوا گنگ هو است. بعدش چی شد؟ طبق سلسله مراتب مورد انتظار، قرار است خلبان به طور متعارف بر خلبان غالب باشد. نقش تعیین شده به عنوان مسئول اصلی، خلبان را از آنچه در غیر این صورت تا حدودی برابر است، بیشتر می کند. به طور معمول، خلبان دارای چاشنی کلی زمان پرواز بیشتری نسبت به کمک خلبان است و به این ترتیب خلبان به طور سلسله مراتبی قرار است به خواسته های خلبان (در صورت منطقی بودن) توجه کند.

در هر صورت، فکر می‌کنم همه ما می‌توانیم موافق باشیم که انتخاب نکردن پرواز مطمئناً یک انتخاب کم خطرتر از تصمیم به پرواز است. هنگامی که هواپیما در هوا است، سطح خطر در مقایسه با هر زمین ثابت معمولی بسیار زیاد می شود. یک پرواز تجاری مرسوم که به سادگی به ترمینال برمی گردد بدون اینکه به هوا برود، یک راه حل بسیار دوستانه برای هر بحث تند تند در مورد پرواز است.

بیایید دنده ها را عوض کنیم و از این خبر تند و تیز برای هدفی کاملاً متفاوت اما مرتبط استفاده کنیم.

ما به تدریج در میان خود شاهد شیوع سیستم های خودمختار مبتنی بر هوش مصنوعی هستیم. گاهی اوقات هوش مصنوعی نمایش را اجرا می کند. هوش مصنوعی همه چیز را از A تا Z انجام می دهد، و ما ممکن است این را به عنوان هوش مصنوعی کاملاً مستقل یا تقریباً مستقل در نظر بگیریم. در موارد دیگر، ما می‌توانیم هوش مصنوعی داشته باشیم که با آن تعامل داشته باشد و تا حدی به گونه‌ای برنامه‌ریزی شده است که به داشتن یک انسان در حلقه متکی باشد.

من مایلم روی موضوع یک سیستم خودمختار یا نیمه خودمختار مبتنی بر هوش مصنوعی تمرکز کنم که از همان ابتدا یک انسان در حلقه است. هوش مصنوعی و انسان عمداً در کنار هم قرار گرفته اند و قرار است پشت سر هم با یکدیگر کار کنند. آنها گروه هایی هستند که در انجام یک کار خاص در دست هستند. قرار نیست هوش مصنوعی به تنهایی به این وظیفه عمل کند. هوش مصنوعی باید با انسان تعیین شده در حلقه تعامل داشته باشد.

من این خصوصیات را مطرح می کنم تا از موقعیت هایی که انسان در حلقه یک جنبه اختیاری در نظر گرفته می شود متمایز شود. در اصل، هوش مصنوعی اختیار آزاد دارد. اگر هوش مصنوعی تصمیم گرفت از انسان استفاده کند، پس باید این کار را انجام دهد. هیچ الزامی وجود ندارد که هوش مصنوعی با انسان تعیین‌شده تماس داشته باشد یا دست در دست او کار کند. تحلیل‌هایی که من می‌خواهم بیان کنم، قطعاً به این نوع مربوط می‌شوند اختیاری ترتیب تعامل، اما این چیزی نیست که من به طور خاص در این بحث خاص دنبالش هستم.

خوب، پس ما نوعی وظیفه داریم که یک انسان و یک هوش مصنوعی قرار است با هم کار کنند، جدایی ناپذیر از یکدیگر. در یک مفهوم انتزاعی، ما انسانی را داریم که در یک صندلی نشسته است و یک سیستم هوش مصنوعی در صندلی دیگر همراه نشسته است. من این را گستاخانه می گویم زیرا ما این بحث را به رباتی محدود نمی کنیم که در واقع ممکن است روی صندلی نشسته باشد. من به طور استعاری به این مفهوم اشاره می کنم که هوش مصنوعی در جایی در کار مشارکت دارد و انسان نیز همین طور. از نظر فیزیکی، محل نگهداری آنها برای بحث بسیار حیاتی نیست.

ممکن است مطمئن نباشید که چه زمانی ممکن است چنین شرایطی ایجاد شود.

آسان هلال

من بعداً در مورد ظهور وسایل نقلیه خودران و خودروهای خودران بحث خواهم کرد. در سطوح مشخصی از خودمختاری، هوش مصنوعی و انسان قرار است با هم کار کنند. هوش مصنوعی ممکن است در حال رانندگی ماشین باشد و از انسان بخواهد که کنترل های رانندگی را به دست بگیرد. ممکن است انسان در حال رانندگی ماشین باشد و هوش مصنوعی را فعال کند تا کنترل‌ها را به دست بگیرد. آنها به نوبت در کنترل های رانندگی هستند.

علاوه بر این، برخی از طراحی‌ها اساساً هوش مصنوعی را همیشه فعال می‌کنند (یا، مگر اینکه خاموش باشند)، به طوری که هوش مصنوعی همیشه آماده است. علاوه بر این، هوش مصنوعی ممکن است به طور مستقیم، حتی بدون درخواست انسان، بسته به موقعیتی که در حال آشکار شدن است، مداخله کند. برای مثال فرض کنید که انسان به نظر می رسد پشت فرمان به خواب رفته است. از آنجایی که انسان به ظاهر نمی تواند هوش مصنوعی را فعال کند (به دلیل خوابیدن فرد)، ممکن است هوش مصنوعی طوری برنامه ریزی شود که کنترل ها را از انسان بگیرد.

برخی از طراحی‌ها هوش مصنوعی و انسان‌ها را وارد رویکرد رانندگی دوگانه می‌کنند. هوش مصنوعی رانندگی می کند و انسان رانندگی می کند. یا اگر ترجیح می دهید، انسان در حال رانندگی است و هوش مصنوعی نیز در حال رانندگی است. هر کدام در حال رانندگی خودرو هستند. من این را به آن ماشین‌هایی تشبیه می‌کنم که احتمالاً هنگام آموزش رانندگی از آنها استفاده می‌کردید و دو مجموعه کنترل رانندگی در وسیله نقلیه وجود داشت، یکی برای راننده دانش‌آموز و دیگری برای مربی رانندگی.

این تنها نمونه ای از محیطی است که در آن هوش مصنوعی و انسان ها ممکن است به طور مشترک روی یک کار کار کنند. همه نوع احتمالات وجود دارد. انواع دیگری از وسایل نقلیه خودمختار نیز ممکن است به طور مشابه ابداع شوند، مانند هواپیماها، هواپیماهای بدون سرنشین، شناورهای زیردریایی، کشتی‌های سطحی، قطارها و غیره. ما مجبور نیستیم فقط تنظیمات وسیله نقلیه و حمل و نقل را در نظر بگیریم. حوزه پزشکی و جراحی هایی را که به طور مشترک توسط یک پزشک پزشکی و یک سیستم هوش مصنوعی انجام می شود، تصور کنید. لیست بی پایان است.

من تقریباً احساس می کنم به شوخی کلاسیک پر سر و صدا در مورد یک انسان و یک هوش مصنوعی که با هم وارد یک میخانه می شوند اشاره کنم. برای کسانی که به هوش مصنوعی علاقه دارند خنده دارد.

به طور جدی، بیایید به تمرکز یک انسان و یک سیستم هوش مصنوعی برگردیم که با هم روی یک کار مشخص کار می کنند. اول، من می‌خواهم از انسان‌سازی هوش مصنوعی اجتناب کنم، چیزی که در سراسر آن بر آن تاکید خواهم کرد. هوش مصنوعی حساس نیست. لطفا اون رو به خاطر بسپار.

در اینجا چیزی برای تفکر وجود دارد: آیا یک انسان-در-حلقه تعیین شده همیشه با هوش مصنوعی هم تیمی موافق است؟

برای هر کار پیچیده، بعید به نظر می رسد که انسان و هوش مصنوعی به طور کامل و همیشه به طور کامل در قفل و قدم باشند. انسان در برخی موارد احتمالاً با هوش مصنوعی مخالف است. می‌توانیم این فرض را به بانک برسانیم.

مایلم این احتمال شگفت انگیز را نیز در نظر بگیرید: آیا هوش مصنوعی همیشه با یک انسان در حلقه تعیین شده مطابقت کامل خواهد داشت؟

باز هم، برای هر کار پیچیده ای، کاملاً قابل تصور به نظر می رسد که هوش مصنوعی در برخی موارد با انسان همخوانی نداشته باشد. اگر در حال حاضر به این ایده تمایل دارید که هوش مصنوعی همیشه باید اشتباه باشد در حالی که انسان ها باید همیشه حق داشته باشند، عاقلانه است که در این نتیجه گیری عجولانه تجدید نظر کنید. خودرویی را تصور کنید که انسان و هوش مصنوعی به طور مشترک این وسیله نقلیه نیمه خودران را رانندگی می کنند. انسان به سمت یک دیوار آجری هدایت می شود. چرا؟ ما نمی دانیم، شاید انسان مست است یا به خواب رفته است، اما می دانیم که برخورد با دیوار آجری ایده خوبی نیست، همه چیز برابر است. هوش مصنوعی ممکن است فاجعه آتی را تشخیص دهد و به دنبال دور شدن از سد قریب الوقوع باشد.

در مجموع، ما احتمال متمایز اختلاف هوش مصنوعی و انسان با یکدیگر را خواهیم داشت. راه دیگر برای گفتن همین موضوع این است که انسان و هوش مصنوعی با یکدیگر اختلاف نظر دارند توجه داشته باشید که من نمی‌خواهم توالی AI-and-human در مقابل انسان و AI چیزی در مورد جهت یا معقول بودن اختلاف نشان دهد.

این دو کارگر، یکی انسان و دیگری هوش مصنوعی، با یکدیگر اختلاف نظر دارند.

ما می‌توانیم پیشاپیش اعلام کنیم که هر زمان که بین یک هوش مصنوعی و یک انسان معین اختلاف نظر وجود داشته باشد، از قبل اعلام می‌کنیم که انسان بر هوش مصنوعی غلبه دارد. همانطور که گفته شد، به نظر می رسد مثال گویا من در مورد ماشینی که به سمت دیوار آجری می رود، ما را منصرف می کند که همیشه حق با انسان است.

در مقابل، می‌توانیم پیشاپیش اعلام کنیم که هرگاه اختلاف نظری پیش آمد، از قبل ثابت کرده باشیم که هوش مصنوعی درست است و انسان اشتباه می‌کند. این نیز یک شرط معقول قابل تعمیم نیست. خودرویی را تصور کنید که در آن هوش مصنوعی خطا یا باگ نرم‌افزاری تعبیه‌شده دارد و هوش مصنوعی سعی می‌کند خودرو را از جاده خارج کرده و به داخل یک گودال هدایت کند. با فرض اینکه همه چیز برابر است، انسان باید بتواند بر این حرکت رانندگی با هوش مصنوعی غلبه کند و از فرود خودرو در خندق جلوگیری کند.

بیایید یک خلاصه سریع از این کار انجام دهیم:

  • آیا انسان در حلقه همیشه با هوش مصنوعی موافق است؟ پاسخ: شماره
  • آیا هوش مصنوعی همیشه با یک انسان در حلقه موافق خواهد بود؟ پاسخ: نه.
  • آیا یک انسان در حلقه در مقایسه با هوش مصنوعی همیشه درست خواهد بود؟ پاسخ: لازم نیست.
  • آیا هوش مصنوعی در مقایسه با انسان در حلقه همیشه درست خواهد بود؟ پاسخ: نه لزوما.

مطمئناً می‌توانید هوش مصنوعی را طوری تنظیم کنید که به‌طور پیش‌فرض به‌عنوان طرف «اشتباه» یا ضعیف‌تر در نظر گرفته شود و بنابراین همیشه هر زمان که اختلاف نظر ظاهر شد، آن را به انسان موکول کنید. به همین ترتیب، می‌توانید هوش مصنوعی را طوری تنظیم کنید که هر زمان که انسانی با هوش مصنوعی مخالف باشد، هوش مصنوعی «درست» در نظر گرفته می‌شود. من می خواهم روشن کنم که اگر بخواهیم این کار را به صورت برنامه ای انجام دهیم. من ادعا می کنم که به طور کلی، همیشه اینطور نیست. مطمئناً تنظیماتی وجود دارد که در آنها ما از قبل نمی دانیم که آیا هوش مصنوعی "درست" است یا انسان "درست" از نظر انتخاب یکی یا دیگری در مورد اختلاف نظر مربوط به یک وظیفه معین.

من شما را به یک سوال بسیار مهم و بسیار پیچیده هدایت کردم.

وقتی یک اختلاف نظر حرفه ای بین انسان در حلقه و هوش مصنوعی رخ می دهد (یا به طور معادل، می توانیم این را به عنوان وجود بین هوش مصنوعی و انسان در حلقه بیان کنیم) چه باید بکنیم؟

سعی نکنید از سوال طفره بروید.

برخی ممکن است استدلال کنند که این هرگز اتفاق نخواهد افتاد، اما همانطور که در مثال خود در مورد ماشین بیان کردم، مطمئناً ممکن است اتفاق بیفتد. برخی ممکن است استدلال کنند که یک انسان به وضوح برتر است و باید برنده هر گونه اختلاف باشد. مثال من از ماشین و دیوار آجری آن یکی را خراب می کند. طرفداران هوش مصنوعی وجود دارند که ممکن است اصرار داشته باشند که هوش مصنوعی باید برنده باشد، به دلیل اینکه ظاهراً بر احساسات انسانی غلبه می کند و تفکر ناخواسته توسط آن انسان های تصادفی دارای تفکر فازی. یک بار دیگر، مثال دیگر من که منجر به حرکت ماشین به داخل خندق می شود، این ادعا را تضعیف می کند.

در دنیای واقعی، هوش مصنوعی و انسان‌ها با هم اختلاف نظر دارند، حتی زمانی که این دو عمداً در یک موقعیت تیمی قرار می‌گیرند تا یک وظیفه مشترک را انجام دهند. اتفاق خواهد افتاد. ما نمی توانیم سرمان را در شن بگذاریم و وانمود کنیم که این اتفاق نخواهد افتاد.

دیدیم که انسان های خلبان هواپیما ظاهراً با هم اختلاف پیدا کردند. خوشبختانه، آنها با مخالفت موافقت کردند، بنابراین به نظر می رسد. آنها هواپیما را به ترمینال برگرداندند. آنها ابزاری برای مقابله با اختلاف نظر پیدا کردند. حل اختلاف آنها به خوبی جواب داد، در مقایسه با اینکه شاید آنها در کابین خلبان مشت زده بودند یا شاید به هوا پرواز می کردند و به جنگیدن با یکدیگر ادامه می دادند. این یک سناریوی غم انگیز است که غیرقابل دفاع است و ما می توانیم شکرگزار باشیم که رخ نداده است.

به من اجازه دهید فهرست راه‌های مختلفی را ارائه دهم که از طریق آنها ممکن است اختلاف نظرهای هوش مصنوعی و انسان در حلقه (یا انسان در حلقه و هوش مصنوعی) حل شود:

  • هوش مصنوعی و انسان های گروهی کارها را انجام می دهند (دوستانه یا غیر دوستانه)
  • انسان به طور پیش فرض بر هوش مصنوعی غلبه دارد
  • هوش مصنوعی به طور پیش فرض بر انسان غالب است
  • برخی دیگر از وضوح‌های ثابت از پیش تعیین‌شده، به‌طور پیش‌فرض غالب هستند
  • انسان شخص ثالث حلقه ای است و نشانه آنها بر طرفین غالب است
  • هوش مصنوعی شخص ثالث حلقه ای است و نشانه آن بر طرفین برتری دارد
  • انسان شخص ثالث جایگزین انسان موجود می شود، همه چیز از نو پیش می رود
  • هوش مصنوعی شخص ثالث جایگزین هوش مصنوعی موجود می شود، همه چیز دوباره پیش می رود
  • انسان شخص ثالث جایگزین هوش مصنوعی موجود می شود، همه چیز دوباره پیش می رود (اکنون انسان به انسان)
  • هوش مصنوعی شخص ثالث جایگزین انسان موجود می شود، همه چیز دوباره پیش می رود (اکنون هوش مصنوعی به هوش مصنوعی)
  • دیگر

اینها به وفور ارزش بازکردن را دارند.

قبل از پرداختن به گوشت و سیب زمینی بیشتر در مورد ملاحظات وحشی و پشمالو که زمینه ساز نحوه برخورد با هوش مصنوعی و اختلافات انسانی است، اجازه دهید برخی اصول اضافی را در مورد موضوعات بسیار ضروری بیان کنیم. ما باید به طور مختصر به اخلاق هوش مصنوعی و به ویژه ظهور یادگیری ماشینی (ML) و یادگیری عمیق (DL) نگاهی بیاندازیم.

ممکن است به طور مبهم آگاه باشید که یکی از بلندترین صداها این روزها در زمینه هوش مصنوعی و حتی خارج از حوزه هوش مصنوعی، فریاد زدن برای ظاهری بیشتر از هوش مصنوعی اخلاقی است. بیایید نگاهی به معنای ارجاع به اخلاق هوش مصنوعی و هوش مصنوعی اخلاقی بیندازیم. علاوه بر این، وقتی از یادگیری ماشینی و یادگیری عمیق صحبت می‌کنم، منظورم را بررسی خواهیم کرد.

یک بخش یا بخش خاصی از اخلاق هوش مصنوعی که توجه رسانه ها را به خود جلب کرده است شامل هوش مصنوعی است که سوگیری ها و نابرابری های نامناسبی را نشان می دهد. ممکن است بدانید که زمانی که آخرین دوره هوش مصنوعی آغاز شد، شور و شوق زیادی برای آنچه که اکنون برخی می‌گویند وجود داشت. هوش مصنوعی برای خوب. متأسفانه، در پاشنه آن هیجان فوران، ما شروع به مشاهده کردیم هوش مصنوعی برای بد. برای مثال، سیستم‌های مختلف تشخیص چهره مبتنی بر هوش مصنوعی حاوی سوگیری‌های نژادی و سوگیری‌های جنسیتی هستند که من در مورد آن بحث کرده‌ام. پیوند اینجا.

تلاش برای مبارزه با هوش مصنوعی برای بد به طور فعال در حال انجام هستند. علاوه بر پر سر و صدا حقوقی تلاش برای مهار تخلفات، همچنین فشار اساسی به سمت پذیرش اخلاق هوش مصنوعی برای اصلاح شرارت هوش مصنوعی وجود دارد. تصور این است که ما باید اصول کلیدی هوش مصنوعی اخلاقی را برای توسعه و توسعه هوش مصنوعی اتخاذ و تأیید کنیم تا این کار را کاهش دهیم. هوش مصنوعی برای بد و به طور همزمان منادی و ترویج مرجح هوش مصنوعی برای خوب.

در یک مفهوم مرتبط، من طرفدار تلاش برای استفاده از هوش مصنوعی به عنوان بخشی از راه حل مشکلات هوش مصنوعی هستم، و با این شیوه تفکر با آتش مبارزه می کنم. برای مثال، ممکن است اجزای هوش مصنوعی اخلاقی را در یک سیستم هوش مصنوعی تعبیه کنیم که بر نحوه انجام بقیه هوش مصنوعی نظارت می‌کند و بنابراین به طور بالقوه در زمان واقعی هرگونه تلاش تبعیض آمیز را جلب می‌کند. پیوند اینجا. ما همچنین می‌توانیم یک سیستم هوش مصنوعی جداگانه داشته باشیم که به عنوان نوعی مانیتور اخلاق هوش مصنوعی عمل می‌کند. سیستم هوش مصنوعی به عنوان یک ناظر برای ردیابی و تشخیص اینکه چه زمانی هوش مصنوعی دیگر به ورطه غیراخلاقی می رود عمل می کند (تحلیل من از چنین قابلیت هایی را در اینجا ببینید. پیوند اینجا).

در یک لحظه، من برخی از اصول کلی زیربنای اخلاق هوش مصنوعی را با شما به اشتراک خواهم گذاشت. تعداد زیادی از این نوع لیست ها اینجا و آنجا شناور هستند. می توان گفت که هنوز فهرست منحصر به فردی از جذابیت و توافق جهانی وجود ندارد. این خبر تاسف بار است. خبر خوب این است که حداقل لیست‌های اخلاقی هوش مصنوعی وجود دارد که کاملاً مشابه هستند. در مجموع، این نشان می‌دهد که با نوعی همگرایی مستدل، راه خود را به سوی یک اشتراک کلی از آنچه اخلاق هوش مصنوعی تشکیل می‌دهد، پیدا می‌کنیم.

ابتدا، اجازه دهید به طور مختصر برخی از قوانین کلی اخلاقی هوش مصنوعی را پوشش دهیم تا نشان دهیم چه چیزی باید برای هر کسی که در حال ساخت، ساخت و یا استفاده از هوش مصنوعی است، اهمیت حیاتی داشته باشد.

به عنوان مثال، همانطور که توسط واتیکان در فراخوان رم برای اخلاق هوش مصنوعی و همانطور که به طور عمیق به آن پرداخته ام پیوند اینجا، این شش اصل اصلی اخلاق هوش مصنوعی شناسایی شده آنها است:

  • شفافیت: در اصل، سیستم های هوش مصنوعی باید قابل توضیح باشند
  • نقص: نیازهای همه انسانها باید مورد توجه قرار گیرد تا همه بتوانند از آن بهره ببرند و بهترین شرایط ممکن برای ابراز وجود و پیشرفت به همه افراد ارائه شود.
  • مسئوليت: کسانی که استفاده از هوش مصنوعی را طراحی و اجرا می کنند باید با مسئولیت و شفافیت پیش بروند
  • بی طرفی: از ایجاد و یا عمل بر اساس تعصب، در نتیجه حفظ انصاف و کرامت انسانی
  • قابلیت اطمینان: سیستم های هوش مصنوعی باید بتوانند به طور قابل اعتماد کار کنند
  • امنیت و حریم خصوصی: سیستم های هوش مصنوعی باید ایمن کار کنند و به حریم خصوصی کاربران احترام بگذارند.

همانطور که توسط وزارت دفاع ایالات متحده (DoD) در آنها بیان شده است اصول اخلاقی برای استفاده از هوش مصنوعی و همانطور که به طور عمیق به آن پرداخته ام پیوند اینجا، این شش اصل اصلی اخلاق هوش مصنوعی آنهاست:

  • مسئول: پرسنل وزارت دفاع سطوح مناسبی از قضاوت و مراقبت را اعمال خواهند کرد و در عین حال مسئولیت توسعه، استقرار و استفاده از قابلیت‌های هوش مصنوعی را بر عهده خواهند داشت.
  • منصفانه: این وزارتخانه اقدامات عمدی را برای به حداقل رساندن سوگیری ناخواسته در قابلیت‌های هوش مصنوعی انجام خواهد داد.
  • قابل ردیابی: قابلیت‌های هوش مصنوعی این وزارتخانه به گونه‌ای توسعه و مستقر خواهد شد که پرسنل مربوطه درک مناسبی از فناوری، فرآیندهای توسعه، و روش‌های عملیاتی قابل اجرا برای قابلیت‌های هوش مصنوعی، از جمله روش‌شناسی شفاف و قابل ممیزی، منابع داده‌ها، روش‌ها و مستندات طراحی داشته باشند.
  • قابل اعتماد: قابلیت‌های هوش مصنوعی این وزارتخانه کاربردهای مشخص و مشخصی خواهند داشت، و ایمنی، امنیت و اثربخشی چنین قابلیت‌هایی مشمول آزمایش و اطمینان در آن کاربردهای تعریف‌شده در کل چرخه عمر آن‌ها خواهد بود.
  • قابل اداره: این وزارتخانه قابلیت‌های هوش مصنوعی را طراحی و مهندسی می‌کند تا عملکردهای مورد نظر خود را انجام دهد، در حالی که توانایی شناسایی و اجتناب از پیامدهای ناخواسته را دارد، و توانایی جدا کردن یا غیرفعال کردن سیستم‌های مستقری که رفتار ناخواسته را نشان می‌دهند.

من همچنین در مورد تجزیه و تحلیل‌های جمعی مختلف از اصول اخلاق هوش مصنوعی بحث کرده‌ام، از جمله پوشش مجموعه‌ای ابداع شده توسط محققان که ماهیت بسیاری از اصول اخلاقی هوش مصنوعی ملی و بین‌المللی را در مقاله‌ای تحت عنوان «چشم‌انداز جهانی دستورالعمل‌های اخلاق هوش مصنوعی» (منتشر شده) بررسی و فشرده کرده است. که در طبیعت) و پوشش من در آن بررسی می شود پیوند اینجا، که منجر به این لیست کلیدی شد:

  • شفافیت
  • عدالت و انصاف
  • عدم سوء استفاده
  • مسئوليت
  • حریم خصوصی
  • سود رسانی
  • آزادی و خودمختاری
  • اعتماد
  • پایداری
  • کرامت
  • اتحاد

همانطور که ممکن است مستقیماً حدس بزنید، تلاش برای مشخص کردن جزئیات زیربنای این اصول می تواند بسیار سخت باشد. حتی بیشتر از آن، تلاش برای تبدیل این اصول گسترده به چیزی کاملاً ملموس و با جزئیات کافی برای استفاده در هنگام ساخت سیستم‌های هوش مصنوعی نیز یک مهره سخت است. به طور کلی می توان در مورد اینکه اصول اخلاقی هوش مصنوعی چیست و چگونه باید به طور کلی آنها را رعایت کرد، دست تکان داد، در حالی که وضعیت بسیار پیچیده تر در کدنویسی هوش مصنوعی است که باید لاستیک واقعی باشد که با جاده مطابقت می کند.

اصول اخلاق هوش مصنوعی باید توسط توسعه دهندگان هوش مصنوعی، همراه با آنهایی که تلاش های توسعه هوش مصنوعی را مدیریت می کنند، و حتی آنهایی که در نهایت سیستم های هوش مصنوعی را انجام می دهند، مورد استفاده قرار گیرد. همه ذینفعان در طول چرخه عمر توسعه و استفاده هوش مصنوعی در محدوده رعایت هنجارهای تثبیت شده هوش مصنوعی اخلاقی در نظر گرفته می شوند. این نکته مهمی است زیرا فرض معمول این است که «فقط کدنویس‌ها» یا کسانی که هوش مصنوعی را برنامه‌ریزی می‌کنند، منوط به رعایت مفاهیم اخلاقی هوش مصنوعی هستند. همانطور که قبلاً گفته شد، برای ابداع و به کارگیری هوش مصنوعی به یک دهکده نیاز است، و برای آن کل دهکده باید به اصول اخلاقی هوش مصنوعی مسلط باشد و از آن پیروی کند.

بیایید همچنین مطمئن شویم که در مورد ماهیت هوش مصنوعی امروزی همسو هستیم.

امروزه هیچ هوش مصنوعی وجود ندارد که حساس باشد. ما این را نداریم ما نمی دانیم که آیا هوش مصنوعی ممکن خواهد بود یا خیر. هیچ کس نمی تواند به درستی پیش بینی کند که آیا ما به هوش مصنوعی خواهیم رسید یا خیر، یا اینکه آیا هوش مصنوعی به طور معجزه آسایی به شکلی از ابرنواختر شناختی محاسباتی پدید خواهد آمد (که معمولاً به عنوان تکینگی شناخته می شود، پوشش من را در اینجا ببینید. پیوند اینجا).

نوع هوش مصنوعی که من روی آن تمرکز می کنم شامل هوش مصنوعی غیر حساسی است که امروز داریم. اگر بخواهیم به شدت در مورد آن حدس بزنیم با احساس هوش مصنوعی، این بحث می تواند در جهتی کاملاً متفاوت پیش رود. ظاهراً یک هوش مصنوعی با کیفیت انسانی خواهد بود. شما باید در نظر داشته باشید که هوش مصنوعی حسی معادل شناختی یک انسان است. علاوه بر این، از آنجایی که برخی گمانه زنی می کنند که ممکن است هوش مصنوعی فوق هوشمند داشته باشیم، می توان تصور کرد که چنین هوش مصنوعی می تواند در نهایت از انسان ها باهوش تر باشد (برای کاوش من در مورد هوش مصنوعی فوق هوشمند به عنوان یک احتمال، نگاه کنید به پوشش در اینجا).

بیایید همه چیز را روی زمین نگه داریم و هوش مصنوعی محاسباتی غیر حساس امروزی را در نظر بگیریم.

درک کنید که هوش مصنوعی امروزی قادر به «فکر کردن» به هیچ شکلی با تفکر انسان نیست. وقتی با الکسا یا سیری تعامل می کنید، ظرفیت های مکالمه ممکن است شبیه ظرفیت های انسانی به نظر برسد، اما واقعیت این است که محاسباتی است و فاقد شناخت انسانی است. آخرین دوره هوش مصنوعی از یادگیری ماشینی (ML) و یادگیری عمیق (DL) استفاده گسترده ای کرده است که از تطابق الگوی محاسباتی استفاده می کند. این منجر به سیستم‌های هوش مصنوعی شده است که ظاهری شبیه به تمایلات انسان دارند. در همین حال، هیچ هوش مصنوعی امروزی وجود ندارد که شباهتی به عقل سلیم داشته باشد و هیچ یک از شگفتی‌های شناختی تفکر قوی انسانی را نداشته باشد.

ML/DL نوعی تطبیق الگوی محاسباتی است. روش معمول این است که شما داده ها را در مورد یک کار تصمیم گیری جمع آوری می کنید. داده ها را به مدل های کامپیوتری ML/DL وارد می کنید. آن مدل ها به دنبال یافتن الگوهای ریاضی هستند. پس از یافتن چنین الگوهایی، در صورت یافتن، سیستم هوش مصنوعی در هنگام مواجهه با داده های جدید از آن الگوها استفاده خواهد کرد. پس از ارائه داده های جدید، الگوهای مبتنی بر داده های "قدیمی" یا تاریخی برای ارائه یک تصمیم فعلی استفاده می شود.

من فکر می کنم می توانید حدس بزنید که این به کجا می رود. اگر انسان‌هایی که بر اساس تصمیم‌گیری‌های الگو گرفته شده‌اند، سوگیری‌های نامطلوب را در خود جای داده‌اند، احتمال این وجود دارد که داده‌ها این را به روش‌های ظریف اما قابل توجهی منعکس کنند. تطبیق الگوی محاسباتی یادگیری ماشینی یا یادگیری عمیق به سادگی سعی می‌کند تا داده‌ها را مطابق با ریاضی تقلید کند. هیچ شباهتی از عقل سلیم یا سایر جنبه های حساس مدل سازی ساخته شده با هوش مصنوعی به خودی خود وجود ندارد.

علاوه بر این، توسعه دهندگان هوش مصنوعی نیز ممکن است متوجه نباشند که چه اتفاقی در حال رخ دادن است. ریاضیات محرمانه در ML/DL ممکن است کشف سوگیری های پنهان در حال حاضر را دشوار کند. شما به حق امیدوارید و انتظار دارید که توسعه‌دهندگان هوش مصنوعی سوگیری‌های بالقوه مدفون را آزمایش کنند، اگرچه این دشوارتر از آن چیزی است که به نظر می‌رسد. این احتمال وجود دارد که حتی با آزمایش نسبتاً گسترده، سوگیری‌هایی همچنان در مدل‌های تطبیق الگوی ML/DL وجود داشته باشد.

می‌توانید تا حدودی از ضرب‌المثل معروف یا بدنام زباله‌های درون زباله‌ها استفاده کنید. مسئله این است که این بیشتر شبیه سوگیری‌هایی است که به‌طور موذیانه به‌عنوان سوگیری‌هایی که در هوش مصنوعی غوطه‌ور می‌شوند، القا می‌شوند. الگوریتم تصمیم‌گیری (ADM) هوش مصنوعی به طور اصولی مملو از نابرابری‌ها می‌شود.

خوب نیست.

بیایید به تمرکز خود بر روی اختلافات بین هوش مصنوعی و انسان برگردیم.

قبلاً اشاره کردم که اینها برخی از راهبردهای حل اختلاف هستند:

  • هوش مصنوعی و انسان های گروهی کارها را انجام می دهند (دوستانه یا غیر دوستانه)
  • انسان به طور پیش فرض بر هوش مصنوعی غلبه دارد
  • هوش مصنوعی به طور پیش فرض بر انسان غالب است
  • برخی دیگر از وضوح‌های ثابت از پیش تعیین‌شده، به‌طور پیش‌فرض غالب هستند
  • انسان شخص ثالث حلقه ای است و نشانه آنها بر طرفین غالب است
  • هوش مصنوعی شخص ثالث حلقه ای است و نشانه آن بر طرفین برتری دارد
  • انسان شخص ثالث جایگزین انسان موجود می شود، همه چیز از نو پیش می رود
  • هوش مصنوعی شخص ثالث جایگزین هوش مصنوعی موجود می شود، همه چیز دوباره پیش می رود
  • انسان شخص ثالث جایگزین هوش مصنوعی موجود می شود، همه چیز دوباره پیش می رود (اکنون انسان به انسان)
  • هوش مصنوعی شخص ثالث جایگزین انسان موجود می شود، همه چیز دوباره پیش می رود (اکنون هوش مصنوعی به هوش مصنوعی)
  • دیگر

وقت آن است که اینها را باز کنیم.

اول، در نظر بگیرید که این همه چیز است حرفه ای اختلاف نظرها

یک اختلاف نظر حرفه ای به عنوان یک اختلاف نظر مرتبط با یک کار مرتبط با کار تعریف می شود.

به عنوان مثال، اختلاف نظر بین خلبان و کمک خلبان در مورد ادامه پروازی که در معرض طوفان است یا خیر، می تواند به طور منطقی به عنوان یک اختلاف نظر حرفه ای برچسب گذاری شود. در مقابل، یک اختلاف شدید در مورد اینکه خلبان از کدام مارک قهوه دفاع می کند در مقابل برندی که خلبان ترجیح می دهد، به راحتی در این زمینه خاص به عنوان یک اختلاف غیرحرفه ای طبقه بندی می شود.

البته، اگر یک اختلاف غیرحرفه‌ای راه خود را به یک اختلاف نظر حرفه‌ای تبدیل کند، ممکن است در نهایت به اختلاف غیرحرفه‌ای به عنوان منبع فرضی یا جرقه‌ای برای حرفه‌ای علاقه مند باشیم. تصور کنید که یک خلبان و کمک خلبان به شدت در مورد اینکه کدام مارک قهوه بهترین است، بحث می کنند، که متأسفانه به نگرانی های خاص پرواز (جناس!) سرریز می شود، مانند اینکه آیا باید بلند شود یا نه.

دوم، ما باید بزرگی اختلافات حرفه ای را در نظر داشته باشیم.

شاید خلبان و کمک خلبان یا در مورد ادامه پرواز با یکدیگر اختلاف نظر داشته باشند. آنها با هم اختلاف ندارند و صرفاً در حال فکر کردن به مزایا و معایب این هستند که آیا برخاسته شوند یا خیر. این مقدار یا بزرگی یک اختلاف نظر حرفه ای نیست که ما معمولاً در اینجا در نظر می گیریم. مسئله این است که ممکن است این اختلاف نظر حرفه ای گذرا باشد و هر دو طرف صمیمانه یا حداقل به موقع به یک راه حل بپردازند. به طور کلی، تمرکز اختلافات حرفه ای در محدوده آن مواردی است که به ظاهر غیرقابل حل هستند و دو طرف به طور ثابت در اختلاف نظر باقی می مانند.

سوم، معمولاً باید چیزی به طور جدی در خط باشد تا این دستورالعمل ها وارد عمل شوند.

اگر پرواز به دلیل طوفان در خطر باشد یا هواپیما برای چنین سفری آمادگی کامل نداشته باشد، تصمیم گیری برای پرواز یا عدم پرواز یک تصمیم قطعی مرگ یا زندگی است. این یک تجارت جدی است. ما همچنان می‌توانیم دستورالعمل‌ها را برای اختلاف نظرهای حرفه‌ای کم‌تأثیرتر اعمال کنیم، اگرچه ممکن است بیشتر از ارزش آن آزاردهنده باشد.

خوب، ملاحظات ما این است که:

  • این اختلاف عمدتاً حرفه ای است نه بر سر چیزهای غیرحرفه ای
  • این اختلاف ماهیتی پایدار دارد و صرفاً گذرا یا به راحتی حل نمی شود
  • اختلاف نظر عواقب جدی را پیش‌بینی می‌کند و معمولاً نتیجه‌ای تأثیرگذار دارد
  • طرفین با هم اختلاف دارند و به نظر غیرقابل حل می رسند

بیایید اکنون نگاهی دقیق‌تر به هر یک از دستورالعمل‌ها یا رویکردهای پیشنهادی من در رابطه با نحوه کنار آمدن با چنین اختلافات حرفه‌ای بیندازیم.

هوش مصنوعی و انسان های گروهی کارها را انجام می دهند (دوستانه یا غیر دوستانه)

من فهرست را با این احتمال ساده شروع می کنم که هوش مصنوعی و انسان در حلقه قادر به حل اختلافات حرفه ای بین خودشان هستند. به نظر می رسد که شاید نمونه دو انسان، خلبان و کمک خلبان، گویای این نوع شرایط باشد. آنها به نوعی تصمیم گرفتند که به ترمینال برگردند و راه خود را بروند. ممکن است یک سیستم هوش مصنوعی و یک انسان بتوانند یک رویکرد حل و فصل را پیدا کنند که به طور کلی برای هر دو طرف رضایت بخش باشد و موضوع به طور رضایت بخش به نتیجه برسد.

انسان به طور پیش فرض بر هوش مصنوعی غلبه دارد

هنگام راه‌اندازی هوش مصنوعی، ممکن است قانونی را برنامه‌ریزی کنیم که می‌گوید انسان در حلقه همیشه هر زمان که اختلاف نظر حرفه‌ای ایجاد شود، غالب خواهد بود. این پیش‌فرض صراحتاً کدگذاری شده خواهد بود. ما همچنین ممکن است به نوعی از نادیده گرفتن اجازه دهیم، برای هر موردی، اگرچه قانون ثابت این است که انسان غالب است.

هوش مصنوعی به طور پیش فرض بر انسان غالب است

هنگام راه‌اندازی هوش مصنوعی، ممکن است قانونی را برنامه‌ریزی کنیم که می‌گوید هر زمان که اختلاف نظر حرفه‌ای ایجاد شود، هوش مصنوعی همیشه بر انسان در حلقه غالب خواهد بود. این پیش فرض صراحتاً کدگذاری شده است. ما همچنین ممکن است به نوعی از لغو اجازه دهیم، هر چند قانون ثابت این است که AI غالب است.

برخی دیگر از وضوح‌های ثابت از پیش تعیین‌شده، به‌طور پیش‌فرض غالب هستند

هنگام راه‌اندازی هوش مصنوعی، ممکن است قانونی را برنامه‌ریزی کنیم که می‌گوید هر زمان که یک اختلاف نظر حرفه‌ای با انسان در حلقه ایجاد شود، برخی وضوح‌های ثابت از پیش تعیین‌شده دیگر غالب خواهند بود. انسان در حلقه به طور پیش فرض غالب نیست. هوش مصنوعی به طور پیش فرض غالب نیست. یک قطعنامه از پیش شناسایی شده دیگر وجود دارد. به عنوان مثال، شاید پرتاب سکه ای وجود داشته باشد که برای تصمیم گیری در مورد اینکه کدام یک از دو طرف مسیر درستی در نظر گرفته می شود، مورد استفاده قرار گیرد. این بدیهی است که به نظر خودسرانه می رسد. بنابراین روش مثال دیگری می تواند این باشد که یک قانون تخصصی به این صورت است که یک مقدار را بر اساس ورودی های دو طرف محاسبه می کند و به عنوان یک تساوی به نتیجه می رسد.

انسان شخص ثالث حلقه ای است و نشانه آنها بر طرفین غالب است

در صورت اختلاف نظر حرفه ای، یک قاعده می تواند این باشد که شخص ثالثی که یک انسان است، فراخوانده می شود و برای تصمیم گیری در مورد حل و فصل اختلافات، وارد محیط می شود. هوش مصنوعی به گونه‌ای برنامه‌ریزی شده است که به هر چیزی که شخص ثالث تصمیم می‌گیرد، موکول شود. از قبل به انسان در حلقه انسان در حلقه آموزش داده شده است که اگر چنین وضعیتی پیش آمد، آنها نیز باید به انسان شخص ثالث موکول شوند. به‌عنوان کنار، احتمالاً می‌توانید پیش‌بینی کنید که انسان در حلقه ممکن است از پیوستن به هر چیزی که شخص ثالث تصمیم می‌گیرد، در صورتی که تصمیم با وضعیت انسان در حلقه مخالف باشد، اضطراب داشته باشد.

هوش مصنوعی شخص ثالث حلقه ای است و نشانه آن بر طرفین برتری دارد

در صورت اختلاف نظر حرفه ای، یک قاعده می تواند این باشد که شخص ثالثی که سیستم هوش مصنوعی متفاوتی دارد، فراخوانی شده و در تنظیمات حلقه زده شود تا در مورد حل اختلاف نظر تصمیم گیری کند. هوش مصنوعی اصلی طوری برنامه ریزی شده است که هر آنچه که هوش مصنوعی شخص ثالث تصمیم می گیرد، موکول شود. به انسان‌هایی که قبلاً در «انسان در حلقه» هستند، قبلاً آموزش داده شده است که در صورت بروز چنین وضعیتی، آنها نیز باید به هوش مصنوعی شخص ثالث موکول شوند. به‌عنوان کنار، احتمالاً می‌توانید پیش‌بینی کنید که انسان در حلقه ممکن است از پیوستن به هر آنچه که هوش مصنوعی شخص ثالث تصمیم می‌گیرد، در صورتی که تصمیم با وضعیت انسان در حلقه مخالف باشد، اضطراب داشته باشد.

انسان شخص ثالث جایگزین انسان موجود می شود، همه چیز از نو پیش می رود

در صورت اختلاف نظر حرفه ای، شخص ثالثی که انسان است جایگزین انسان در حلقه می شود و از این پس تبدیل به انسان در حلقه می شود. انسانی که انسان در حلقه اولیه برای این کار بود، دیگر بخشی از کار در دست در نظر گرفته نمی شود. این یک جنبه باز است که در غیر این صورت با انسان-در-حلقه جایگزین شده چه اتفاقی می افتد، اما ما می گوییم که مطمئناً آنها دیگر هیچ نقش مستمری در کار کاری ندارند.

هوش مصنوعی شخص ثالث جایگزین هوش مصنوعی موجود می شود، همه چیز دوباره پیش می رود

پس از یک اختلاف نظر حرفه ای، هوش مصنوعی با یک هوش مصنوعی شخص ثالث جایگزین می شود و از این پس به هوش مصنوعی برای کار مورد استفاده تبدیل می شود. هوش مصنوعی که در ابتدا برای این کار مورد استفاده قرار می گرفت، دیگر بخشی از کار در دست نیست. این یک جنبه باز است که در غیر این صورت با هوش مصنوعی جایگزین شده چه اتفاقی می افتد، اما ما می گوییم که مطمئناً هوش مصنوعی دیگر هیچ نقش مستمری در کار کاری ندارد.

انسان شخص ثالث جایگزین هوش مصنوعی موجود می شود، همه چیز دوباره پیش می رود (اکنون انسان به انسان)

پس از یک اختلاف نظر حرفه ای، هوش مصنوعی با یک انسان شخص ثالث جایگزین می شود که برای آن فرد اکنون به عنوان طرف مشترک در نظر گرفته می شود که برای کار مورد نظر استفاده می شود. هوش مصنوعی که در ابتدا برای این کار مورد استفاده قرار می گرفت، دیگر بخشی از کار در دست نیست. این یک جنبه باز است که در غیر این صورت با هوش مصنوعی جایگزین شده چه اتفاقی می افتد، اما ما می گوییم که مطمئناً هوش مصنوعی دیگر هیچ نقش مستمری در کار کاری ندارد. به طور خلاصه، این اکنون تبدیل به یک کار دو طرفه انسان به انسان می شود.

هوش مصنوعی شخص ثالث جایگزین انسان موجود می شود، همه چیز دوباره پیش می رود (اکنون هوش مصنوعی به هوش مصنوعی)

پس از یک اختلاف نظر حرفه ای، انسان در حلقه با یک هوش مصنوعی شخص ثالث جایگزین می شود و این هوش مصنوعی از این پس تبدیل به تکمیل کننده برای انسان در حلقه قبلی می شود. انسانی که انسان در حلقه اولیه برای این کار بود، دیگر بخشی از کار در دست در نظر گرفته نمی شود. این یک جنبه باز است که در غیر این صورت با انسان-در-حلقه جایگزین شده چه اتفاقی می افتد، اما ما می گوییم که مطمئناً آنها دیگر هیچ نقش مستمری در کار کاری ندارند. به طور خلاصه، این اکنون تبدیل به یک هوش مصنوعی دو طرفه برای انجام وظیفه می شود.

دیگر

می توان انواع دیگری را برای مقابله با اختلاف نظر حرفه ای ابداع کرد، اما ما در اینجا به برخی از اصلی ترین آنها پرداخته ایم.

چگونه تصمیم بگیریم که کدام یک از این رویکردها برای یک موقعیت خاص مناسب است؟

طیف گسترده ای از مسائل در چنین انتخابی وجود دارد. ملاحظات تکنولوژیکی وجود دارد. ملاحظات تجاری وجود دارد. ملاحظات قانونی و اخلاقی وجود دارد.

تا حدودی، به همین دلیل است که اخلاق هوش مصنوعی و هوش مصنوعی اخلاقی یک موضوع بسیار مهم است. دستورات اخلاق هوش مصنوعی ما را وادار می کند که هوشیار بمانیم. فن‌آوران هوش مصنوعی ممکن است در مواقعی با فناوری، به‌ویژه بهینه‌سازی فناوری‌های پیشرفته، مشغول شوند. آنها لزوماً پیامدهای اجتماعی بزرگتر را در نظر نمی گیرند. داشتن یک ذهنیت اخلاقی هوش مصنوعی و انجام این کار به طور یکپارچه برای توسعه و میدان‌دهی هوش مصنوعی برای تولید هوش مصنوعی مناسب حیاتی است، از جمله (شاید شگفت‌انگیز یا طنزآمیز) ارزیابی نحوه پذیرش اخلاق هوش مصنوعی توسط شرکت‌ها.

علاوه بر به کارگیری اصول اخلاقی هوش مصنوعی به طور کلی، یک سوال مربوط به این موضوع وجود دارد که آیا ما باید قوانینی برای کنترل کاربردهای مختلف هوش مصنوعی داشته باشیم. قوانین جدیدی در سطوح فدرال، ایالتی و محلی وضع می شود که به محدوده و ماهیت چگونگی ابداع هوش مصنوعی مربوط می شود. تلاش برای تدوین و تصویب چنین قوانینی تدریجی است. اخلاق هوش مصنوعی حداقل به عنوان یک توقف در نظر گرفته شده عمل می کند و تقریباً مطمئناً تا حدی مستقیماً در آن قوانین جدید گنجانده می شود.

توجه داشته باشید که برخی قاطعانه استدلال می کنند که ما به قوانین جدیدی که هوش مصنوعی را پوشش می دهد نیازی نداریم و قوانین موجود ما کافی است. در واقع، آنها از قبل هشدار می‌دهند که اگر برخی از این قوانین هوش مصنوعی را به اجرا بگذاریم، با مهار پیشرفت‌های هوش مصنوعی که مزایای اجتماعی عظیمی را ارائه می‌دهد، غاز طلایی را خواهیم کشت.

در این مقطع از این بحث سنگین، شرط می بندم که شما خواهان نمونه های گویا هستید که ممکن است این موضوع را به نمایش بگذارد. مجموعه‌ای از نمونه‌های خاص و مطمئناً محبوب وجود دارد که به دلم نشسته است. ببینید، به عنوان یک متخصص در زمینه هوش مصنوعی از جمله پیامدهای اخلاقی و قانونی، اغلب از من خواسته می‌شود که نمونه‌های واقع‌بینانه‌ای را که معضلات اخلاقی هوش مصنوعی را نشان می‌دهند شناسایی کنم تا بتوان ماهیت تا حدودی نظری موضوع را راحت‌تر درک کرد. یکی از جذاب‌ترین زمینه‌هایی که این معضل اخلاقی هوش مصنوعی را به وضوح نشان می‌دهد، ظهور خودروهای خودران واقعی مبتنی بر هوش مصنوعی است. این به عنوان یک مورد استفاده مفید یا نمونه ای برای بحث و گفتگوی کافی در مورد موضوع خواهد بود.

پس در اینجا یک سوال قابل توجه وجود دارد که قابل تامل است: آیا ظهور خودروهای خودران واقعی مبتنی بر هوش مصنوعی چیزی را در مورد حل اختلافات هوش مصنوعی و انسانی روشن می کند، و اگر چنین است، این چه چیزی را نشان می دهد؟

یک لحظه به من اجازه دهید تا پرسش را باز کنم.

اول، توجه داشته باشید که هیچ راننده انسانی در یک ماشین خودران واقعی دخیل نیست. به خاطر داشته باشید که خودروهای خودران واقعی از طریق سیستم رانندگی هوش مصنوعی هدایت می شوند. نه نیازی به راننده انسان پشت فرمان وجود دارد و نه پیش بینی ای برای رانندگی وسیله نقلیه توسط انسان وجود دارد. برای پوشش گسترده و مداوم من در مورد وسایل نقلیه خودران (AVs) و به خصوص خودروهای خودران، نگاه کنید به پیوند اینجا.

مایلم بیشتر توضیح دهم که منظور از خودروهای خودران واقعی چیست.

درک سطح اتومبیل های خودران

به عنوان یک توضیح، خودروهای خودران واقعی، خودروهایی هستند که هوش مصنوعی خودرو را کاملاً به تنهایی رانندگی می کند و هیچ کمک انسانی در طول کار رانندگی وجود ندارد.

این وسایل نقلیه بدون راننده سطح 4 و سطح 5 در نظر گرفته می شوند (توضیحات من را در اینجا ببینید این لینک در اینجا) ، در حالی که خودرویی که نیاز به یک راننده انسانی برای مشارکت در رانندگی دارد معمولاً در سطح 2 یا سطح 3 در نظر گرفته می شود. افزودنی های خودکار که به عنوان ADAS (سیستم های کمک راننده پیشرفته) شناخته می شوند.

هنوز یک خودروی خودران واقعی در سطح 5 وجود ندارد، و ما هنوز حتی نمی دانیم که آیا امکان دستیابی به آن وجود دارد یا خیر، و نه اینکه چقدر طول می کشد تا به آنجا برسیم.

در همین حال ، تلاش های سطح 4 به تدریج در تلاشند تا با انجام آزمایشات عمومی بسیار باریک و انتخابی در جاده ها ، کمی به سمت خود جلب کنند ، هرچند در مورد اینکه آیا این آزمایش به خودی خود مجاز است یا خیر ، اختلاف نظر وجود دارد (همه ما در یک آزمایش خوکچه هندی زنده یا مرگ هستیم) برخی از آنها ادعا می كنند كه در بزرگراهها و گذرگاههای ما در حال انجام است این لینک در اینجا).

از آنجا که اتومبیل های نیمه خودمختار به یک راننده انسانی احتیاج دارند ، تصویب آن دسته از اتومبیل ها تفاوت چندانی با رانندگی وسایل نقلیه معمولی نخواهد داشت ، بنابراین به تنهایی چیز جدیدی برای پوشش آنها در این موضوع وجود ندارد (هر چند ، همانطور که خواهید دید در یک لحظه ، نکات بعدی که بطور کلی اعمال می شود).

در مورد اتومبیل های نیمه خودمختار ، مهم است که در مورد جنبه نگران کننده ای که اخیراً بوجود آمده است ، هشدار داده شود ، یعنی این که با وجود آن رانندگان انسانی که با ارسال فیلم هایی از خودشان ، در حال خوابیدن در چرخ یک اتومبیل سطح 2 یا سطح 3 هستند. ، همه ما باید از اینكه گمان نرود راننده بتواند هنگام رانندگی یك اتومبیل نیمه خودمختار ، توجه خود را از وظیفه رانندگی دور كند ، خودداری كنیم.

شما مسئولیت اقدامات رانندگی وسیله نقلیه ، صرفنظر از میزان اتوماسیون در سطح 2 یا سطح 3 ، مسئولیت مسئولیت مسئولیت شما می باشد.

اتومبیل های خودران و اختلاف نظر هوش مصنوعی در مقابل انسان

برای وسایل نقلیه خود رانندگی واقعی سطح 4 و سطح 5 ، یک راننده انسانی درگیر در وظیفه رانندگی نخواهد بود.

همه سرنشینان مسافر خواهند بود.

هوش مصنوعی رانندگی را انجام می دهد.

یک جنبه برای بحث فوری این واقعیت را در بر دارد که هوش مصنوعی در سیستم های رانندگی هوش مصنوعی امروزی حساس نیست. به عبارت دیگر ، هوش مصنوعی در مجموع مجموعه ای از برنامه نویسی و الگوریتم های مبتنی بر رایانه است و مطمئناً قادر به استدلال به همان روشی نیست که انسان می تواند.

چرا این تاکید اضافی در مورد هوش مصنوعی نیست؟

از آنجا که می خواهم تأکید کنم هنگام بحث در مورد نقش سیستم رانندگی AI ، من خصوصیات انسانی را به AI نسبت نمی دهم. لطفاً توجه داشته باشید که این روزها تمایل مستمر و خطرناکی برای انسان سازی AI وجود دارد. در حقیقت ، افراد حساسیتی شبیه انسان به هوش مصنوعی امروزی دارند ، علی رغم این واقعیت انکارناپذیر و غیرقابل انکار که هنوز چنین هوش مصنوعی وجود ندارد.

با این توضیحات ، می توانید تصور کنید که سیستم رانندگی هوش مصنوعی بطور طبیعی از جنبه های رانندگی "آگاهی" نداشته باشد. رانندگی و همه آنچه که شامل می شود باید به عنوان بخشی از سخت افزار و نرم افزار اتومبیل خودران برنامه ریزی شوند.

بیایید به جنبه های بی شماری بپردازیم که در این موضوع بازی می شوند.

اول، مهم است که بدانیم همه خودروهای خودران با هوش مصنوعی یکسان نیستند. هر خودروساز و شرکت فناوری خودران رویکرد خود را برای ابداع خودروهای خودران در پیش گرفته است. به این ترتیب، اظهار نظر گسترده در مورد اینکه سیستم های رانندگی هوش مصنوعی چه کاری انجام خواهند داد یا انجام نمی دهند، دشوار است.

علاوه بر این ، هرگاه بیان شود که سیستم رانندگی هوش مصنوعی کار خاصی انجام نمی دهد ، بعداً توسعه دهندگانی که در واقع کامپیوتر را برای انجام این کار برنامه ریزی می کنند ، می توانند از این امر پیشی بگیرند. گام به گام ، سیستم های رانندگی هوش مصنوعی به تدریج در حال بهبود و گسترش هستند. امروزه محدودیت موجود ممکن است دیگر در نسخه یا نسخه بعدی سیستم وجود نداشته باشد.

امیدوارم که اخطارهای فراوانی را برای زیربنای آنچه که می خواهم بیان کنم، ارائه دهد.

برای وسایل نقلیه کاملاً خودمختار ممکن است هیچ شانسی برای اختلاف نظر حرفه ای بین انسان و هوش مصنوعی وجود نداشته باشد، زیرا این احتمال وجود دارد که هیچ انسانی در حلقه برای شروع وجود نداشته باشد. آرزوی بسیاری از سازندگان خودروهای خودران امروزی حذف کامل راننده انسان از وظیفه رانندگی است. این وسیله نقلیه حتی شامل کنترل‌های رانندگی قابل دسترسی انسان نخواهد بود. در این صورت، یک راننده انسانی، در صورت حضور، نمی‌تواند در کار رانندگی شرکت کند زیرا به هیچ گونه کنترل رانندگی دسترسی ندارند.

برای برخی از وسایل نقلیه کاملاً خودمختار، برخی از طرح‌ها هنوز به انسان اجازه می‌دهند که در جریان باشد، اگرچه انسان اصلاً لازم نیست در دسترس باشد یا در فرآیند رانندگی شرکت کند. بنابراین در صورت تمایل انسان می تواند در رانندگی شرکت کند. در هیچ نقطه ای، هوش مصنوعی برای انجام هر یک از وظایف رانندگی به انسان وابسته نیست.

در مورد وسایل نقلیه نیمه خودران، یک رابطه دست به دست بین راننده انسان و هوش مصنوعی وجود دارد. راننده انسان می تواند کنترل های رانندگی را به طور کامل در اختیار بگیرد و اساساً هوش مصنوعی را از مشارکت در رانندگی باز دارد. اگر راننده انسانی بخواهد هوش مصنوعی را به نقش رانندگی بازگرداند، می‌تواند این کار را انجام دهد، اگرچه گاهی اوقات انسان مجبور می‌شود کنترل‌های رانندگی را رها کند.

شکل دیگری از عملیات نیمه خودمختار مستلزم این است که راننده انسانی و هوش مصنوعی به صورت گروهی با هم کار کنند. هوش مصنوعی رانندگی می کند و انسان رانندگی می کند. آنها با هم رانندگی می کنند. هوش مصنوعی ممکن است به انسان منتقل شود. انسان ممکن است به هوش مصنوعی سر باز بزند.

در مقطعی، سیستم رانندگی هوش مصنوعی و راننده انسانی در حلقه ممکن است به نقطه‌ای از «اختلاف حرفه‌ای» در مورد وظیفه رانندگی برسند.

برای نشان دادن اینکه چگونه اجرای برخی از قوانین فوق الذکر در برخورد با یک اختلاف نظر حرفه ای می تواند چالش برانگیز باشد، نمونه ای از فراخوانی شخص ثالث برای ورود به موضوع و ارائه تصمیم برای حل مشکل حل نشده را در نظر بگیرید.

فرض کنید یک خودروساز یا شرکت فناوری خودران ترتیبی داده است که اپراتورهای انسانی از راه دور به کنترل های رانندگی وسایل نقلیه در ناوگان خود دسترسی داشته باشند. اپراتور انسانی در دفتر یا محیطی مشابه نشسته است. از طریق یک سیستم کامپیوتری، آنها می توانند صحنه رانندگی را از طریق دسترسی به دوربین ها و سایر دستگاه های حسگر بارگذاری شده روی خودروی خودران مشاهده کنند. برای آنها، این تقریباً مانند بازی کردن یک بازی ویدیویی آنلاین است، اگرچه، البته، شرایط واقعی زندگی عواقب بالقوه وخیمی دارد.

یک سیستم هوش مصنوعی و یک راننده انسانی در داخل ماشین در حال رانندگی یک وسیله نقلیه نیمه خودکار در یک بزرگراه طولانی هستند. ناگهان هوش مصنوعی می‌خواهد به داخل یک گودال هدایت شود. راننده انسان نمی خواهد این کار را انجام دهد. این دو در حال دعوا بر سر کنترل های رانندگی هستند.

این چگونه حل خواهد شد؟

شاید می‌توانستیم از قبل تثبیت کنیم که انسان همیشه برنده است. فرض کنید که ما ترجیح دادیم این کار را انجام ندهیم.

می‌توانستیم از قبل تثبیت کنیم که هوش مصنوعی همیشه برنده است. فرض کنید ما تصمیم گرفتیم این کار را انجام ندهیم. در مجموع، ما هیچ یک از آن قوانین را قبول نکردیم، به جز اینکه تصمیم گرفتیم به یک شخص ثالث اجازه مداخله و حل یک اختلاف نظر حرفه ای با هر ماهیت اساسی را بدهیم.

در این مورد، هوش مصنوعی و راننده انسانی در فرمان برای کنترل‌های رانندگی می‌جنگند. این به عنوان مثال به اپراتور انسانی از راه دور (انسان شخص ثالث ما) منتقل می شود. اپراتور انسانی از راه دور آنچه را که در حال وقوع است بررسی می کند و تصمیم می گیرد از خندق دور شود و ظاهراً از کاری که هوش مصنوعی می خواست انجام دهد جلوگیری می کند. در همان زمان، فرض کنید اپراتور انسانی از راه دور به سمت ترافیک مقابل هدایت می‌شود، کاری که شاید نه هوش مصنوعی و نه راننده انسانی داخل خودرو نمی‌خواستند انجام دهند.

نکته این است که نحوه اجرای این قانون این است که اپراتور انسانی شخص ثالث قادر است هم هوش مصنوعی و هم انسان در حلقه را به طور کامل نادیده بگیرد. مطمئناً مطمئن نیست که آیا این امر نتیجه خوبی خواهد داشت یا خیر.

من از این مثال برای برجسته کردن برخی از بینش های اضافی در مورد این موارد استفاده خواهم کرد.

شما نمی توانید این فرض وقیحانه را بکنید که فقط به دلیل اینکه یکی از این قوانین وضع شده است، نتیجه اختلاف حل شده لزوماً یک نتیجه خوب تضمین شده است. ممکن است نباشد. هیچ نوع قاعده همیشه درست آهنینی وجود ندارد که بتوان آن را انتخاب کرد.

در مرحله بعد، برخی از این قوانین ممکن است به طور قابل اجرا قابل اجرا نباشند.

مثالی از مداخله اپراتور انسانی از راه دور زمانی که هوش مصنوعی و راننده انسانی در حال دعوا بر سر کنترل های رانندگی هستند را در نظر بگیرید. ممکن است چند ثانیه طول بکشد تا اپراتور انسانی راه دور بفهمد چه اتفاقی در حال رخ دادن است. در آن زمان، خودرو ممکن است قبلاً در گودال ختم شده باشد یا پیامدهای نامطلوب دیگری داشته باشد. همچنین، فرض کنید که مکان وسیله نقلیه مانع از دسترسی از راه دور مانند قرار گرفتن در مکانی است که اتصال الکترونیکی شبکه وجود ندارد. یا شاید ویژگی های شبکه ای خودرو در آن لحظه خاص کار نمی کند.

همانطور که می بینید، این قانون ممکن است روی کاغذ شیک به نظر برسد، اگرچه قرار دادن این قانون در استفاده واقعی ممکن است یک رویکرد بسیار دشوار یا بسیار شانسی باشد. پوشش انتقادی من در مورد اپراتور از راه دور وسایل نقلیه خودران و خودروهای خودران را در اینجا ببینید پیوند اینجا.

مایلم به طور خلاصه به موضوع مرتبط دیگری بپردازم که در تجزیه و تحلیل آینده به طور عمیق تر به آن خواهم پرداخت.

یکی از نگرانی های فزاینده در مورد وسایل نقلیه خودران و خودروهای خودران که نیمه خودران هستند، به اصطلاح سندرم سیب زمینی داغ.

این معامله است.

یک سیستم رانندگی هوش مصنوعی و یک انسان در حال رانندگی هستند. یک مخمصه وحشتناک به وجود می آید. هوش مصنوعی به گونه ای برنامه ریزی شده است که از وظیفه رانندگی کناره گیری کند و در زمان وقوع یک لحظه بد، همه چیز را به انسان بسپارد. این احتمالاً «معقول» به نظر می‌رسد، زیرا به نظر می‌رسد که ما در حال استناد به قاعده‌ای در مورد انسان «برنده» پیش‌فرض در هر اختلاف نظر حرفه‌ای بالقوه هستیم.

اما کنار گذاشتن هوش مصنوعی ممکن است برای مقاصد شیطانی تر یا موذیانه تلقی شود. ممکن است این خودروساز یا شرکت فناوری خودران نخواهند که هوش مصنوعی آن‌ها به عنوان "طرف مقصر" در هنگام تصادف رانندگی در نظر گرفته شود. برای اینکه ظاهراً به این شکل گرفتار نشوید، هوش مصنوعی به طور ناگهانی کنترل‌ها را به انسان می‌دهد. وایلا، اکنون احتمالاً انسان کاملاً مسئول وسیله نقلیه است.

نکته اصلی این است که فرض کنید هوش مصنوعی این انتقال را در حالی انجام می دهد که فرض کنید یک ثانیه مانده به وقوع تصادف باقی مانده است.

آیا انسان واقعاً زمان در دسترس برای جلوگیری از سقوط خواهد داشت؟

به احتمال زیاد نه.

فرض کنید هوش مصنوعی در فاصله چند میلی ثانیه یا نانوثانیه باقی مانده تا پایان کار را انجام می دهد. به جرات می توانم بگویم که انسان اساساً هیچ شانسی برای انجام هر کاری برای جلوگیری از سقوط ندارد.

از منظر خودروساز یا شرکت خودروهای خودران، آنها می توانند سعی کنند در هنگام وقوع چنین تصادفی، طوری رفتار کنند که انگار دستانشان تمیز است. ماشین را یک انسان هدایت می کرد. هوش مصنوعی ماشین را نمی راند. به نظر می رسد تنها نتیجه «منطقی» این باشد که انسان باید مقصر باشد و هوش مصنوعی باید کاملاً بی تقصیر باشد.

این یک خمره است.

من در ستون آینده به طور عمیق تر در مورد این بحث خواهم کرد.

نتیجه

اختلافات حرفه ای قرار است رخ دهد.

تصور هر کار پیچیده‌ای که دو طرف آن کار را با هم انجام می‌دهند و هرگز برای آن اختلاف نظر حرفه‌ای پیش نمی‌آید، دشوار است. به نظر می رسد این یک سرزمین فانتزی یا حداقل یک نادر بزرگ است.

امروز، ما نمونه‌های بسیار زیادی از اختلافات حرفه‌ای بین انسان‌ها داریم، که به‌صورت روزانه، قطعنامه‌های صلح‌آمیز و معقولانه برای آن‌ها به هر طریقی مشخص می‌شوند. در واقع، ما اغلب موقعیت‌هایی را عمداً برای ایجاد و آشکار کردن اختلافات حرفه‌ای تنظیم می‌کنیم. ممکن است استدلال کنید که این حکمت مشهور را نشان می دهد که گاهی اوقات دو سر بهتر از یک سر هستند.

همانطور که هوش مصنوعی رواج بیشتری می یابد، ما تعداد زیادی از وظایف دو طرفه هوش مصنوعی به انسان یا انسان به هوش مصنوعی خواهیم داشت و وجود خواهد داشت. اختلافات حرفه ای که رخ خواهد داد. رویکرد تنبلی این است که همیشه به انسان موکول شود. این ممکن است مناسب ترین رویکرد نباشد. هوش مصنوعی ممکن است انتخاب بهتری باشد. یا یکی از قوانین ذکر شده دیگر ممکن است رویکرد صحیح تری باشد.

این جمله حکیم است که اغلب تکرار می شود که همه ما باید به طور کلی بتوانیم با مخالفت موافقت کنیم، اگرچه وقتی بحث به پایان می رسد، گاهی اوقات یک اختلاف باید به صراحت حل شود، در غیر این صورت موضوع مورد نظر به فاجعه ناگفته ای منجر می شود. ما نمی‌توانیم اجازه دهیم که یک اختلاف بر سر تاک فرو رود. زمان ممکن است مهم باشد و زندگی ممکن است در خطر باشد.

یک نیاز واضح برای برخی از ابزارهای محتاطانه برای حل اختلافات وجود دارد، حتی اگر لزوماً موافق نباشد، از جمله زمانی که هوش مصنوعی و انسان در حلقه چشم به چشم یا بایت به بایت را نمی بینند.

من اطمینان دارم که شما با آن بحث کاملاً موافق مخالف نخواهید بود.

منبع: https://www.forbes.com/sites/lanceeliot/2022/07/23/ai-ethics-and-autonomous-systems-lessons-gleaned-from-that-recent-alaska-airlines-flight-where- خلبان-و-کمک-خلبان-قبل از-برخاستن-موافق-و-به-تاکسی-بازگشت-به-ترمینال-و-رفتن-راه-جدا/