ایرلاین ها اخیراً اخبار زیادی را به خود اختصاص داده اند.
ما در بحران تابستانی پروازها هستیم. مسافران خسته و ناامید خود را با انواع اختلالات پرواز و انحراف در برنامه ریزی خطوط هوایی مواجه می کنند. پروازها به طور غیرمنتظره ای لغو می شوند. پروازها با تاخیر انجام می شود. مسافران بخار می کنند. متأسفانه موارد زیادی از مسافران وجود داشته است که اجازه میدهند این ناراحتیها فوران کنند، و ما فیلمهای ویروسی بسیار زیادی از درگیریهای سر به سر و گاهی اوقات مشتهای مشتزنی دیدهایم.
به ندرت در مورد اختلافات بین خلبان و کمک خلبان که ممکن است در کابین خلبان رخ دهد، یاد می گیریم.
این کاملاً تعجب آور است.
در واقع، ما به طور طبیعی متحیر می شویم که فکر کنیم خلبان و کمک خلبان در هر مرحله از پرواز ظاهراً اختلاف نظر جدی دارند. اگر اختلاف نظر مربوط به این باشد که کدام مارک قهوه بهترین است، فرض ما این است که این امر در تلاش کاری که مستلزم پرواز با هواپیما است دخالت نخواهد کرد. این دو به سادگی از عدم برخورد چشم به چشم خود در مورد موضوعی به ظاهر بی ربط دوری می کنند. رفتار حرفه ای و آموزش طولانی مدت خلبانی آنها شروع می شود و آنها تمرکز خود را بر روی جزئیات پرواز متمرکز می کنند.
هر چند زمانی را در نظر بگیرید که الف اختلاف نظر حرفه ای مداخله می کند
من قصد دارم به طور خلاصه خبری را که به طور گسترده در مورد یک نمونه اخیر از اتفاقی که در طول پرواز در ایالات متحده رخ داده است و مربوط به یک اختلاف نظر حرفه ای ادعا شده در کابین خلبان است، با شما به اشتراک بگذارم.
این عمدتاً در اینجا ذکر شده است تا بتوانیم یک موضوع مرتبط را که برای ظهور هوش مصنوعی (AI) اهمیت زیادی دارد، بررسی کنیم. ببینید، میتوانیم بگوییم که باید بگوییم اختلاف حرفهای بین انسانها نه فقط در یک اختلاف انسان به انسان، بلکه میتوانیم چیزی مشابه در میان پذیرش هوش مصنوعی و در نتیجه اختلافات حرفهای انسان در مقابل هوش مصنوعی رخ دهد. . همه انواع ملاحظات اخلاقی هوش مصنوعی مطرح می شوند. برای پوشش گسترده و مداوم من در مورد اخلاق هوش مصنوعی و مسائل اخلاقی هوش مصنوعی، نگاه کنید پیوند اینجا و پیوند اینجا, فقط به نام چند.
خود را برای یک داستان جذاب آماده کنید.
همانطور که اخیراً در اخبار گزارش شده است، ظاهراً یک مورد "اختلاف حرفه ای" در طی یک پرواز هواپیمایی آلاسکا که از واشنگتن به سانفرانسیسکو می رفت به وجود آمد. بر اساس اخبار منتشر شده، پرواز از گیت دور شده بود و روی آسفالت منتظر مجوز تاکسی و پرواز بود. طوفانی در راه بود و منجر به تاخیر بیش از یک ساعت و نیم پرواز شد. معلوم شد که هواپیما در نهایت چرخید و به سمت دروازه برگشت، که برخی از مسافران معمولاً تصور میکردند که صرفاً یک اقدام احتیاطی مرتبط با طوفان است.
در توییتهای مختلف، به نظر میرسد که خلبان و کمک خلبان در طول مدت حضورشان در کابین خلبان، نوعی خصومت دور از دید داشتهاند و به نوعی به این نتیجه رسیدهاند که محتاطانهترین رویکرد، پاک کردن پرواز و بازگشت به ترمینال خواهد بود. . توییتها حاکی از آن بود که کاپیتان و افسر اول ظاهراً نمیتوانند با یکدیگر کنار بیایند. شرکت هواپیمایی بعداً بیانیه ای صادر کرد که وضعیت تاسف بار بود (وضعیت به خودی خود به صراحت بیان یا توضیح داده نشد)، دو افسر پرواز توسط مدیریت ارزیابی شدند و مناسب برای پرواز تشخیص داده شدند، خدمه تعویض شدند و پرواز در نهایت انجام شد. و بعداً به سانفرانسیسکو رسید.
به یک معنا، اگر در واقع خلبان و کمک خلبان یک اختلاف نظر حرفه ای داشتند، مانند اینکه آیا هواپیما به طور مناسب برای پرواز آماده است یا اینکه آیا خطر پرواز در میان طوفان در محدوده ایمنی مناسب است، آن مسافران باید راحت شوند و ممنون که هواپیما به دروازه بازگردانده شد. ایمن بودن بهتر از متاسف بودن داشتن یک تاخیر اضافی ارزش کاهش احتمالی خطرات مرتبط با یک سفر ناهموار یا نامطلوب پرواز را دارد.
برخی از افراد ممکن است تعجب کنند که چنین اختلاف نظر حرفه ای ممکن است ایجاد شود.
شاید تصور نادرستی داشته باشیم که همه چیزهایی که در کابین خلبان اتفاق میافتد کاملاً دقیق و به خوبی نوشته شده است. به نظر می رسد که تمام اشکال اختیار انسان از این روند حذف شده است. بر اساس نمودارهای دقیق و کاملاً محاسبه شده، پرواز یا ادامه دارد یا خیر. وقتی تصور می شود که کل کیت و کیت بر اساس محاسبات غیرقابل انکار حقایق و ارقام استوار است، هیچ اختلاف نظری وجود ندارد.
این حقیقت کامل ماجرا نیست. مطمئناً تعداد زیادی پروتکل و انواع کنترل ها و تعادل ها وجود دارد، اما این همه ذره ای از قضاوت انسان را از بین نمی برد. خلبانان و کمک خلبانان هنوز قضاوت انسانی را اعمال می کنند. خوشبختانه، این قضاوت انسانی با سالها پرواز انجام می شود. این احتمال وجود دارد که خلبان و کمک خلبان در یک هواپیمای مسافربری تجاری تجربه پرواز قبلی را داشته باشند و به راحتی از استدلال و قضاوت عمیق چندین ساله خود در ارتباط با حضور در کنترل پرواز استفاده کنند.
با توجه به نقش قابل توجه قضاوت انسان، ممکن است به طور منطقی پیش بینی کنیم که خلبان و کمک خلبان گاهی اوقات با هم اختلاف نظرهای حرفه ای دارند. اغلب اوقات، احتمالاً چنین اختلاف نظر بسیار کمی وجود دارد. احتمالاً خلبان و کمک خلبان برای پروازهای روزانه به خوبی با غلبه زمان هماهنگ هستند. تنها زمانی که یک سناریوی پرواز ممکن است خارج از محدودههای معمولی باشد، انتظار داریم اصطکاک شدیدتری ایجاد شود.
اگر اختلاف نظر شدیدی بین این دو وجود داشته باشد، به جرات میتوانم بگویم که میخواهیم آنها را هش کنند.
موقعیتی را تصور کنید که در آن خلبان به شدت می خواهد ادامه دهد اما کمک خلبان متوجه می شود که خطرات بسیار زیاد است. صرف خم شدن خلبان به خلبان نامطلوب به نظر می رسد. کمک خلبان یک کنترل و تعادل برای آنچه که یک خلبان ممکن است به انجام آن فکر کند است. برای کسانی که میخواهند یک کمک خلبان ببندد و صرفاً به هر چیزی که خلبان دستور میدهد بدون فکر عمل کند، خوب، این اطمینان چندانی نیست. خلبان صرفاً یک «خلبان» یدکی نیست که تنها زمانی وارد تصویر شود که خلبان کاملاً ناتوان باشد. این یک درک نادرست از ارزش وجود خلبان و کمک خلبان در کابین است.
زاویه دیگری نیز در این مورد وجود دارد.
مورد خلبانی را در نظر بگیرید که معتقد نیست پرواز باید ادامه یابد و در همین حین خلبان در مورد بلند شدن در هوا گنگ هو است. بعدش چی شد؟ طبق سلسله مراتب مورد انتظار، قرار است خلبان به طور متعارف بر خلبان غالب باشد. نقش تعیین شده به عنوان مسئول اصلی، خلبان را از آنچه در غیر این صورت تا حدودی برابر است، بیشتر می کند. به طور معمول، خلبان دارای چاشنی کلی زمان پرواز بیشتری نسبت به کمک خلبان است و به این ترتیب خلبان به طور سلسله مراتبی قرار است به خواسته های خلبان (در صورت منطقی بودن) توجه کند.
در هر صورت، فکر میکنم همه ما میتوانیم موافق باشیم که انتخاب نکردن پرواز مطمئناً یک انتخاب کم خطرتر از تصمیم به پرواز است. هنگامی که هواپیما در هوا است، سطح خطر در مقایسه با هر زمین ثابت معمولی بسیار زیاد می شود. یک پرواز تجاری مرسوم که به سادگی به ترمینال برمی گردد بدون اینکه به هوا برود، یک راه حل بسیار دوستانه برای هر بحث تند تند در مورد پرواز است.
بیایید دنده ها را عوض کنیم و از این خبر تند و تیز برای هدفی کاملاً متفاوت اما مرتبط استفاده کنیم.
ما به تدریج در میان خود شاهد شیوع سیستم های خودمختار مبتنی بر هوش مصنوعی هستیم. گاهی اوقات هوش مصنوعی نمایش را اجرا می کند. هوش مصنوعی همه چیز را از A تا Z انجام می دهد، و ما ممکن است این را به عنوان هوش مصنوعی کاملاً مستقل یا تقریباً مستقل در نظر بگیریم. در موارد دیگر، ما میتوانیم هوش مصنوعی داشته باشیم که با آن تعامل داشته باشد و تا حدی به گونهای برنامهریزی شده است که به داشتن یک انسان در حلقه متکی باشد.
من مایلم روی موضوع یک سیستم خودمختار یا نیمه خودمختار مبتنی بر هوش مصنوعی تمرکز کنم که از همان ابتدا یک انسان در حلقه است. هوش مصنوعی و انسان عمداً در کنار هم قرار گرفته اند و قرار است پشت سر هم با یکدیگر کار کنند. آنها گروه هایی هستند که در انجام یک کار خاص در دست هستند. قرار نیست هوش مصنوعی به تنهایی به این وظیفه عمل کند. هوش مصنوعی باید با انسان تعیین شده در حلقه تعامل داشته باشد.
من این خصوصیات را مطرح می کنم تا از موقعیت هایی که انسان در حلقه یک جنبه اختیاری در نظر گرفته می شود متمایز شود. در اصل، هوش مصنوعی اختیار آزاد دارد. اگر هوش مصنوعی تصمیم گرفت از انسان استفاده کند، پس باید این کار را انجام دهد. هیچ الزامی وجود ندارد که هوش مصنوعی با انسان تعیینشده تماس داشته باشد یا دست در دست او کار کند. تحلیلهایی که من میخواهم بیان کنم، قطعاً به این نوع مربوط میشوند اختیاری ترتیب تعامل، اما این چیزی نیست که من به طور خاص در این بحث خاص دنبالش هستم.
خوب، پس ما نوعی وظیفه داریم که یک انسان و یک هوش مصنوعی قرار است با هم کار کنند، جدایی ناپذیر از یکدیگر. در یک مفهوم انتزاعی، ما انسانی را داریم که در یک صندلی نشسته است و یک سیستم هوش مصنوعی در صندلی دیگر همراه نشسته است. من این را گستاخانه می گویم زیرا ما این بحث را به رباتی محدود نمی کنیم که در واقع ممکن است روی صندلی نشسته باشد. من به طور استعاری به این مفهوم اشاره می کنم که هوش مصنوعی در جایی در کار مشارکت دارد و انسان نیز همین طور. از نظر فیزیکی، محل نگهداری آنها برای بحث بسیار حیاتی نیست.
ممکن است مطمئن نباشید که چه زمانی ممکن است چنین شرایطی ایجاد شود.
آسان هلال
من بعداً در مورد ظهور وسایل نقلیه خودران و خودروهای خودران بحث خواهم کرد. در سطوح مشخصی از خودمختاری، هوش مصنوعی و انسان قرار است با هم کار کنند. هوش مصنوعی ممکن است در حال رانندگی ماشین باشد و از انسان بخواهد که کنترل های رانندگی را به دست بگیرد. ممکن است انسان در حال رانندگی ماشین باشد و هوش مصنوعی را فعال کند تا کنترلها را به دست بگیرد. آنها به نوبت در کنترل های رانندگی هستند.
علاوه بر این، برخی از طراحیها اساساً هوش مصنوعی را همیشه فعال میکنند (یا، مگر اینکه خاموش باشند)، به طوری که هوش مصنوعی همیشه آماده است. علاوه بر این، هوش مصنوعی ممکن است به طور مستقیم، حتی بدون درخواست انسان، بسته به موقعیتی که در حال آشکار شدن است، مداخله کند. برای مثال فرض کنید که انسان به نظر می رسد پشت فرمان به خواب رفته است. از آنجایی که انسان به ظاهر نمی تواند هوش مصنوعی را فعال کند (به دلیل خوابیدن فرد)، ممکن است هوش مصنوعی طوری برنامه ریزی شود که کنترل ها را از انسان بگیرد.
برخی از طراحیها هوش مصنوعی و انسانها را وارد رویکرد رانندگی دوگانه میکنند. هوش مصنوعی رانندگی می کند و انسان رانندگی می کند. یا اگر ترجیح می دهید، انسان در حال رانندگی است و هوش مصنوعی نیز در حال رانندگی است. هر کدام در حال رانندگی خودرو هستند. من این را به آن ماشینهایی تشبیه میکنم که احتمالاً هنگام آموزش رانندگی از آنها استفاده میکردید و دو مجموعه کنترل رانندگی در وسیله نقلیه وجود داشت، یکی برای راننده دانشآموز و دیگری برای مربی رانندگی.
این تنها نمونه ای از محیطی است که در آن هوش مصنوعی و انسان ها ممکن است به طور مشترک روی یک کار کار کنند. همه نوع احتمالات وجود دارد. انواع دیگری از وسایل نقلیه خودمختار نیز ممکن است به طور مشابه ابداع شوند، مانند هواپیماها، هواپیماهای بدون سرنشین، شناورهای زیردریایی، کشتیهای سطحی، قطارها و غیره. ما مجبور نیستیم فقط تنظیمات وسیله نقلیه و حمل و نقل را در نظر بگیریم. حوزه پزشکی و جراحی هایی را که به طور مشترک توسط یک پزشک پزشکی و یک سیستم هوش مصنوعی انجام می شود، تصور کنید. لیست بی پایان است.
من تقریباً احساس می کنم به شوخی کلاسیک پر سر و صدا در مورد یک انسان و یک هوش مصنوعی که با هم وارد یک میخانه می شوند اشاره کنم. برای کسانی که به هوش مصنوعی علاقه دارند خنده دارد.
به طور جدی، بیایید به تمرکز یک انسان و یک سیستم هوش مصنوعی برگردیم که با هم روی یک کار مشخص کار می کنند. اول، من میخواهم از انسانسازی هوش مصنوعی اجتناب کنم، چیزی که در سراسر آن بر آن تاکید خواهم کرد. هوش مصنوعی حساس نیست. لطفا اون رو به خاطر بسپار.
در اینجا چیزی برای تفکر وجود دارد: آیا یک انسان-در-حلقه تعیین شده همیشه با هوش مصنوعی هم تیمی موافق است؟
برای هر کار پیچیده، بعید به نظر می رسد که انسان و هوش مصنوعی به طور کامل و همیشه به طور کامل در قفل و قدم باشند. انسان در برخی موارد احتمالاً با هوش مصنوعی مخالف است. میتوانیم این فرض را به بانک برسانیم.
مایلم این احتمال شگفت انگیز را نیز در نظر بگیرید: آیا هوش مصنوعی همیشه با یک انسان در حلقه تعیین شده مطابقت کامل خواهد داشت؟
باز هم، برای هر کار پیچیده ای، کاملاً قابل تصور به نظر می رسد که هوش مصنوعی در برخی موارد با انسان همخوانی نداشته باشد. اگر در حال حاضر به این ایده تمایل دارید که هوش مصنوعی همیشه باید اشتباه باشد در حالی که انسان ها باید همیشه حق داشته باشند، عاقلانه است که در این نتیجه گیری عجولانه تجدید نظر کنید. خودرویی را تصور کنید که انسان و هوش مصنوعی به طور مشترک این وسیله نقلیه نیمه خودران را رانندگی می کنند. انسان به سمت یک دیوار آجری هدایت می شود. چرا؟ ما نمی دانیم، شاید انسان مست است یا به خواب رفته است، اما می دانیم که برخورد با دیوار آجری ایده خوبی نیست، همه چیز برابر است. هوش مصنوعی ممکن است فاجعه آتی را تشخیص دهد و به دنبال دور شدن از سد قریب الوقوع باشد.
در مجموع، ما احتمال متمایز اختلاف هوش مصنوعی و انسان با یکدیگر را خواهیم داشت. راه دیگر برای گفتن همین موضوع این است که انسان و هوش مصنوعی با یکدیگر اختلاف نظر دارند توجه داشته باشید که من نمیخواهم توالی AI-and-human در مقابل انسان و AI چیزی در مورد جهت یا معقول بودن اختلاف نشان دهد.
این دو کارگر، یکی انسان و دیگری هوش مصنوعی، با یکدیگر اختلاف نظر دارند.
ما میتوانیم پیشاپیش اعلام کنیم که هر زمان که بین یک هوش مصنوعی و یک انسان معین اختلاف نظر وجود داشته باشد، از قبل اعلام میکنیم که انسان بر هوش مصنوعی غلبه دارد. همانطور که گفته شد، به نظر می رسد مثال گویا من در مورد ماشینی که به سمت دیوار آجری می رود، ما را منصرف می کند که همیشه حق با انسان است.
در مقابل، میتوانیم پیشاپیش اعلام کنیم که هرگاه اختلاف نظری پیش آمد، از قبل ثابت کرده باشیم که هوش مصنوعی درست است و انسان اشتباه میکند. این نیز یک شرط معقول قابل تعمیم نیست. خودرویی را تصور کنید که در آن هوش مصنوعی خطا یا باگ نرمافزاری تعبیهشده دارد و هوش مصنوعی سعی میکند خودرو را از جاده خارج کرده و به داخل یک گودال هدایت کند. با فرض اینکه همه چیز برابر است، انسان باید بتواند بر این حرکت رانندگی با هوش مصنوعی غلبه کند و از فرود خودرو در خندق جلوگیری کند.
بیایید یک خلاصه سریع از این کار انجام دهیم:
- آیا انسان در حلقه همیشه با هوش مصنوعی موافق است؟ پاسخ: شماره
- آیا هوش مصنوعی همیشه با یک انسان در حلقه موافق خواهد بود؟ پاسخ: نه.
- آیا یک انسان در حلقه در مقایسه با هوش مصنوعی همیشه درست خواهد بود؟ پاسخ: لازم نیست.
- آیا هوش مصنوعی در مقایسه با انسان در حلقه همیشه درست خواهد بود؟ پاسخ: نه لزوما.
مطمئناً میتوانید هوش مصنوعی را طوری تنظیم کنید که بهطور پیشفرض بهعنوان طرف «اشتباه» یا ضعیفتر در نظر گرفته شود و بنابراین همیشه هر زمان که اختلاف نظر ظاهر شد، آن را به انسان موکول کنید. به همین ترتیب، میتوانید هوش مصنوعی را طوری تنظیم کنید که هر زمان که انسانی با هوش مصنوعی مخالف باشد، هوش مصنوعی «درست» در نظر گرفته میشود. من می خواهم روشن کنم که اگر بخواهیم این کار را به صورت برنامه ای انجام دهیم. من ادعا می کنم که به طور کلی، همیشه اینطور نیست. مطمئناً تنظیماتی وجود دارد که در آنها ما از قبل نمی دانیم که آیا هوش مصنوعی "درست" است یا انسان "درست" از نظر انتخاب یکی یا دیگری در مورد اختلاف نظر مربوط به یک وظیفه معین.
من شما را به یک سوال بسیار مهم و بسیار پیچیده هدایت کردم.
وقتی یک اختلاف نظر حرفه ای بین انسان در حلقه و هوش مصنوعی رخ می دهد (یا به طور معادل، می توانیم این را به عنوان وجود بین هوش مصنوعی و انسان در حلقه بیان کنیم) چه باید بکنیم؟
سعی نکنید از سوال طفره بروید.
برخی ممکن است استدلال کنند که این هرگز اتفاق نخواهد افتاد، اما همانطور که در مثال خود در مورد ماشین بیان کردم، مطمئناً ممکن است اتفاق بیفتد. برخی ممکن است استدلال کنند که یک انسان به وضوح برتر است و باید برنده هر گونه اختلاف باشد. مثال من از ماشین و دیوار آجری آن یکی را خراب می کند. طرفداران هوش مصنوعی وجود دارند که ممکن است اصرار داشته باشند که هوش مصنوعی باید برنده باشد، به دلیل اینکه ظاهراً بر احساسات انسانی غلبه می کند و تفکر ناخواسته توسط آن انسان های تصادفی دارای تفکر فازی. یک بار دیگر، مثال دیگر من که منجر به حرکت ماشین به داخل خندق می شود، این ادعا را تضعیف می کند.
در دنیای واقعی، هوش مصنوعی و انسانها با هم اختلاف نظر دارند، حتی زمانی که این دو عمداً در یک موقعیت تیمی قرار میگیرند تا یک وظیفه مشترک را انجام دهند. اتفاق خواهد افتاد. ما نمی توانیم سرمان را در شن بگذاریم و وانمود کنیم که این اتفاق نخواهد افتاد.
دیدیم که انسان های خلبان هواپیما ظاهراً با هم اختلاف پیدا کردند. خوشبختانه، آنها با مخالفت موافقت کردند، بنابراین به نظر می رسد. آنها هواپیما را به ترمینال برگرداندند. آنها ابزاری برای مقابله با اختلاف نظر پیدا کردند. حل اختلاف آنها به خوبی جواب داد، در مقایسه با اینکه شاید آنها در کابین خلبان مشت زده بودند یا شاید به هوا پرواز می کردند و به جنگیدن با یکدیگر ادامه می دادند. این یک سناریوی غم انگیز است که غیرقابل دفاع است و ما می توانیم شکرگزار باشیم که رخ نداده است.
به من اجازه دهید فهرست راههای مختلفی را ارائه دهم که از طریق آنها ممکن است اختلاف نظرهای هوش مصنوعی و انسان در حلقه (یا انسان در حلقه و هوش مصنوعی) حل شود:
- هوش مصنوعی و انسان های گروهی کارها را انجام می دهند (دوستانه یا غیر دوستانه)
- انسان به طور پیش فرض بر هوش مصنوعی غلبه دارد
- هوش مصنوعی به طور پیش فرض بر انسان غالب است
- برخی دیگر از وضوحهای ثابت از پیش تعیینشده، بهطور پیشفرض غالب هستند
- انسان شخص ثالث حلقه ای است و نشانه آنها بر طرفین غالب است
- هوش مصنوعی شخص ثالث حلقه ای است و نشانه آن بر طرفین برتری دارد
- انسان شخص ثالث جایگزین انسان موجود می شود، همه چیز از نو پیش می رود
- هوش مصنوعی شخص ثالث جایگزین هوش مصنوعی موجود می شود، همه چیز دوباره پیش می رود
- انسان شخص ثالث جایگزین هوش مصنوعی موجود می شود، همه چیز دوباره پیش می رود (اکنون انسان به انسان)
- هوش مصنوعی شخص ثالث جایگزین انسان موجود می شود، همه چیز دوباره پیش می رود (اکنون هوش مصنوعی به هوش مصنوعی)
- دیگر
اینها به وفور ارزش بازکردن را دارند.
قبل از پرداختن به گوشت و سیب زمینی بیشتر در مورد ملاحظات وحشی و پشمالو که زمینه ساز نحوه برخورد با هوش مصنوعی و اختلافات انسانی است، اجازه دهید برخی اصول اضافی را در مورد موضوعات بسیار ضروری بیان کنیم. ما باید به طور مختصر به اخلاق هوش مصنوعی و به ویژه ظهور یادگیری ماشینی (ML) و یادگیری عمیق (DL) نگاهی بیاندازیم.
ممکن است به طور مبهم آگاه باشید که یکی از بلندترین صداها این روزها در زمینه هوش مصنوعی و حتی خارج از حوزه هوش مصنوعی، فریاد زدن برای ظاهری بیشتر از هوش مصنوعی اخلاقی است. بیایید نگاهی به معنای ارجاع به اخلاق هوش مصنوعی و هوش مصنوعی اخلاقی بیندازیم. علاوه بر این، وقتی از یادگیری ماشینی و یادگیری عمیق صحبت میکنم، منظورم را بررسی خواهیم کرد.
یک بخش یا بخش خاصی از اخلاق هوش مصنوعی که توجه رسانه ها را به خود جلب کرده است شامل هوش مصنوعی است که سوگیری ها و نابرابری های نامناسبی را نشان می دهد. ممکن است بدانید که زمانی که آخرین دوره هوش مصنوعی آغاز شد، شور و شوق زیادی برای آنچه که اکنون برخی میگویند وجود داشت. هوش مصنوعی برای خوب. متأسفانه، در پاشنه آن هیجان فوران، ما شروع به مشاهده کردیم هوش مصنوعی برای بد. برای مثال، سیستمهای مختلف تشخیص چهره مبتنی بر هوش مصنوعی حاوی سوگیریهای نژادی و سوگیریهای جنسیتی هستند که من در مورد آن بحث کردهام. پیوند اینجا.
تلاش برای مبارزه با هوش مصنوعی برای بد به طور فعال در حال انجام هستند. علاوه بر پر سر و صدا حقوقی تلاش برای مهار تخلفات، همچنین فشار اساسی به سمت پذیرش اخلاق هوش مصنوعی برای اصلاح شرارت هوش مصنوعی وجود دارد. تصور این است که ما باید اصول کلیدی هوش مصنوعی اخلاقی را برای توسعه و توسعه هوش مصنوعی اتخاذ و تأیید کنیم تا این کار را کاهش دهیم. هوش مصنوعی برای بد و به طور همزمان منادی و ترویج مرجح هوش مصنوعی برای خوب.
در یک مفهوم مرتبط، من طرفدار تلاش برای استفاده از هوش مصنوعی به عنوان بخشی از راه حل مشکلات هوش مصنوعی هستم، و با این شیوه تفکر با آتش مبارزه می کنم. برای مثال، ممکن است اجزای هوش مصنوعی اخلاقی را در یک سیستم هوش مصنوعی تعبیه کنیم که بر نحوه انجام بقیه هوش مصنوعی نظارت میکند و بنابراین به طور بالقوه در زمان واقعی هرگونه تلاش تبعیض آمیز را جلب میکند. پیوند اینجا. ما همچنین میتوانیم یک سیستم هوش مصنوعی جداگانه داشته باشیم که به عنوان نوعی مانیتور اخلاق هوش مصنوعی عمل میکند. سیستم هوش مصنوعی به عنوان یک ناظر برای ردیابی و تشخیص اینکه چه زمانی هوش مصنوعی دیگر به ورطه غیراخلاقی می رود عمل می کند (تحلیل من از چنین قابلیت هایی را در اینجا ببینید. پیوند اینجا).
در یک لحظه، من برخی از اصول کلی زیربنای اخلاق هوش مصنوعی را با شما به اشتراک خواهم گذاشت. تعداد زیادی از این نوع لیست ها اینجا و آنجا شناور هستند. می توان گفت که هنوز فهرست منحصر به فردی از جذابیت و توافق جهانی وجود ندارد. این خبر تاسف بار است. خبر خوب این است که حداقل لیستهای اخلاقی هوش مصنوعی وجود دارد که کاملاً مشابه هستند. در مجموع، این نشان میدهد که با نوعی همگرایی مستدل، راه خود را به سوی یک اشتراک کلی از آنچه اخلاق هوش مصنوعی تشکیل میدهد، پیدا میکنیم.
ابتدا، اجازه دهید به طور مختصر برخی از قوانین کلی اخلاقی هوش مصنوعی را پوشش دهیم تا نشان دهیم چه چیزی باید برای هر کسی که در حال ساخت، ساخت و یا استفاده از هوش مصنوعی است، اهمیت حیاتی داشته باشد.
به عنوان مثال، همانطور که توسط واتیکان در فراخوان رم برای اخلاق هوش مصنوعی و همانطور که به طور عمیق به آن پرداخته ام پیوند اینجا، این شش اصل اصلی اخلاق هوش مصنوعی شناسایی شده آنها است:
- شفافیت: در اصل، سیستم های هوش مصنوعی باید قابل توضیح باشند
- نقص: نیازهای همه انسانها باید مورد توجه قرار گیرد تا همه بتوانند از آن بهره ببرند و بهترین شرایط ممکن برای ابراز وجود و پیشرفت به همه افراد ارائه شود.
- مسئوليت: کسانی که استفاده از هوش مصنوعی را طراحی و اجرا می کنند باید با مسئولیت و شفافیت پیش بروند
- بی طرفی: از ایجاد و یا عمل بر اساس تعصب، در نتیجه حفظ انصاف و کرامت انسانی
- قابلیت اطمینان: سیستم های هوش مصنوعی باید بتوانند به طور قابل اعتماد کار کنند
- امنیت و حریم خصوصی: سیستم های هوش مصنوعی باید ایمن کار کنند و به حریم خصوصی کاربران احترام بگذارند.
همانطور که توسط وزارت دفاع ایالات متحده (DoD) در آنها بیان شده است اصول اخلاقی برای استفاده از هوش مصنوعی و همانطور که به طور عمیق به آن پرداخته ام پیوند اینجا، این شش اصل اصلی اخلاق هوش مصنوعی آنهاست:
- مسئول: پرسنل وزارت دفاع سطوح مناسبی از قضاوت و مراقبت را اعمال خواهند کرد و در عین حال مسئولیت توسعه، استقرار و استفاده از قابلیتهای هوش مصنوعی را بر عهده خواهند داشت.
- منصفانه: این وزارتخانه اقدامات عمدی را برای به حداقل رساندن سوگیری ناخواسته در قابلیتهای هوش مصنوعی انجام خواهد داد.
- قابل ردیابی: قابلیتهای هوش مصنوعی این وزارتخانه به گونهای توسعه و مستقر خواهد شد که پرسنل مربوطه درک مناسبی از فناوری، فرآیندهای توسعه، و روشهای عملیاتی قابل اجرا برای قابلیتهای هوش مصنوعی، از جمله روششناسی شفاف و قابل ممیزی، منابع دادهها، روشها و مستندات طراحی داشته باشند.
- قابل اعتماد: قابلیتهای هوش مصنوعی این وزارتخانه کاربردهای مشخص و مشخصی خواهند داشت، و ایمنی، امنیت و اثربخشی چنین قابلیتهایی مشمول آزمایش و اطمینان در آن کاربردهای تعریفشده در کل چرخه عمر آنها خواهد بود.
- قابل اداره: این وزارتخانه قابلیتهای هوش مصنوعی را طراحی و مهندسی میکند تا عملکردهای مورد نظر خود را انجام دهد، در حالی که توانایی شناسایی و اجتناب از پیامدهای ناخواسته را دارد، و توانایی جدا کردن یا غیرفعال کردن سیستمهای مستقری که رفتار ناخواسته را نشان میدهند.
من همچنین در مورد تجزیه و تحلیلهای جمعی مختلف از اصول اخلاق هوش مصنوعی بحث کردهام، از جمله پوشش مجموعهای ابداع شده توسط محققان که ماهیت بسیاری از اصول اخلاقی هوش مصنوعی ملی و بینالمللی را در مقالهای تحت عنوان «چشمانداز جهانی دستورالعملهای اخلاق هوش مصنوعی» (منتشر شده) بررسی و فشرده کرده است. که در طبیعت) و پوشش من در آن بررسی می شود پیوند اینجا، که منجر به این لیست کلیدی شد:
- شفافیت
- عدالت و انصاف
- عدم سوء استفاده
- مسئوليت
- حریم خصوصی
- سود رسانی
- آزادی و خودمختاری
- اعتماد
- پایداری
- کرامت
- اتحاد
همانطور که ممکن است مستقیماً حدس بزنید، تلاش برای مشخص کردن جزئیات زیربنای این اصول می تواند بسیار سخت باشد. حتی بیشتر از آن، تلاش برای تبدیل این اصول گسترده به چیزی کاملاً ملموس و با جزئیات کافی برای استفاده در هنگام ساخت سیستمهای هوش مصنوعی نیز یک مهره سخت است. به طور کلی می توان در مورد اینکه اصول اخلاقی هوش مصنوعی چیست و چگونه باید به طور کلی آنها را رعایت کرد، دست تکان داد، در حالی که وضعیت بسیار پیچیده تر در کدنویسی هوش مصنوعی است که باید لاستیک واقعی باشد که با جاده مطابقت می کند.
اصول اخلاق هوش مصنوعی باید توسط توسعه دهندگان هوش مصنوعی، همراه با آنهایی که تلاش های توسعه هوش مصنوعی را مدیریت می کنند، و حتی آنهایی که در نهایت سیستم های هوش مصنوعی را انجام می دهند، مورد استفاده قرار گیرد. همه ذینفعان در طول چرخه عمر توسعه و استفاده هوش مصنوعی در محدوده رعایت هنجارهای تثبیت شده هوش مصنوعی اخلاقی در نظر گرفته می شوند. این نکته مهمی است زیرا فرض معمول این است که «فقط کدنویسها» یا کسانی که هوش مصنوعی را برنامهریزی میکنند، منوط به رعایت مفاهیم اخلاقی هوش مصنوعی هستند. همانطور که قبلاً گفته شد، برای ابداع و به کارگیری هوش مصنوعی به یک دهکده نیاز است، و برای آن کل دهکده باید به اصول اخلاقی هوش مصنوعی مسلط باشد و از آن پیروی کند.
بیایید همچنین مطمئن شویم که در مورد ماهیت هوش مصنوعی امروزی همسو هستیم.
امروزه هیچ هوش مصنوعی وجود ندارد که حساس باشد. ما این را نداریم ما نمی دانیم که آیا هوش مصنوعی ممکن خواهد بود یا خیر. هیچ کس نمی تواند به درستی پیش بینی کند که آیا ما به هوش مصنوعی خواهیم رسید یا خیر، یا اینکه آیا هوش مصنوعی به طور معجزه آسایی به شکلی از ابرنواختر شناختی محاسباتی پدید خواهد آمد (که معمولاً به عنوان تکینگی شناخته می شود، پوشش من را در اینجا ببینید. پیوند اینجا).
نوع هوش مصنوعی که من روی آن تمرکز می کنم شامل هوش مصنوعی غیر حساسی است که امروز داریم. اگر بخواهیم به شدت در مورد آن حدس بزنیم با احساس هوش مصنوعی، این بحث می تواند در جهتی کاملاً متفاوت پیش رود. ظاهراً یک هوش مصنوعی با کیفیت انسانی خواهد بود. شما باید در نظر داشته باشید که هوش مصنوعی حسی معادل شناختی یک انسان است. علاوه بر این، از آنجایی که برخی گمانه زنی می کنند که ممکن است هوش مصنوعی فوق هوشمند داشته باشیم، می توان تصور کرد که چنین هوش مصنوعی می تواند در نهایت از انسان ها باهوش تر باشد (برای کاوش من در مورد هوش مصنوعی فوق هوشمند به عنوان یک احتمال، نگاه کنید به پوشش در اینجا).
بیایید همه چیز را روی زمین نگه داریم و هوش مصنوعی محاسباتی غیر حساس امروزی را در نظر بگیریم.
درک کنید که هوش مصنوعی امروزی قادر به «فکر کردن» به هیچ شکلی با تفکر انسان نیست. وقتی با الکسا یا سیری تعامل می کنید، ظرفیت های مکالمه ممکن است شبیه ظرفیت های انسانی به نظر برسد، اما واقعیت این است که محاسباتی است و فاقد شناخت انسانی است. آخرین دوره هوش مصنوعی از یادگیری ماشینی (ML) و یادگیری عمیق (DL) استفاده گسترده ای کرده است که از تطابق الگوی محاسباتی استفاده می کند. این منجر به سیستمهای هوش مصنوعی شده است که ظاهری شبیه به تمایلات انسان دارند. در همین حال، هیچ هوش مصنوعی امروزی وجود ندارد که شباهتی به عقل سلیم داشته باشد و هیچ یک از شگفتیهای شناختی تفکر قوی انسانی را نداشته باشد.
ML/DL نوعی تطبیق الگوی محاسباتی است. روش معمول این است که شما داده ها را در مورد یک کار تصمیم گیری جمع آوری می کنید. داده ها را به مدل های کامپیوتری ML/DL وارد می کنید. آن مدل ها به دنبال یافتن الگوهای ریاضی هستند. پس از یافتن چنین الگوهایی، در صورت یافتن، سیستم هوش مصنوعی در هنگام مواجهه با داده های جدید از آن الگوها استفاده خواهد کرد. پس از ارائه داده های جدید، الگوهای مبتنی بر داده های "قدیمی" یا تاریخی برای ارائه یک تصمیم فعلی استفاده می شود.
من فکر می کنم می توانید حدس بزنید که این به کجا می رود. اگر انسانهایی که بر اساس تصمیمگیریهای الگو گرفته شدهاند، سوگیریهای نامطلوب را در خود جای دادهاند، احتمال این وجود دارد که دادهها این را به روشهای ظریف اما قابل توجهی منعکس کنند. تطبیق الگوی محاسباتی یادگیری ماشینی یا یادگیری عمیق به سادگی سعی میکند تا دادهها را مطابق با ریاضی تقلید کند. هیچ شباهتی از عقل سلیم یا سایر جنبه های حساس مدل سازی ساخته شده با هوش مصنوعی به خودی خود وجود ندارد.
علاوه بر این، توسعه دهندگان هوش مصنوعی نیز ممکن است متوجه نباشند که چه اتفاقی در حال رخ دادن است. ریاضیات محرمانه در ML/DL ممکن است کشف سوگیری های پنهان در حال حاضر را دشوار کند. شما به حق امیدوارید و انتظار دارید که توسعهدهندگان هوش مصنوعی سوگیریهای بالقوه مدفون را آزمایش کنند، اگرچه این دشوارتر از آن چیزی است که به نظر میرسد. این احتمال وجود دارد که حتی با آزمایش نسبتاً گسترده، سوگیریهایی همچنان در مدلهای تطبیق الگوی ML/DL وجود داشته باشد.
میتوانید تا حدودی از ضربالمثل معروف یا بدنام زبالههای درون زبالهها استفاده کنید. مسئله این است که این بیشتر شبیه سوگیریهایی است که بهطور موذیانه بهعنوان سوگیریهایی که در هوش مصنوعی غوطهور میشوند، القا میشوند. الگوریتم تصمیمگیری (ADM) هوش مصنوعی به طور اصولی مملو از نابرابریها میشود.
خوب نیست.
بیایید به تمرکز خود بر روی اختلافات بین هوش مصنوعی و انسان برگردیم.
قبلاً اشاره کردم که اینها برخی از راهبردهای حل اختلاف هستند:
- هوش مصنوعی و انسان های گروهی کارها را انجام می دهند (دوستانه یا غیر دوستانه)
- انسان به طور پیش فرض بر هوش مصنوعی غلبه دارد
- هوش مصنوعی به طور پیش فرض بر انسان غالب است
- برخی دیگر از وضوحهای ثابت از پیش تعیینشده، بهطور پیشفرض غالب هستند
- انسان شخص ثالث حلقه ای است و نشانه آنها بر طرفین غالب است
- هوش مصنوعی شخص ثالث حلقه ای است و نشانه آن بر طرفین برتری دارد
- انسان شخص ثالث جایگزین انسان موجود می شود، همه چیز از نو پیش می رود
- هوش مصنوعی شخص ثالث جایگزین هوش مصنوعی موجود می شود، همه چیز دوباره پیش می رود
- انسان شخص ثالث جایگزین هوش مصنوعی موجود می شود، همه چیز دوباره پیش می رود (اکنون انسان به انسان)
- هوش مصنوعی شخص ثالث جایگزین انسان موجود می شود، همه چیز دوباره پیش می رود (اکنون هوش مصنوعی به هوش مصنوعی)
- دیگر
وقت آن است که اینها را باز کنیم.
اول، در نظر بگیرید که این همه چیز است حرفه ای اختلاف نظرها
یک اختلاف نظر حرفه ای به عنوان یک اختلاف نظر مرتبط با یک کار مرتبط با کار تعریف می شود.
به عنوان مثال، اختلاف نظر بین خلبان و کمک خلبان در مورد ادامه پروازی که در معرض طوفان است یا خیر، می تواند به طور منطقی به عنوان یک اختلاف نظر حرفه ای برچسب گذاری شود. در مقابل، یک اختلاف شدید در مورد اینکه خلبان از کدام مارک قهوه دفاع می کند در مقابل برندی که خلبان ترجیح می دهد، به راحتی در این زمینه خاص به عنوان یک اختلاف غیرحرفه ای طبقه بندی می شود.
البته، اگر یک اختلاف غیرحرفهای راه خود را به یک اختلاف نظر حرفهای تبدیل کند، ممکن است در نهایت به اختلاف غیرحرفهای به عنوان منبع فرضی یا جرقهای برای حرفهای علاقه مند باشیم. تصور کنید که یک خلبان و کمک خلبان به شدت در مورد اینکه کدام مارک قهوه بهترین است، بحث می کنند، که متأسفانه به نگرانی های خاص پرواز (جناس!) سرریز می شود، مانند اینکه آیا باید بلند شود یا نه.
دوم، ما باید بزرگی اختلافات حرفه ای را در نظر داشته باشیم.
شاید خلبان و کمک خلبان یا در مورد ادامه پرواز با یکدیگر اختلاف نظر داشته باشند. آنها با هم اختلاف ندارند و صرفاً در حال فکر کردن به مزایا و معایب این هستند که آیا برخاسته شوند یا خیر. این مقدار یا بزرگی یک اختلاف نظر حرفه ای نیست که ما معمولاً در اینجا در نظر می گیریم. مسئله این است که ممکن است این اختلاف نظر حرفه ای گذرا باشد و هر دو طرف صمیمانه یا حداقل به موقع به یک راه حل بپردازند. به طور کلی، تمرکز اختلافات حرفه ای در محدوده آن مواردی است که به ظاهر غیرقابل حل هستند و دو طرف به طور ثابت در اختلاف نظر باقی می مانند.
سوم، معمولاً باید چیزی به طور جدی در خط باشد تا این دستورالعمل ها وارد عمل شوند.
اگر پرواز به دلیل طوفان در خطر باشد یا هواپیما برای چنین سفری آمادگی کامل نداشته باشد، تصمیم گیری برای پرواز یا عدم پرواز یک تصمیم قطعی مرگ یا زندگی است. این یک تجارت جدی است. ما همچنان میتوانیم دستورالعملها را برای اختلاف نظرهای حرفهای کمتأثیرتر اعمال کنیم، اگرچه ممکن است بیشتر از ارزش آن آزاردهنده باشد.
خوب، ملاحظات ما این است که:
- این اختلاف عمدتاً حرفه ای است نه بر سر چیزهای غیرحرفه ای
- این اختلاف ماهیتی پایدار دارد و صرفاً گذرا یا به راحتی حل نمی شود
- اختلاف نظر عواقب جدی را پیشبینی میکند و معمولاً نتیجهای تأثیرگذار دارد
- طرفین با هم اختلاف دارند و به نظر غیرقابل حل می رسند
بیایید اکنون نگاهی دقیقتر به هر یک از دستورالعملها یا رویکردهای پیشنهادی من در رابطه با نحوه کنار آمدن با چنین اختلافات حرفهای بیندازیم.
هوش مصنوعی و انسان های گروهی کارها را انجام می دهند (دوستانه یا غیر دوستانه)
من فهرست را با این احتمال ساده شروع می کنم که هوش مصنوعی و انسان در حلقه قادر به حل اختلافات حرفه ای بین خودشان هستند. به نظر می رسد که شاید نمونه دو انسان، خلبان و کمک خلبان، گویای این نوع شرایط باشد. آنها به نوعی تصمیم گرفتند که به ترمینال برگردند و راه خود را بروند. ممکن است یک سیستم هوش مصنوعی و یک انسان بتوانند یک رویکرد حل و فصل را پیدا کنند که به طور کلی برای هر دو طرف رضایت بخش باشد و موضوع به طور رضایت بخش به نتیجه برسد.
انسان به طور پیش فرض بر هوش مصنوعی غلبه دارد
هنگام راهاندازی هوش مصنوعی، ممکن است قانونی را برنامهریزی کنیم که میگوید انسان در حلقه همیشه هر زمان که اختلاف نظر حرفهای ایجاد شود، غالب خواهد بود. این پیشفرض صراحتاً کدگذاری شده خواهد بود. ما همچنین ممکن است به نوعی از نادیده گرفتن اجازه دهیم، برای هر موردی، اگرچه قانون ثابت این است که انسان غالب است.
هوش مصنوعی به طور پیش فرض بر انسان غالب است
هنگام راهاندازی هوش مصنوعی، ممکن است قانونی را برنامهریزی کنیم که میگوید هر زمان که اختلاف نظر حرفهای ایجاد شود، هوش مصنوعی همیشه بر انسان در حلقه غالب خواهد بود. این پیش فرض صراحتاً کدگذاری شده است. ما همچنین ممکن است به نوعی از لغو اجازه دهیم، هر چند قانون ثابت این است که AI غالب است.
برخی دیگر از وضوحهای ثابت از پیش تعیینشده، بهطور پیشفرض غالب هستند
هنگام راهاندازی هوش مصنوعی، ممکن است قانونی را برنامهریزی کنیم که میگوید هر زمان که یک اختلاف نظر حرفهای با انسان در حلقه ایجاد شود، برخی وضوحهای ثابت از پیش تعیینشده دیگر غالب خواهند بود. انسان در حلقه به طور پیش فرض غالب نیست. هوش مصنوعی به طور پیش فرض غالب نیست. یک قطعنامه از پیش شناسایی شده دیگر وجود دارد. به عنوان مثال، شاید پرتاب سکه ای وجود داشته باشد که برای تصمیم گیری در مورد اینکه کدام یک از دو طرف مسیر درستی در نظر گرفته می شود، مورد استفاده قرار گیرد. این بدیهی است که به نظر خودسرانه می رسد. بنابراین روش مثال دیگری می تواند این باشد که یک قانون تخصصی به این صورت است که یک مقدار را بر اساس ورودی های دو طرف محاسبه می کند و به عنوان یک تساوی به نتیجه می رسد.
انسان شخص ثالث حلقه ای است و نشانه آنها بر طرفین غالب است
در صورت اختلاف نظر حرفه ای، یک قاعده می تواند این باشد که شخص ثالثی که یک انسان است، فراخوانده می شود و برای تصمیم گیری در مورد حل و فصل اختلافات، وارد محیط می شود. هوش مصنوعی به گونهای برنامهریزی شده است که به هر چیزی که شخص ثالث تصمیم میگیرد، موکول شود. از قبل به انسان در حلقه انسان در حلقه آموزش داده شده است که اگر چنین وضعیتی پیش آمد، آنها نیز باید به انسان شخص ثالث موکول شوند. بهعنوان کنار، احتمالاً میتوانید پیشبینی کنید که انسان در حلقه ممکن است از پیوستن به هر چیزی که شخص ثالث تصمیم میگیرد، در صورتی که تصمیم با وضعیت انسان در حلقه مخالف باشد، اضطراب داشته باشد.
هوش مصنوعی شخص ثالث حلقه ای است و نشانه آن بر طرفین برتری دارد
در صورت اختلاف نظر حرفه ای، یک قاعده می تواند این باشد که شخص ثالثی که سیستم هوش مصنوعی متفاوتی دارد، فراخوانی شده و در تنظیمات حلقه زده شود تا در مورد حل اختلاف نظر تصمیم گیری کند. هوش مصنوعی اصلی طوری برنامه ریزی شده است که هر آنچه که هوش مصنوعی شخص ثالث تصمیم می گیرد، موکول شود. به انسانهایی که قبلاً در «انسان در حلقه» هستند، قبلاً آموزش داده شده است که در صورت بروز چنین وضعیتی، آنها نیز باید به هوش مصنوعی شخص ثالث موکول شوند. بهعنوان کنار، احتمالاً میتوانید پیشبینی کنید که انسان در حلقه ممکن است از پیوستن به هر آنچه که هوش مصنوعی شخص ثالث تصمیم میگیرد، در صورتی که تصمیم با وضعیت انسان در حلقه مخالف باشد، اضطراب داشته باشد.
انسان شخص ثالث جایگزین انسان موجود می شود، همه چیز از نو پیش می رود
در صورت اختلاف نظر حرفه ای، شخص ثالثی که انسان است جایگزین انسان در حلقه می شود و از این پس تبدیل به انسان در حلقه می شود. انسانی که انسان در حلقه اولیه برای این کار بود، دیگر بخشی از کار در دست در نظر گرفته نمی شود. این یک جنبه باز است که در غیر این صورت با انسان-در-حلقه جایگزین شده چه اتفاقی می افتد، اما ما می گوییم که مطمئناً آنها دیگر هیچ نقش مستمری در کار کاری ندارند.
هوش مصنوعی شخص ثالث جایگزین هوش مصنوعی موجود می شود، همه چیز دوباره پیش می رود
پس از یک اختلاف نظر حرفه ای، هوش مصنوعی با یک هوش مصنوعی شخص ثالث جایگزین می شود و از این پس به هوش مصنوعی برای کار مورد استفاده تبدیل می شود. هوش مصنوعی که در ابتدا برای این کار مورد استفاده قرار می گرفت، دیگر بخشی از کار در دست نیست. این یک جنبه باز است که در غیر این صورت با هوش مصنوعی جایگزین شده چه اتفاقی می افتد، اما ما می گوییم که مطمئناً هوش مصنوعی دیگر هیچ نقش مستمری در کار کاری ندارد.
انسان شخص ثالث جایگزین هوش مصنوعی موجود می شود، همه چیز دوباره پیش می رود (اکنون انسان به انسان)
پس از یک اختلاف نظر حرفه ای، هوش مصنوعی با یک انسان شخص ثالث جایگزین می شود که برای آن فرد اکنون به عنوان طرف مشترک در نظر گرفته می شود که برای کار مورد نظر استفاده می شود. هوش مصنوعی که در ابتدا برای این کار مورد استفاده قرار می گرفت، دیگر بخشی از کار در دست نیست. این یک جنبه باز است که در غیر این صورت با هوش مصنوعی جایگزین شده چه اتفاقی می افتد، اما ما می گوییم که مطمئناً هوش مصنوعی دیگر هیچ نقش مستمری در کار کاری ندارد. به طور خلاصه، این اکنون تبدیل به یک کار دو طرفه انسان به انسان می شود.
هوش مصنوعی شخص ثالث جایگزین انسان موجود می شود، همه چیز دوباره پیش می رود (اکنون هوش مصنوعی به هوش مصنوعی)
پس از یک اختلاف نظر حرفه ای، انسان در حلقه با یک هوش مصنوعی شخص ثالث جایگزین می شود و این هوش مصنوعی از این پس تبدیل به تکمیل کننده برای انسان در حلقه قبلی می شود. انسانی که انسان در حلقه اولیه برای این کار بود، دیگر بخشی از کار در دست در نظر گرفته نمی شود. این یک جنبه باز است که در غیر این صورت با انسان-در-حلقه جایگزین شده چه اتفاقی می افتد، اما ما می گوییم که مطمئناً آنها دیگر هیچ نقش مستمری در کار کاری ندارند. به طور خلاصه، این اکنون تبدیل به یک هوش مصنوعی دو طرفه برای انجام وظیفه می شود.
دیگر
می توان انواع دیگری را برای مقابله با اختلاف نظر حرفه ای ابداع کرد، اما ما در اینجا به برخی از اصلی ترین آنها پرداخته ایم.
چگونه تصمیم بگیریم که کدام یک از این رویکردها برای یک موقعیت خاص مناسب است؟
طیف گسترده ای از مسائل در چنین انتخابی وجود دارد. ملاحظات تکنولوژیکی وجود دارد. ملاحظات تجاری وجود دارد. ملاحظات قانونی و اخلاقی وجود دارد.
تا حدودی، به همین دلیل است که اخلاق هوش مصنوعی و هوش مصنوعی اخلاقی یک موضوع بسیار مهم است. دستورات اخلاق هوش مصنوعی ما را وادار می کند که هوشیار بمانیم. فنآوران هوش مصنوعی ممکن است در مواقعی با فناوری، بهویژه بهینهسازی فناوریهای پیشرفته، مشغول شوند. آنها لزوماً پیامدهای اجتماعی بزرگتر را در نظر نمی گیرند. داشتن یک ذهنیت اخلاقی هوش مصنوعی و انجام این کار به طور یکپارچه برای توسعه و میداندهی هوش مصنوعی برای تولید هوش مصنوعی مناسب حیاتی است، از جمله (شاید شگفتانگیز یا طنزآمیز) ارزیابی نحوه پذیرش اخلاق هوش مصنوعی توسط شرکتها.
علاوه بر به کارگیری اصول اخلاقی هوش مصنوعی به طور کلی، یک سوال مربوط به این موضوع وجود دارد که آیا ما باید قوانینی برای کنترل کاربردهای مختلف هوش مصنوعی داشته باشیم. قوانین جدیدی در سطوح فدرال، ایالتی و محلی وضع می شود که به محدوده و ماهیت چگونگی ابداع هوش مصنوعی مربوط می شود. تلاش برای تدوین و تصویب چنین قوانینی تدریجی است. اخلاق هوش مصنوعی حداقل به عنوان یک توقف در نظر گرفته شده عمل می کند و تقریباً مطمئناً تا حدی مستقیماً در آن قوانین جدید گنجانده می شود.
توجه داشته باشید که برخی قاطعانه استدلال می کنند که ما به قوانین جدیدی که هوش مصنوعی را پوشش می دهد نیازی نداریم و قوانین موجود ما کافی است. در واقع، آنها از قبل هشدار میدهند که اگر برخی از این قوانین هوش مصنوعی را به اجرا بگذاریم، با مهار پیشرفتهای هوش مصنوعی که مزایای اجتماعی عظیمی را ارائه میدهد، غاز طلایی را خواهیم کشت.
در این مقطع از این بحث سنگین، شرط می بندم که شما خواهان نمونه های گویا هستید که ممکن است این موضوع را به نمایش بگذارد. مجموعهای از نمونههای خاص و مطمئناً محبوب وجود دارد که به دلم نشسته است. ببینید، به عنوان یک متخصص در زمینه هوش مصنوعی از جمله پیامدهای اخلاقی و قانونی، اغلب از من خواسته میشود که نمونههای واقعبینانهای را که معضلات اخلاقی هوش مصنوعی را نشان میدهند شناسایی کنم تا بتوان ماهیت تا حدودی نظری موضوع را راحتتر درک کرد. یکی از جذابترین زمینههایی که این معضل اخلاقی هوش مصنوعی را به وضوح نشان میدهد، ظهور خودروهای خودران واقعی مبتنی بر هوش مصنوعی است. این به عنوان یک مورد استفاده مفید یا نمونه ای برای بحث و گفتگوی کافی در مورد موضوع خواهد بود.
پس در اینجا یک سوال قابل توجه وجود دارد که قابل تامل است: آیا ظهور خودروهای خودران واقعی مبتنی بر هوش مصنوعی چیزی را در مورد حل اختلافات هوش مصنوعی و انسانی روشن می کند، و اگر چنین است، این چه چیزی را نشان می دهد؟
یک لحظه به من اجازه دهید تا پرسش را باز کنم.
اول، توجه داشته باشید که هیچ راننده انسانی در یک ماشین خودران واقعی دخیل نیست. به خاطر داشته باشید که خودروهای خودران واقعی از طریق سیستم رانندگی هوش مصنوعی هدایت می شوند. نه نیازی به راننده انسان پشت فرمان وجود دارد و نه پیش بینی ای برای رانندگی وسیله نقلیه توسط انسان وجود دارد. برای پوشش گسترده و مداوم من در مورد وسایل نقلیه خودران (AVs) و به خصوص خودروهای خودران، نگاه کنید به پیوند اینجا.
مایلم بیشتر توضیح دهم که منظور از خودروهای خودران واقعی چیست.
درک سطح اتومبیل های خودران
به عنوان یک توضیح، خودروهای خودران واقعی، خودروهایی هستند که هوش مصنوعی خودرو را کاملاً به تنهایی رانندگی می کند و هیچ کمک انسانی در طول کار رانندگی وجود ندارد.
این وسایل نقلیه بدون راننده سطح 4 و سطح 5 در نظر گرفته می شوند (توضیحات من را در اینجا ببینید این لینک در اینجا) ، در حالی که خودرویی که نیاز به یک راننده انسانی برای مشارکت در رانندگی دارد معمولاً در سطح 2 یا سطح 3 در نظر گرفته می شود. افزودنی های خودکار که به عنوان ADAS (سیستم های کمک راننده پیشرفته) شناخته می شوند.
هنوز یک خودروی خودران واقعی در سطح 5 وجود ندارد، و ما هنوز حتی نمی دانیم که آیا امکان دستیابی به آن وجود دارد یا خیر، و نه اینکه چقدر طول می کشد تا به آنجا برسیم.
در همین حال ، تلاش های سطح 4 به تدریج در تلاشند تا با انجام آزمایشات عمومی بسیار باریک و انتخابی در جاده ها ، کمی به سمت خود جلب کنند ، هرچند در مورد اینکه آیا این آزمایش به خودی خود مجاز است یا خیر ، اختلاف نظر وجود دارد (همه ما در یک آزمایش خوکچه هندی زنده یا مرگ هستیم) برخی از آنها ادعا می كنند كه در بزرگراهها و گذرگاههای ما در حال انجام است این لینک در اینجا).
از آنجا که اتومبیل های نیمه خودمختار به یک راننده انسانی احتیاج دارند ، تصویب آن دسته از اتومبیل ها تفاوت چندانی با رانندگی وسایل نقلیه معمولی نخواهد داشت ، بنابراین به تنهایی چیز جدیدی برای پوشش آنها در این موضوع وجود ندارد (هر چند ، همانطور که خواهید دید در یک لحظه ، نکات بعدی که بطور کلی اعمال می شود).
در مورد اتومبیل های نیمه خودمختار ، مهم است که در مورد جنبه نگران کننده ای که اخیراً بوجود آمده است ، هشدار داده شود ، یعنی این که با وجود آن رانندگان انسانی که با ارسال فیلم هایی از خودشان ، در حال خوابیدن در چرخ یک اتومبیل سطح 2 یا سطح 3 هستند. ، همه ما باید از اینكه گمان نرود راننده بتواند هنگام رانندگی یك اتومبیل نیمه خودمختار ، توجه خود را از وظیفه رانندگی دور كند ، خودداری كنیم.
شما مسئولیت اقدامات رانندگی وسیله نقلیه ، صرفنظر از میزان اتوماسیون در سطح 2 یا سطح 3 ، مسئولیت مسئولیت مسئولیت شما می باشد.
اتومبیل های خودران و اختلاف نظر هوش مصنوعی در مقابل انسان
برای وسایل نقلیه خود رانندگی واقعی سطح 4 و سطح 5 ، یک راننده انسانی درگیر در وظیفه رانندگی نخواهد بود.
همه سرنشینان مسافر خواهند بود.
هوش مصنوعی رانندگی را انجام می دهد.
یک جنبه برای بحث فوری این واقعیت را در بر دارد که هوش مصنوعی در سیستم های رانندگی هوش مصنوعی امروزی حساس نیست. به عبارت دیگر ، هوش مصنوعی در مجموع مجموعه ای از برنامه نویسی و الگوریتم های مبتنی بر رایانه است و مطمئناً قادر به استدلال به همان روشی نیست که انسان می تواند.
چرا این تاکید اضافی در مورد هوش مصنوعی نیست؟
از آنجا که می خواهم تأکید کنم هنگام بحث در مورد نقش سیستم رانندگی AI ، من خصوصیات انسانی را به AI نسبت نمی دهم. لطفاً توجه داشته باشید که این روزها تمایل مستمر و خطرناکی برای انسان سازی AI وجود دارد. در حقیقت ، افراد حساسیتی شبیه انسان به هوش مصنوعی امروزی دارند ، علی رغم این واقعیت انکارناپذیر و غیرقابل انکار که هنوز چنین هوش مصنوعی وجود ندارد.
با این توضیحات ، می توانید تصور کنید که سیستم رانندگی هوش مصنوعی بطور طبیعی از جنبه های رانندگی "آگاهی" نداشته باشد. رانندگی و همه آنچه که شامل می شود باید به عنوان بخشی از سخت افزار و نرم افزار اتومبیل خودران برنامه ریزی شوند.
بیایید به جنبه های بی شماری بپردازیم که در این موضوع بازی می شوند.
اول، مهم است که بدانیم همه خودروهای خودران با هوش مصنوعی یکسان نیستند. هر خودروساز و شرکت فناوری خودران رویکرد خود را برای ابداع خودروهای خودران در پیش گرفته است. به این ترتیب، اظهار نظر گسترده در مورد اینکه سیستم های رانندگی هوش مصنوعی چه کاری انجام خواهند داد یا انجام نمی دهند، دشوار است.
علاوه بر این ، هرگاه بیان شود که سیستم رانندگی هوش مصنوعی کار خاصی انجام نمی دهد ، بعداً توسعه دهندگانی که در واقع کامپیوتر را برای انجام این کار برنامه ریزی می کنند ، می توانند از این امر پیشی بگیرند. گام به گام ، سیستم های رانندگی هوش مصنوعی به تدریج در حال بهبود و گسترش هستند. امروزه محدودیت موجود ممکن است دیگر در نسخه یا نسخه بعدی سیستم وجود نداشته باشد.
امیدوارم که اخطارهای فراوانی را برای زیربنای آنچه که می خواهم بیان کنم، ارائه دهد.
برای وسایل نقلیه کاملاً خودمختار ممکن است هیچ شانسی برای اختلاف نظر حرفه ای بین انسان و هوش مصنوعی وجود نداشته باشد، زیرا این احتمال وجود دارد که هیچ انسانی در حلقه برای شروع وجود نداشته باشد. آرزوی بسیاری از سازندگان خودروهای خودران امروزی حذف کامل راننده انسان از وظیفه رانندگی است. این وسیله نقلیه حتی شامل کنترلهای رانندگی قابل دسترسی انسان نخواهد بود. در این صورت، یک راننده انسانی، در صورت حضور، نمیتواند در کار رانندگی شرکت کند زیرا به هیچ گونه کنترل رانندگی دسترسی ندارند.
برای برخی از وسایل نقلیه کاملاً خودمختار، برخی از طرحها هنوز به انسان اجازه میدهند که در جریان باشد، اگرچه انسان اصلاً لازم نیست در دسترس باشد یا در فرآیند رانندگی شرکت کند. بنابراین در صورت تمایل انسان می تواند در رانندگی شرکت کند. در هیچ نقطه ای، هوش مصنوعی برای انجام هر یک از وظایف رانندگی به انسان وابسته نیست.
در مورد وسایل نقلیه نیمه خودران، یک رابطه دست به دست بین راننده انسان و هوش مصنوعی وجود دارد. راننده انسان می تواند کنترل های رانندگی را به طور کامل در اختیار بگیرد و اساساً هوش مصنوعی را از مشارکت در رانندگی باز دارد. اگر راننده انسانی بخواهد هوش مصنوعی را به نقش رانندگی بازگرداند، میتواند این کار را انجام دهد، اگرچه گاهی اوقات انسان مجبور میشود کنترلهای رانندگی را رها کند.
شکل دیگری از عملیات نیمه خودمختار مستلزم این است که راننده انسانی و هوش مصنوعی به صورت گروهی با هم کار کنند. هوش مصنوعی رانندگی می کند و انسان رانندگی می کند. آنها با هم رانندگی می کنند. هوش مصنوعی ممکن است به انسان منتقل شود. انسان ممکن است به هوش مصنوعی سر باز بزند.
در مقطعی، سیستم رانندگی هوش مصنوعی و راننده انسانی در حلقه ممکن است به نقطهای از «اختلاف حرفهای» در مورد وظیفه رانندگی برسند.
برای نشان دادن اینکه چگونه اجرای برخی از قوانین فوق الذکر در برخورد با یک اختلاف نظر حرفه ای می تواند چالش برانگیز باشد، نمونه ای از فراخوانی شخص ثالث برای ورود به موضوع و ارائه تصمیم برای حل مشکل حل نشده را در نظر بگیرید.
فرض کنید یک خودروساز یا شرکت فناوری خودران ترتیبی داده است که اپراتورهای انسانی از راه دور به کنترل های رانندگی وسایل نقلیه در ناوگان خود دسترسی داشته باشند. اپراتور انسانی در دفتر یا محیطی مشابه نشسته است. از طریق یک سیستم کامپیوتری، آنها می توانند صحنه رانندگی را از طریق دسترسی به دوربین ها و سایر دستگاه های حسگر بارگذاری شده روی خودروی خودران مشاهده کنند. برای آنها، این تقریباً مانند بازی کردن یک بازی ویدیویی آنلاین است، اگرچه، البته، شرایط واقعی زندگی عواقب بالقوه وخیمی دارد.
یک سیستم هوش مصنوعی و یک راننده انسانی در داخل ماشین در حال رانندگی یک وسیله نقلیه نیمه خودکار در یک بزرگراه طولانی هستند. ناگهان هوش مصنوعی میخواهد به داخل یک گودال هدایت شود. راننده انسان نمی خواهد این کار را انجام دهد. این دو در حال دعوا بر سر کنترل های رانندگی هستند.
این چگونه حل خواهد شد؟
شاید میتوانستیم از قبل تثبیت کنیم که انسان همیشه برنده است. فرض کنید که ما ترجیح دادیم این کار را انجام ندهیم.
میتوانستیم از قبل تثبیت کنیم که هوش مصنوعی همیشه برنده است. فرض کنید ما تصمیم گرفتیم این کار را انجام ندهیم. در مجموع، ما هیچ یک از آن قوانین را قبول نکردیم، به جز اینکه تصمیم گرفتیم به یک شخص ثالث اجازه مداخله و حل یک اختلاف نظر حرفه ای با هر ماهیت اساسی را بدهیم.
در این مورد، هوش مصنوعی و راننده انسانی در فرمان برای کنترلهای رانندگی میجنگند. این به عنوان مثال به اپراتور انسانی از راه دور (انسان شخص ثالث ما) منتقل می شود. اپراتور انسانی از راه دور آنچه را که در حال وقوع است بررسی می کند و تصمیم می گیرد از خندق دور شود و ظاهراً از کاری که هوش مصنوعی می خواست انجام دهد جلوگیری می کند. در همان زمان، فرض کنید اپراتور انسانی از راه دور به سمت ترافیک مقابل هدایت میشود، کاری که شاید نه هوش مصنوعی و نه راننده انسانی داخل خودرو نمیخواستند انجام دهند.
نکته این است که نحوه اجرای این قانون این است که اپراتور انسانی شخص ثالث قادر است هم هوش مصنوعی و هم انسان در حلقه را به طور کامل نادیده بگیرد. مطمئناً مطمئن نیست که آیا این امر نتیجه خوبی خواهد داشت یا خیر.
من از این مثال برای برجسته کردن برخی از بینش های اضافی در مورد این موارد استفاده خواهم کرد.
شما نمی توانید این فرض وقیحانه را بکنید که فقط به دلیل اینکه یکی از این قوانین وضع شده است، نتیجه اختلاف حل شده لزوماً یک نتیجه خوب تضمین شده است. ممکن است نباشد. هیچ نوع قاعده همیشه درست آهنینی وجود ندارد که بتوان آن را انتخاب کرد.
در مرحله بعد، برخی از این قوانین ممکن است به طور قابل اجرا قابل اجرا نباشند.
مثالی از مداخله اپراتور انسانی از راه دور زمانی که هوش مصنوعی و راننده انسانی در حال دعوا بر سر کنترل های رانندگی هستند را در نظر بگیرید. ممکن است چند ثانیه طول بکشد تا اپراتور انسانی راه دور بفهمد چه اتفاقی در حال رخ دادن است. در آن زمان، خودرو ممکن است قبلاً در گودال ختم شده باشد یا پیامدهای نامطلوب دیگری داشته باشد. همچنین، فرض کنید که مکان وسیله نقلیه مانع از دسترسی از راه دور مانند قرار گرفتن در مکانی است که اتصال الکترونیکی شبکه وجود ندارد. یا شاید ویژگی های شبکه ای خودرو در آن لحظه خاص کار نمی کند.
همانطور که می بینید، این قانون ممکن است روی کاغذ شیک به نظر برسد، اگرچه قرار دادن این قانون در استفاده واقعی ممکن است یک رویکرد بسیار دشوار یا بسیار شانسی باشد. پوشش انتقادی من در مورد اپراتور از راه دور وسایل نقلیه خودران و خودروهای خودران را در اینجا ببینید پیوند اینجا.
مایلم به طور خلاصه به موضوع مرتبط دیگری بپردازم که در تجزیه و تحلیل آینده به طور عمیق تر به آن خواهم پرداخت.
یکی از نگرانی های فزاینده در مورد وسایل نقلیه خودران و خودروهای خودران که نیمه خودران هستند، به اصطلاح سندرم سیب زمینی داغ.
این معامله است.
یک سیستم رانندگی هوش مصنوعی و یک انسان در حال رانندگی هستند. یک مخمصه وحشتناک به وجود می آید. هوش مصنوعی به گونه ای برنامه ریزی شده است که از وظیفه رانندگی کناره گیری کند و در زمان وقوع یک لحظه بد، همه چیز را به انسان بسپارد. این احتمالاً «معقول» به نظر میرسد، زیرا به نظر میرسد که ما در حال استناد به قاعدهای در مورد انسان «برنده» پیشفرض در هر اختلاف نظر حرفهای بالقوه هستیم.
اما کنار گذاشتن هوش مصنوعی ممکن است برای مقاصد شیطانی تر یا موذیانه تلقی شود. ممکن است این خودروساز یا شرکت فناوری خودران نخواهند که هوش مصنوعی آنها به عنوان "طرف مقصر" در هنگام تصادف رانندگی در نظر گرفته شود. برای اینکه ظاهراً به این شکل گرفتار نشوید، هوش مصنوعی به طور ناگهانی کنترلها را به انسان میدهد. وایلا، اکنون احتمالاً انسان کاملاً مسئول وسیله نقلیه است.
نکته اصلی این است که فرض کنید هوش مصنوعی این انتقال را در حالی انجام می دهد که فرض کنید یک ثانیه مانده به وقوع تصادف باقی مانده است.
آیا انسان واقعاً زمان در دسترس برای جلوگیری از سقوط خواهد داشت؟
به احتمال زیاد نه.
فرض کنید هوش مصنوعی در فاصله چند میلی ثانیه یا نانوثانیه باقی مانده تا پایان کار را انجام می دهد. به جرات می توانم بگویم که انسان اساساً هیچ شانسی برای انجام هر کاری برای جلوگیری از سقوط ندارد.
از منظر خودروساز یا شرکت خودروهای خودران، آنها می توانند سعی کنند در هنگام وقوع چنین تصادفی، طوری رفتار کنند که انگار دستانشان تمیز است. ماشین را یک انسان هدایت می کرد. هوش مصنوعی ماشین را نمی راند. به نظر می رسد تنها نتیجه «منطقی» این باشد که انسان باید مقصر باشد و هوش مصنوعی باید کاملاً بی تقصیر باشد.
این یک خمره است.
من در ستون آینده به طور عمیق تر در مورد این بحث خواهم کرد.
نتیجه
اختلافات حرفه ای قرار است رخ دهد.
تصور هر کار پیچیدهای که دو طرف آن کار را با هم انجام میدهند و هرگز برای آن اختلاف نظر حرفهای پیش نمیآید، دشوار است. به نظر می رسد این یک سرزمین فانتزی یا حداقل یک نادر بزرگ است.
امروز، ما نمونههای بسیار زیادی از اختلافات حرفهای بین انسانها داریم، که بهصورت روزانه، قطعنامههای صلحآمیز و معقولانه برای آنها به هر طریقی مشخص میشوند. در واقع، ما اغلب موقعیتهایی را عمداً برای ایجاد و آشکار کردن اختلافات حرفهای تنظیم میکنیم. ممکن است استدلال کنید که این حکمت مشهور را نشان می دهد که گاهی اوقات دو سر بهتر از یک سر هستند.
همانطور که هوش مصنوعی رواج بیشتری می یابد، ما تعداد زیادی از وظایف دو طرفه هوش مصنوعی به انسان یا انسان به هوش مصنوعی خواهیم داشت و وجود خواهد داشت. اختلافات حرفه ای که رخ خواهد داد. رویکرد تنبلی این است که همیشه به انسان موکول شود. این ممکن است مناسب ترین رویکرد نباشد. هوش مصنوعی ممکن است انتخاب بهتری باشد. یا یکی از قوانین ذکر شده دیگر ممکن است رویکرد صحیح تری باشد.
این جمله حکیم است که اغلب تکرار می شود که همه ما باید به طور کلی بتوانیم با مخالفت موافقت کنیم، اگرچه وقتی بحث به پایان می رسد، گاهی اوقات یک اختلاف باید به صراحت حل شود، در غیر این صورت موضوع مورد نظر به فاجعه ناگفته ای منجر می شود. ما نمیتوانیم اجازه دهیم که یک اختلاف بر سر تاک فرو رود. زمان ممکن است مهم باشد و زندگی ممکن است در خطر باشد.
یک نیاز واضح برای برخی از ابزارهای محتاطانه برای حل اختلافات وجود دارد، حتی اگر لزوماً موافق نباشد، از جمله زمانی که هوش مصنوعی و انسان در حلقه چشم به چشم یا بایت به بایت را نمی بینند.
من اطمینان دارم که شما با آن بحث کاملاً موافق مخالف نخواهید بود.
منبع: https://www.forbes.com/sites/lanceeliot/2022/07/23/ai-ethics-and-autonomous-systems-lessons-gleaned-from-that-recent-alaska-airlines-flight-where- خلبان-و-کمک-خلبان-قبل از-برخاستن-موافق-و-به-تاکسی-بازگشت-به-ترمینال-و-رفتن-راه-جدا/