اخلاق هوش مصنوعی و تلاش برای خودآگاهی در هوش مصنوعی

آیا خودآگاه هستید؟

شرط می بندم باور می کنی که هستی

مسئله این است که ظاهراً تعداد کمی از ما به ویژه خودآگاه هستیم. دامنه یا درجه ای از خودآگاهی وجود دارد و ظاهراً همه ما در میزان خودآگاهی زیرکانه خود متفاوت هستیم. ممکن است فکر کنید که کاملاً خودآگاه هستید و فقط به طور جزئی چنین هستید. ممکن است کمی خودآگاه باشید و متوجه شوید که این وضعیت ذهنی شماست.

در همین حال، در بالاترین بخش طیف، ممکن است فکر کنید که کاملاً خودآگاه هستید و در واقع به همان اندازه خودآگاه هستید. خوش به حالت.

وقتی صحبت از آن شد، خودآگاهی بیش از حد چه فایده ای دارد؟

طبق تحقیقات منتشر شده در کسب و کار هاروارد را نقد کنید (HBR) توسط Tasha Eurich، گزارش شده است که شما می توانید تصمیمات بهتری بگیرید، در تصمیمات خود مطمئن تر هستید، در ظرفیت های ارتباطی خود قوی تر هستید و در مجموع موثرتر هستید (در مقاله با عنوان "خودآگاهی واقعا چیست (و چگونه عامل پاداش این است که گفته می شود کسانی که خودآگاهی شدید دارند کمتر تمایل به تقلب، دزدی یا دروغگویی دارند. تلاش برای اینکه انسان بهتری باشید و همنوعان خود را آراسته کنید.

همه این صحبت ها در مورد خودآگاهی یک سوال تا حدودی واضح را به همراه دارد، یعنی اینکه عبارت خودآگاهی در واقع به چه معناست. شما به آسانی می توانید هزاران تعاریف و تفاسیر مختلف را در مورد این مجموعه بیابید و آیا می توانیم بگوییم ساختاری نرم که مستلزم خودآگاهی است. برخی با بیان این که خودآگاهی شامل نظارت بر خود شما و دانستن اینکه خودتان چه کاری انجام می دهید، موضوع را ساده می کنند. شما به خوبی از افکار و اعمال خود آگاه هستید.

احتمالاً، زمانی که فرد خودآگاه نباشد، متوجه نمی شود که چه کاری انجام می دهد، و همچنین متوجه نمی شود که چرا این کار را انجام می دهد و همچنین از آنچه دیگران در مورد خود می گویند آگاه نیست. من مطمئن هستم که شما با افرادی روبرو شده اید که اینگونه هستند.

به نظر می‌رسد برخی از مردم بدون سرنخی از آنچه که خودشان انجام می‌دهند، روی زمین راه می‌روند، و شباهتی هم به آنچه دیگران درباره‌شان می‌گویند ندارند. حدس می‌زنم می‌توانید ادعا کنید که آنها مانند یک گاو نر در حال شارژ در یک بوتیک ظریف شکستنی هستند. ما معمولاً معتقدیم که گاو نمی‌داند دارد چه می‌کند و از دیدگاه‌های دیگران غافل می‌ماند، مگر اینکه دیگران سعی کنند به صورت فیزیکی روی موجودی بی‌خبر مانور دهند یا به دام بیاندازند.

گفته می شود که خودآگاهی می تواند تا حدودی بازگشتی باشد.

اجازه دهید برای توضیح این بازگشت مثالی را ترسیم کنم. شما در حال تماشای یک ویدیوی کاملاً جذاب از گربه در تلفن هوشمند خود هستید (به نظر می رسد همه این کار را انجام می دهند). برخی از مردم هیچ فکر ظاهری دیگری جز شیطنت های شگفت انگیز دلگرم گربه های عزیز ندارند. در همین حال، هرکسی که خودآگاهی کمی داشته باشد، آگاه است که در حال تماشای یک ویدیوی گربه است. آنها همچنین ممکن است بدانند که اطرافیانشان متوجه می شوند که در حال تماشای یک فیلم گربه هستند.

توجه داشته باشید که می توانید خودآگاه باشید و همچنان در یک فعالیت اولیه خاص غوطه ور باشید. فعالیت اصلی در این مورد، تماشای ویدیوی گربه است. ثانیا، و به طور همزمان، می توانید این فکر را داشته باشید که در واقع در حال تماشای یک ویدیوی گربه هستید. شما همچنین می توانید این فکر را داشته باشید که دیگران در حال تماشای شما در حال تماشای ویدیوی سرگرم کننده گربه هستید. لزوماً لازم نیست یک فعالیت را متوقف کنید، مثلاً تماشای ویدیوی گربه را متوقف کنید، تا به طور جداگانه فکر کنید که در حال تماشای یک ویدیوی گربه هستید (یا فقط در حال تماشای آن بودید). این افکار به ظاهر می توانند به موازات یکدیگر رخ دهند.

گاهی اوقات، خودآگاهی ما ممکن است ما را از یک فعالیت ذهنی اولیه بیرون کند یا حداقل آن را قطع کند. شاید، در حالی که به تماشای ویدیوی گربه فکر می کنید، ذهن شما تا حدی منحرف می شود زیرا تمرکز بیش از حد بر روی خود ویدیو زیاد است. شما تصمیم می‌گیرید سپس ویدیو را به عقب برگردانید تا بخشی را که به نوعی دیده‌اید، اما از درک کامل آن حواس‌تان پرت شده بود، دوباره بازدید کنید. خودآگاهی فعالیت ذهنی اولیه شما را مختل کرد.

خوب، ما اکنون برای ظهور جنبه های بازگشتی آماده ایم.

آیا شما آماده هستید؟

شما در حال تماشای یک فیلم گربه هستید. خودآگاهی شما به شما اطلاع می دهد که در حال تماشای یک ویدیوی گربه هستید و دیگران در حال تماشای شما در حال تماشای ویدیو هستند. وضع موجود همین است.

بعداً یک جهش ذهنی اضافی انجام می دهید. شما شروع به فکر کردن در مورد خودآگاهی خود می کنید. شما خودآگاه هستید که خودآگاهی خود را درگیر می کنید. این به این شکل است: شما با ناامیدی از خود می‌پرسید که آیا من بیش از حد به تماشای ویدیوی گربه فکر می‌کنم؟ این یک لایه دیگر از خودآگاهی است. رتبه بندی خودآگاهی بر سایر خودآگاهی ها.

یک ضرب المثل قدیمی وجود دارد که می گوید تا آخر لاک پشت است. برای پدیده های خودآگاهی، می توانید:

  • از خودت بی خبر
  • خودآگاهی نسبت به خود
  • خودآگاهی از خودآگاهی خود از خود
  • خودآگاهی از خودآگاهی خود از خودآگاهی خود از خود
  • Ad Infinitum (یعنی و غیره)

شاید متوجه شده باشید که من قبلاً با ظرافت به این نکته اشاره می کردم که به نظر می رسد دو دسته اصلی خودآگاهی وجود دارد. یک نظریه خاص چنین فرض می کند که ما نوعی خودآگاهی درونی داریم که بر حالات درونی ما متمرکز است، و همچنین یک خودآگاهی بیرونی داریم که به سنجش ادراکات اطرافیانمان که ما را می بینند، کمک می کند.

طبق مقاله HBR، در اینجا تصویری سریع از دو نوع خودآگاهی تئوری‌شده ارائه می‌شود: «نخستین، که ما دوبله کردیم. خودآگاهی درونینشان می دهد که چقدر به وضوح ارزش ها، علایق، آرزوهای خود، تناسب با محیط، واکنش ها (از جمله افکار، احساسات، رفتارها، نقاط قوت و ضعف) و تأثیر بر دیگران را می بینیم. و در این حال دیگری این است: «دسته دوم، خودآگاهی بیرونی، یعنی درک اینکه دیگران چگونه به ما نگاه می کنند، بر اساس همان عوامل ذکر شده در بالا. تحقیقات ما نشان می‌دهد افرادی که می‌دانند دیگران چگونه آنها را می‌بینند، در نشان دادن همدلی و گرفتن دیدگاه‌های دیگران مهارت بیشتری دارند.»

یک ماتریس دو در دو یا چهار مربع مفید را می توان با بیان اینکه هم خودآگاهی درونی و هم بیرونی از زیاد به پایین متغیر است و می توانید این دو دسته را در مقابل یکدیگر قرار دهید، بدست آورید. تحقیقات HBR نشان می دهد که گفته می شود شما یکی از این چهار کهن الگوی خودآگاهی هستید:

  • درون نگر: خودآگاهی بیرونی پایین + خودآگاهی درونی بالا
  • جستجوگر: خودآگاهی بیرونی پایین + خودآگاهی درونی پایین
  • لطفا: خودآگاهی بیرونی بالا + خودآگاهی درونی پایین
  • آگاه: خودآگاهی بیرونی بالا + خودآگاهی درونی بالا

اوج کهن الگوی "آگاه" است که شامل قرار گرفتن در بالاترین سطح خودآگاهی بیرونی و همچنین در بالای خودآگاهی درونی است. برای روشن شدن، شما به این وضعیت افتخارآمیز به صورت لزوماً دائمی نمی رسید. شما می توانید بین بالا و پایین بودن، در هر دو حوزه خودآگاهی درونی و بیرونی، لغزش کنید. این می تواند به زمان روز، موقعیتی که در آن قرار دارید و تعدادی از عوامل برجسته دیگر بستگی داشته باشد.

اکنون که برخی از عناصر اساسی در مورد خودآگاهی را به خوبی پوشش داده ایم، می توانیم به دنبال پیوند دادن این موضوع با موضوع رفتارهای اخلاقی باشیم.

ادعای معمول در مورد خودآگاهی این است که وقتی خودآگاه هستید، احتمال بیشتری وجود دارد که بالاترین سطح را داشته باشید. این بدان معناست که همانطور که قبلاً اشاره شد، کمتر مستعد رفتارهای اخلاقی نامطلوب مانند دزدی، تقلب و دروغگویی هستید. دلیل این گرایش این است که فعال بودن خودآگاهی شما را متوجه می‌کند که رفتار شما ناپسند یا غیراخلاقی است. نه تنها خود را در حالی که به آب‌های غیراخلاقی گل آلود می‌پیچید، دستگیر می‌کنید، بلکه مستعد این هستید که خود را به عقب برگردانید و به زمین خشک (قداست قلمرو اخلاقی) هدایت کنید.

خودآگاهی به شما کمک می کند تا کنترل خود را به کار بگیرید.

احتمالاً یک تضاد زمانی رخ می دهد که خودآگاهی کمی وجود داشته باشد یا اصلاً وجود نداشته باشد، که نشان می دهد ممکن است فردی از تمایل خود به رفتارهای غیراخلاقی غافل باشد. شما می توانید ادعا کنید که چنین فردی ناآگاه ممکن است متوجه عملکرد نامطلوب خود نشود. شبیه به گاو نر در مغازه شکستنی، تا زمانی که چیزی آشکارا توجه آنها را جلب کند، بعید است که خودشان را کنترل کنند.

اتفاقاً همه این را نمی خرند. برخی استدلال می کنند که خودآگاهی می تواند به همان راحتی برای غیر اخلاقی بودن به کار رود. به عنوان مثال، یک بدکار ممکن است کاملاً خودآگاه باشد و از این که مرتکب خطا شده است، لذت می برد. خودآگاهی آنها حتی آنها را با شدت بیشتری به سمت اعمال بد رفتاری بزرگتر و بزرگتر سوق می دهد.

در این مورد ابری بیش از آنچه که مستقیماً به چشم می آید وجود دارد. فرض کنید شخصی کاملاً خودآگاه است، اما از آداب اخلاقی یک جامعه یا فرهنگ معین بی اطلاع است. به این ترتیب علیرغم اینکه خودآگاه هستند، هیچ راهنمایی اخلاقی ندارند. یا، اگر دوست دارید، ممکن است آن شخص از احکام اخلاقی اطلاع داشته باشد و باور ندارد که در مورد آنها اعمال می شود. آنها خود را منحصر به فرد یا خارج از محدوده تفکر اخلاقی متعارف می دانند.

دور و بر آن می رود.

برخی به شدت تأکید می کنند که خودآگاهی می تواند به عنوان یک شمشیر اخلاق مدار دولبه تعبیر شود.

در حال حاضر، بیایید به سراغ نسخه چهره شاد برویم که شامل خودآگاهی است که ما را به سمت رفتارهای اخلاقی هدایت یا سوق می دهد. اگر همه چیز مساوی باشد، ما این فرض واهی را خواهیم داشت که هر چه خودآگاهی بیشتر باشد، از نظر اخلاقی بیشتر متمایل خواهید شد. مطمئناً به نظر می رسد که چنین آرزویی خشنود و الهام بخش است.

بیایید دنده ها را عوض کنیم و هوش مصنوعی (AI) را به تصویر بیاوریم.

ما در مقطعی در این بحث هستیم تا همه درهم‌تنیدگی‌ها را با قلمرو رو به رشد هوش مصنوعی اخلاقی، که معمولاً به عنوان اخلاق هوش مصنوعی نیز شناخته می‌شود، مرتبط کنیم. برای پوشش مداوم و گسترده من از اخلاق هوش مصنوعی، نگاه کنید پیوند اینجا و پیوند اینجا، فقط به نام چند.

مفهوم هوش مصنوعی اخلاقی مستلزم درهم تنیدگی حوزه اخلاق و رفتار اخلاقی با ظهور هوش مصنوعی است. مطمئناً سرفصل‌هایی را دیده‌اید که زنگ خطری را در مورد هوش مصنوعی که مملو از نابرابری‌ها و سوگیری‌های مختلف است به صدا درآورده‌اند. برای مثال، نگرانی‌هایی وجود دارد که سیستم‌های تشخیص چهره مبتنی بر هوش مصنوعی می‌توانند در مواقعی تبعیض نژادی و جنسیتی را از خود نشان دهند، معمولاً در نتیجه نحوه آموزش و پیاده‌سازی امکانات زیربنایی یادگیری ماشینی (ML) و یادگیری عمیق (DL) (به تحلیل من مراجعه کنید). در این لینک در اینجا).

تلاش برای متوقف کردن یا حداقل کاهش هجوم ناخوشایند به سمت هوش مصنوعی برای بد، متشکل از سیستم‌های هوش مصنوعی که یا سهوا یا در مواقعی عمداً به گونه‌ای شکل می‌گیرند که بد عمل می‌کنند، اخیراً یک فوریت برای اعمال قوانین اخلاقی در توسعه و استفاده از هوش مصنوعی وجود داشته است. هدف جدی ارائه راهنمایی های اخلاقی به توسعه دهندگان هوش مصنوعی، به علاوه شرکت هایی است که هوش مصنوعی می سازند یا به کار می گیرند، و آنهایی که به برنامه های کاربردی هوش مصنوعی وابسته هستند. به عنوان نمونه ای از اصول هوش مصنوعی اخلاقی که ساخته و پذیرفته شده اند، به پوشش من در اینجا مراجعه کنید پیوند اینجا.

برای در نظر گرفتن این سه سوال بسیار حیاتی یک لحظه تأملی در نظر بگیرید:

  • آیا می‌توانیم توسعه‌دهندگان هوش مصنوعی را وادار کنیم که اصول اخلاقی هوش مصنوعی را بپذیرند و از آن دستورالعمل‌ها استفاده واقعی کنند؟
  • آیا می‌توانیم شرکت‌هایی را که در زمینه هوش مصنوعی کار می‌کنند یا در زمینه هوش مصنوعی فعالیت می‌کنند، بخواهیم همین کار را انجام دهند؟
  • آیا می‌توانیم کسانی را که از هوش مصنوعی استفاده می‌کنند به طور مشابه از جنبه‌های هوش مصنوعی اخلاقی آگاه کنیم؟

من بی شرمانه این را می گویم، این یک دستور بلند است.

هیجان ساختن هوش مصنوعی می‌تواند بر هر تصوری از توجه به اخلاقیات هوش مصنوعی غلبه کند. خوب، نه فقط هیجان، بلکه پول درآوردن نیز جزء جدایی ناپذیر این معادله است. ممکن است تعجب کنید اگر بدانید که برخی از افراد در قلمرو هوش مصنوعی می‌توانند بگویند که وقتی سیستم‌های هوش مصنوعی خود را بیرون آوردند، با "موارد" اخلاقی هوش مصنوعی مقابله خواهند کرد. این مانترای معمولی فن‌آوری است که از شکست سریع مطمئن می‌شود و اغلب تا زمانی که آن را درست انجام ندهید شکست می‌خورید (امیدوارم درست انجام شود).

البته، آنهایی که به طور خلاصه هوش مصنوعی مشکوک اخلاقی را به عموم مردم پرتاب می کنند، اسب را از انبار خارج می کنند. ایده گسترده اعلام شده آنها این است که هوش مصنوعی برای بد پس از استفاده روزانه درست می شود، که به طور مضر دیر است زیرا اسب در حال حاضر به طور ناخواسته به اطراف می تازد. مضرات قابل انجام است. همچنین این احتمال وجود دارد که در حین استفاده از هوش مصنوعی هیچ چیز ثابت یا تنظیم نشود. بهانه مکرر این است که دستکاری با هوش مصنوعی در آن مقطع ممکن است وضعیت را از نظر تصمیم‌گیری الگوریتمی غیراخلاقی (ADM) بدتر کند.

چه کاری می توان انجام داد تا سودمندی و سرزندگی داشتن هوش مصنوعی اخلاقی به عنوان یک نور درخشان و هدایت کننده در ذهن کسانی که در حال ساخت هوش مصنوعی، میدان دادن به هوش مصنوعی و استفاده از هوش مصنوعی هستند، به دست آید؟

پاسخ: خودآگاهی.

بله، تصور این است که اگر مردم در مورد نحوه استفاده یا تعامل با هوش مصنوعی خودآگاه تر باشند، ممکن است تمایل آنها به این که بخواهند هوش مصنوعی اخلاقی یک هنجار باشد، افزایش می یابد. همین را می توان در مورد توسعه دهندگان هوش مصنوعی و شرکت های مرتبط با سیستم های هوش مصنوعی گفت. اگر آنها نسبت به کاری که انجام می دهند خودآگاهتر بودند، شاید بیشتر از اخلاق هوش مصنوعی استقبال می کردند.

بخشی از منطق همانطور که قبلاً ذکر شد این است که خودآگاه بودن باعث می‌شود که فرد از نظر اخلاقی بهتری باشد و همچنین از فردی شرور اخلاقی جلوگیری کند. اگر بتوانیم این فرض را ادامه دهیم، به این معنی است که توسعه دهندگان هوش مصنوعی که بیشتر به سمت خودآگاهی تمایل دارند، به سمت رفتارهای اخلاقی و بنابراین به سمت تولید هوش مصنوعی از نظر اخلاقی متمایل خواهند شد.

آیا آن پل برای شما خیلی دور است؟

برخی می گویند غیرمستقیم بودن کمی زیاد است. شاید به سختی بتوان زنجیره‌ای از پیوندهای بین خودآگاه بودن، از نظر اخلاقی فضیلت‌انگیز بودن و به‌کارگیری قوانین اخلاقی در هوش مصنوعی را درک کرد. یک استدلال متقابل این است که امتحان کردن ضرری ندارد.

بدبینان می‌گویند که یک توسعه‌دهنده هوش مصنوعی ممکن است خودآگاه باشد و احتمالاً اخلاقی‌تر فکر می‌کند، اما آنها لزوماً به سمت اعمال این اردوگاه ذهنی در آداب و رسوم هوش مصنوعی اخلاقی جهش نمی‌کنند. پاسخ به این شک و تردید این است که اگر بتوانیم موضوعات مربوط به هوش مصنوعی اخلاقی را عمومی و عمومی کنیم، ارتباط به ظاهر ضعیف‌تر واضح‌تر، مورد انتظارتر و احتمالاً به روش استاندارد انجام کارها در هنگام ساخت هوش مصنوعی تبدیل خواهد شد.

من اکنون می خواهم یک پیچ و تاب به این حماسه اضافه کنم. پیچش ممکن است سر شما را به چرخش درآورد. لطفاً مطمئن شوید که به خوبی نشسته اید و برای آنچه که من می خواهم نشان دهم آماده باشید.

برخی اشاره می کنند که ما باید هوش مصنوعی اخلاقی را مستقیماً در خود هوش مصنوعی بسازیم.

ممکن است از این جمله متعجب شوید. بیایید آن را باز کنیم.

یک برنامه نویس ممکن است یک سیستم هوش مصنوعی ایجاد کند و این کار را با خودآگاهی برنامه نویسی خود در تلاش برای جلوگیری از تجسم تعصبات و نابرابری های هوش مصنوعی انجام دهد. به‌جای اینکه برنامه‌نویسی را کنار بگذارد، توسعه‌دهنده مراقب خود است تا بپرسد آیا رویکردی که در پیش گرفته‌اند منجر به عدم وجود عناصر نامطلوب در هوش مصنوعی می‌شود یا خیر.

عالی است، ما یک توسعه‌دهنده هوش مصنوعی داریم که به نظر می‌رسد به اندازه کافی خودآگاه است، به دنبال رفتارهای اخلاقی بوده است، و هنگام ساختن سیستم هوش مصنوعی خود، قوانین اخلاقی را شامل می‌شود.

برای هوش مصنوعی اخلاقی برنده شوید!

همه چیز خوب و خوب است، هرچند اینجا چیزی است که بعداً ممکن است رخ دهد. هوش مصنوعی آماده شده و مورد استفاده روزانه قرار می گیرد. بخشی از هوش مصنوعی شامل مؤلفه‌ای برای «یادگیری» در پرواز بود. این بدان معنی است که هوش مصنوعی می تواند خود را بر اساس داده های جدید و سایر جنبه های برنامه نویسی اصلی تنظیم کند. در کنار این، این به معنای حساس بودن هوش مصنوعی نیست. ما هوش مصنوعی نداریم. آن عناوین مضطرب را که می گویند ما انجام می دهیم نادیده بگیرید. هیچ‌کس نمی‌تواند بگوید که آیا ما هوش مصنوعی خواهیم داشت یا نه، و همچنین هیچ‌کس نمی‌تواند به اندازه کافی پیش‌بینی کند که آیا این اتفاق خواهد افتاد یا خیر.

با بازگشت به داستان ما، هوش مصنوعی به طور هدفمند ابداع شد تا در حین کار، خود را بهبود بخشد. یک ایده کاملا مفید. به جای اینکه برنامه نویسان مجبور به بهبود مستمر باشند، آنها به برنامه هوش مصنوعی اجازه می دهند که این کار را به تنهایی انجام دهد (اوه، آیا این کار شما را از دست داده است؟).

در طول مدت زمانی که هوش مصنوعی اینچ به اینچ خود را تنظیم می کند، معلوم می شود که نابرابری ها و سوگیری های مخرب مختلف با اعمال تغییرات خود به سیستم هوش مصنوعی نفوذ می کنند. در حالی که برنامه نویس در ابتدا این جنبه های مبهم را حفظ می کرد، آنها اکنون به دلیل تنظیم هوش مصنوعی در حال فرمول بندی هستند. متأسفانه، این می تواند به گونه ای ظریف در پشت صحنه اتفاق بیفتد که هیچ کس عاقل تر نباشد. آنهایی که قبلاً ممکن بود پس از آزمایش جامع اولیه به هوش مصنوعی چراغ سبز نشان دهند، اکنون کورکورانه از این که هوش مصنوعی مسیر پوسیده را طی کرده است، بی اطلاع هستند. هوش مصنوعی برای بد.

یکی از راه‌های جلوگیری یا دست‌کم گرفتن این ظهور نامطلوب، ایجاد نوعی کنترل دوگانه هوش مصنوعی اخلاقی در هوش مصنوعی است. یک مؤلفه در هوش مصنوعی برای مشاهده رفتار هوش مصنوعی و تشخیص اینکه آیا ADM غیراخلاقی شروع به ظهور کرده است برنامه ریزی شده است. در این صورت، این مؤلفه ممکن است یک هشدار برای توسعه دهندگان هوش مصنوعی ارسال کند یا این کار را برای شرکتی که سیستم هوش مصنوعی را اجرا می کند، ارسال کند.

نسخه پیشرفته‌تر این مؤلفه ممکن است سعی کند هوش مصنوعی را تعمیر کند. این یک تعدیل تنظیمات خواهد بود و جنبه های غیراخلاقی ناشی از آن را به پارامترهای اخلاقی مناسب برمی گرداند. می توانید تصور کنید که این نوع برنامه نویسی مشکل است. این احتمال وجود دارد که ممکن است به بیراهه برود و احتمالاً غیراخلاقی را به عمیقاً غیراخلاقی تبدیل کند. همچنین احتمال مثبت کاذب وجود دارد که مؤلفه را وارد عمل کند و ممکن است همه چیز را بر این اساس بهم بریزد.

به هر حال، بدون اینکه درگیر نحوه عملکرد این چکگر دوگانه باشیم، می‌خواهیم در مورد آن اظهارنظری جسورانه ارائه کنیم. می توانید پیشنهاد کنید که به روشی محدود، گفته می شود که هوش مصنوعی خودآگاه است.

بله، اینها برای خیلی ها کلمات جنگی هستند.

باور غالب تقریباً همه این است که هوش مصنوعی امروزی خودآگاه نیست. نقطه، نقطه. تا زمانی که به هوش مصنوعی نرسیده باشیم، که نمی دانیم آیا این اتفاق می افتد یا نه، هیچ نوع هوش مصنوعی وجود ندارد که خودآگاه باشد. حداقل به معنای خودآگاهی انسان محور. حتی پیشنهاد نکنید که ممکن است اتفاق بیفتد.

من مطمئناً موافقم که باید مراقب انسان سازی هوش مصنوعی باشیم. من در یک لحظه بیشتر در مورد این نگرانی خواهم گفت.

در همین حال، اگر برای بحث مایل به استفاده از مرحله‌بندی «خودآگاهی» به شیوه‌ای بی‌معنی هستید، معتقدم به راحتی می‌توانید متوجه شوید که چرا ممکن است گفته شود هوش مصنوعی از مفهوم کلی خود-آگاهی پیروی می‌کند. اطلاع. ما بخشی از هوش مصنوعی را داریم که بقیه هوش مصنوعی را زیر نظر دارد و از آنچه که بقیه هوش مصنوعی در حال انجام است، آگاه است. وقتی بقیه هوش مصنوعی شروع به فراتر رفتن می کند، بخش نظارت به دنبال تشخیص این موضوع است. علاوه بر این، بخش نظارت بر هوش مصنوعی یا بررسی دوگانه ممکن است بقیه هوش مصنوعی را به خطوط مناسب هدایت کند.

آیا این کمی شبیه به تماشای فیلم های گربه و داشتن خودآگاهی نیست که شما این کار را انجام می دادید؟

یک حلقه آشنا در آن وجود دارد.

ما می توانیم این را حتی بیشتر گسترش دهیم. مؤلفه بررسی دوگانه هوش مصنوعی نه تنها برای مشاهده رفتار بقیه هوش مصنوعی برنامه ریزی شده است، بلکه رفتار افرادی را که از هوش مصنوعی استفاده می کنند نیز یادداشت می کند. عملکرد کاربران هنگام استفاده از هوش مصنوعی چگونه است؟ فرض کنید برخی از کاربران از این که به نظر می رسد هوش مصنوعی علیه آنها تبعیض قائل است ابراز خشم می کنند. بررسیگر دوگانه هوش مصنوعی ممکن است بتواند این موضوع را تشخیص دهد و از آن به عنوان یک پرچم قرمز دیگر در مورد گمراه شدن بقیه هوش مصنوعی استفاده کند.

این امر خودآگاهی درونی و خودآگاهی بیرونی را طبقه بندی می کند.

چک‌کننده دوگانه هوش مصنوعی در حال اسکن داخلی و خارجی است تا بفهمد آیا بقیه هوش مصنوعی به دریاهای نگران‌کننده رفته‌اند یا خیر. تشخیص یک پرچم بلند می‌کند یا باعث می‌شود که خود اصلاحی اعمال شود.

بیایید یک پسوند تا حدودی گیج کننده دیگر اضافه کنیم. ما یک چک‌کننده دوگانه هوش مصنوعی دیگر می‌سازیم که به منظور بررسی دوباره چک‌کننده هوش مصنوعی هسته‌ای است. چرا؟ خب، فرض کنید به نظر می‌رسد که چک‌کننده دوگانه هوش مصنوعی در حال تزلزل است یا کار خود را انجام نمی‌دهد. چک‌کننده دوگانه هوش مصنوعی به دنبال تشخیص این نقص و انجام اقدامات لازم بر این اساس است. برخی ممکن است با افتخار اعلام کنند که در یک سیستم هوش مصنوعی محاسباتی نشان داده شده است، به ماهیت بازگشتی خودآگاهی خوش آمدید.

برای کسانی از شما که قبلاً در این مورد در لبه جایگاه خود هستید، آخرین نظر در حال حاضر این است که می‌توانیم پیشنهاد کنیم که اگر سیستم‌های هوش مصنوعی را «خودآگاه» کنید، به طور بالقوه به سمت رفتارهای اخلاقی گرایش پیدا می‌کنند. آیا آنها این کار را بر اساس احساس انجام می دهند؟ به طور قطع، نه. آیا آنها این کار را بر اساس محاسبات انجام می دهند؟ بله، گرچه باید به صراحت بگوییم که این رفتار با رفتار انسان برابری نمی کند.

اگر از اینکه مفهوم خودآگاهی به اشتباه تحریف شده است تا آن را در یک طرح محاسباتی قرار دهد، ناراحت هستید، تردید شما در این مورد به خوبی مورد توجه قرار گرفته است. این که آیا باید تلاش‌های مستمر هوش مصنوعی را که از این مفهوم استفاده می‌کنند متوقف کنیم، سؤال باز دیگری است. می‌توانید قانع‌کننده استدلال کنید که حداقل به نظر می‌رسد که ما را به سمت نتیجه بهتری از آنچه که هوش مصنوعی احتمالاً انجام می‌دهد هدایت می‌کند. ما باید چشمانمان را کاملا باز داشته باشیم زیرا این اتفاق می افتد.

حدس بزنید ما باید ببینیم که این همه چگونه انجام می شود. پنج سال، ده سال و پنجاه سال دیگر به این موضوع برگردید و ببینید آیا فکر شما در مورد موضوع بحث برانگیز تغییر کرده است یا خیر.

من متوجه هستم که این یک بررسی تا حدی سرگیجه از موضوع بوده است و شما ممکن است مشتاق نمونه‌های روزمره باشید. مجموعه‌ای از نمونه‌های خاص و مطمئناً محبوب وجود دارد که به دلم نشسته است. ببینید، به عنوان یک متخصص در زمینه هوش مصنوعی از جمله پیامدهای اخلاقی و قانونی، اغلب از من خواسته می‌شود که نمونه‌های واقع‌بینانه‌ای را که معضلات اخلاقی هوش مصنوعی را نشان می‌دهند شناسایی کنم تا بتوان ماهیت تا حدودی نظری موضوع را راحت‌تر درک کرد. یکی از جذاب‌ترین زمینه‌هایی که این معضل اخلاقی هوش مصنوعی را به وضوح نشان می‌دهد، ظهور خودروهای خودران واقعی مبتنی بر هوش مصنوعی است. این به عنوان یک مورد استفاده مفید یا نمونه ای برای بحث و گفتگوی کافی در مورد موضوع خواهد بود.

پس در اینجا یک سوال قابل توجه وجود دارد که قابل تامل است: آیا ظهور خودروهای خودران واقعی مبتنی بر هوش مصنوعی چیزی را در مورد هوش مصنوعی که شباهتی از "خودآگاهی" دارد روشن می کند و اگر چنین است، این چه چیزی را نشان می دهد؟

یک لحظه به من اجازه دهید تا پرسش را باز کنم.

اول، توجه داشته باشید که هیچ راننده انسانی در یک ماشین خودران واقعی دخیل نیست. به خاطر داشته باشید که خودروهای خودران واقعی از طریق سیستم رانندگی هوش مصنوعی هدایت می شوند. نه نیازی به راننده انسان پشت فرمان وجود دارد و نه پیش بینی ای برای رانندگی وسیله نقلیه توسط انسان وجود دارد. برای پوشش گسترده و مداوم من در مورد وسایل نقلیه خودران (AVs) و به خصوص خودروهای خودران، نگاه کنید به پیوند اینجا.

مایلم بیشتر توضیح دهم که منظور از خودروهای خودران واقعی چیست.

درک سطح اتومبیل های خودران

به عنوان یک توضیح ، اتومبیل های واقعی خودران از جمله مواردی هستند که هوش مصنوعی اتومبیل را کاملاً خود به خود هدایت می کند و هیچ گونه کمک انسانی در حین کار رانندگی وجود ندارد.

این وسایل نقلیه بدون راننده سطح 4 و سطح 5 در نظر گرفته می شوند (توضیحات من را در اینجا ببینید این لینک در اینجا) ، در حالی که خودرویی که نیاز به یک راننده انسانی برای مشارکت در رانندگی دارد معمولاً در سطح 2 یا سطح 3 در نظر گرفته می شود. افزودنی های خودکار که به عنوان ADAS (سیستم های کمک راننده پیشرفته) شناخته می شوند.

در سطح 5 هنوز یک اتومبیل واقعی رانندگی وجود ندارد ، که ما حتی نمی دانیم آیا این امر امکان پذیر خواهد بود یا اینکه رسیدن به آنجا چقدر طول می کشد.

در همین حال ، تلاش های سطح 4 به تدریج در تلاشند تا با انجام آزمایشات عمومی بسیار باریک و انتخابی در جاده ها ، کمی به سمت خود جلب کنند ، هرچند در مورد اینکه آیا این آزمایش به خودی خود مجاز است یا خیر ، اختلاف نظر وجود دارد (همه ما در یک آزمایش خوکچه هندی زنده یا مرگ هستیم) برخی از آنها ادعا می كنند كه در بزرگراهها و گذرگاههای ما در حال انجام است این لینک در اینجا).

از آنجا که اتومبیل های نیمه خودمختار به یک راننده انسانی احتیاج دارند ، تصویب آن دسته از اتومبیل ها تفاوت چندانی با رانندگی وسایل نقلیه معمولی نخواهد داشت ، بنابراین به تنهایی چیز جدیدی برای پوشش آنها در این موضوع وجود ندارد (هر چند ، همانطور که خواهید دید در یک لحظه ، نکات بعدی که بطور کلی اعمال می شود).

در مورد اتومبیل های نیمه خودمختار ، مهم است که در مورد جنبه نگران کننده ای که اخیراً بوجود آمده است ، هشدار داده شود ، یعنی این که با وجود آن رانندگان انسانی که با ارسال فیلم هایی از خودشان ، در حال خوابیدن در چرخ یک اتومبیل سطح 2 یا سطح 3 هستند. ، همه ما باید از اینكه گمان نرود راننده بتواند هنگام رانندگی یك اتومبیل نیمه خودمختار ، توجه خود را از وظیفه رانندگی دور كند ، خودداری كنیم.

شما مسئولیت اقدامات رانندگی وسیله نقلیه ، صرفنظر از میزان اتوماسیون در سطح 2 یا سطح 3 ، مسئولیت مسئولیت مسئولیت شما می باشد.

خودروهای خودران و هوش مصنوعی که اصطلاحاً خودآگاهی دارند

برای وسایل نقلیه خود رانندگی واقعی سطح 4 و سطح 5 ، یک راننده انسانی درگیر در وظیفه رانندگی نخواهد بود.

همه سرنشینان مسافر خواهند بود.

هوش مصنوعی رانندگی را انجام می دهد.

یک جنبه برای بحث فوری این واقعیت را در بر دارد که هوش مصنوعی در سیستم های رانندگی هوش مصنوعی امروزی حساس نیست. به عبارت دیگر ، هوش مصنوعی در مجموع مجموعه ای از برنامه نویسی و الگوریتم های مبتنی بر رایانه است و مطمئناً قادر به استدلال به همان روشی نیست که انسان می تواند.

چرا این تاکید اضافی در مورد هوش مصنوعی نیست؟

از آنجا که می خواهم تأکید کنم هنگام بحث در مورد نقش سیستم رانندگی AI ، من خصوصیات انسانی را به AI نسبت نمی دهم. لطفاً توجه داشته باشید که این روزها تمایل مستمر و خطرناکی برای انسان سازی AI وجود دارد. در حقیقت ، افراد حساسیتی شبیه انسان به هوش مصنوعی امروزی دارند ، علی رغم این واقعیت انکارناپذیر و غیرقابل انکار که هنوز چنین هوش مصنوعی وجود ندارد.

با این توضیحات ، می توانید تصور کنید که سیستم رانندگی هوش مصنوعی بطور طبیعی از جنبه های رانندگی "آگاهی" نداشته باشد. رانندگی و همه آنچه که شامل می شود باید به عنوان بخشی از سخت افزار و نرم افزار اتومبیل خودران برنامه ریزی شوند.

بیایید به جنبه های بی شماری بپردازیم که در این موضوع بازی می شوند.

اول، مهم است که بدانیم همه خودروهای خودران با هوش مصنوعی یکسان نیستند. هر خودروساز و شرکت فناوری خودران رویکرد خود را برای ابداع خودروهای خودران در پیش گرفته است. به این ترتیب، اظهار نظر گسترده در مورد اینکه سیستم های رانندگی هوش مصنوعی چه کاری انجام خواهند داد یا انجام نمی دهند، دشوار است.

علاوه بر این ، هرگاه بیان شود که سیستم رانندگی هوش مصنوعی کار خاصی انجام نمی دهد ، بعداً توسعه دهندگانی که در واقع کامپیوتر را برای انجام این کار برنامه ریزی می کنند ، می توانند از این امر پیشی بگیرند. گام به گام ، سیستم های رانندگی هوش مصنوعی به تدریج در حال بهبود و گسترش هستند. امروزه محدودیت موجود ممکن است دیگر در نسخه یا نسخه بعدی سیستم وجود نداشته باشد.

من معتقدم که هشدارهای کافی برای تأکید بر آنچه که من در مورد آن صحبت می کنم فراهم می کند.

ما اکنون آماده ایم که به بررسی خودروهای خودران و سوالات اخلاقی هوش مصنوعی بپردازیم که مستلزم این است که اگر بخواهید هوش مصنوعی نوعی خودآگاهی دارد.

بیایید از یک مثال ساده استفاده کنیم. یک خودروی خودران مبتنی بر هوش مصنوعی در خیابان های محله شما در حال حرکت است و به نظر می رسد با خیال راحت رانندگی می کند. در ابتدا، توجه ویژه ای به هر بار که توانستید نگاهی اجمالی به خودروی خودران داشته باشید، داشتید. این وسیله نقلیه خودران با قفسه سنسورهای الکترونیکی خود که شامل دوربین‌های فیلمبرداری، واحدهای رادار، دستگاه‌های LIDAR و مواردی از این قبیل است، متمایز بود. پس از چندین هفته از گشت و گذار خودروی خودران در جامعه شما، اکنون به سختی متوجه آن می شوید. تا آنجا که به شما مربوط می شود، این فقط یک ماشین دیگر در جاده های عمومی شلوغ است.

برای اینکه فکر نکنید آشنایی با دیدن ماشین‌های خودران غیرممکن یا غیرقابل قبول است، من بارها در مورد اینکه چگونه مناطقی که در محدوده آزمایش‌های ماشین‌های خودران هستند به تدریج به دیدن وسایل نقلیه خوش‌نظم عادت کرده‌اند، نوشته‌ام. تحلیل من را در این لینک در اینجا. بسیاری از محلی‌ها در نهایت از حالت خمیازه‌ای بی‌حوصله به حالت خمیازه‌های بی‌حوصلگی روی آوردند تا شاهد ماشین‌های پر پیچ و خم خودران باشند.

احتمالاً دلیل اصلی در حال حاضر که آنها ممکن است متوجه خودروهای خودران شوند، عامل تحریک و عصبانیت است. سیستم‌های رانندگی با هوش مصنوعی مطمئن می‌شوند که خودروها از تمام محدودیت‌های سرعت و قوانین جاده پیروی می‌کنند. برای رانندگان انسانی گیج‌کننده در ماشین‌های سنتی خود که توسط انسان هدایت می‌شوند، در مواقعی که پشت ماشین‌های خودران مبتنی بر هوش مصنوعی کاملاً قانون‌مدار گیر می‌کنید، عصبانی می‌شوید.

این چیزی است که ممکن است همه ما به درستی یا نادرست به آن عادت کنیم.

بازگشت به داستان ما یک روز، فرض کنید یک ماشین خودران در شهر یا شهر شما به تابلوی ایست نزدیک می شود و به نظر نمی رسد سرعتش کم شود. بهشت، به نظر می رسد سیستم رانندگی هوش مصنوعی قرار است ماشین خودران را درست از جلوی علامت Stop شخم بزند. تصور کنید اگر یک عابر پیاده یا دوچرخه سوار در جایی نزدیک باشد و غافلگیر شود که ماشین خودران به درستی متوقف نمی شود. شرم آور. خطرناک!

و غیرقانونی

بیایید اکنون یک جزء هوش مصنوعی را در سیستم رانندگی هوش مصنوعی در نظر بگیریم که به عنوان سبکی از بررسی دوگانه خودآگاه عمل می کند.

برای بررسی جزئیات آنچه در داخل سیستم رانندگی هوش مصنوعی در حال رخ دادن است، لحظه ای را صرف خواهیم کرد. معلوم شد که دوربین‌های ویدئویی نصب‌شده بر روی خودروی خودران چیزی را که احتمالاً علامت توقف به نظر می‌رسد شناسایی کرده‌اند، اگرچه در این مورد درختی که بیش از حد رشد کرده است، علامت توقف را به وفور پنهان می‌کند. سیستم یادگیری ماشینی و یادگیری عمیق که در ابتدا بر روی علائم توقف آموزش داده شده بود، بر اساس الگوهای علائم توقف کامل، عموماً بدون محدودیت ابداع شد. پس از بررسی محاسباتی تصاویر ویدئویی، احتمال کمی وجود دارد که علامت توقف در آن نقطه خاص وجود داشته باشد (به عنوان یک عارضه اضافه، و توضیح بیشتر، این یک علامت توقف جدید بود که در نقشه های دیجیتالی آماده شده قبلی ظاهر نمی شد. سیستم رانندگی هوش مصنوعی متکی بود).

در مجموع، سیستم رانندگی هوش مصنوعی از نظر محاسباتی مصمم شد که به سمت جلو پیش برود، گویی که علامت توقف یا وجود ندارد یا احتمالاً نشانه ای از نوع دیگری است که احتمالاً شبیه علامت توقف است (این می تواند اتفاق بیفتد و با فرکانس خاصی اتفاق می افتد).

اما، خوشبختانه، بررسی‌کننده دوگانه خودآگاه هوش مصنوعی، فعالیت‌های سیستم رانندگی هوش مصنوعی را زیر نظر داشت. پس از بررسی محاسباتی داده‌ها و ارزیابی توسط بقیه هوش مصنوعی، این مؤلفه تصمیم گرفت که روند عادی کار را نادیده بگیرد و در عوض به سیستم رانندگی هوش مصنوعی دستور داد تا توقف مناسبی داشته باشد.

هیچ کس آسیب ندیده و هیچ اقدام غیرقانونی رخ نداده است.

می توانید بگویید که چک کننده دوگانه خودآگاه هوش مصنوعی به گونه ای عمل می کند که گویی یک نماینده حقوقی تعبیه شده است و سعی می کند اطمینان حاصل کند که سیستم رانندگی هوش مصنوعی از قانون تبعیت می کند (در این مورد، علامت توقف). البته ایمنی هم کلید بود.

این مثال امیدوار است نشان دهد که چگونه بررسی دوگانه خودآگاه هوش مصنوعی ممکن است کار کند.

در ادامه می‌توانیم به طور خلاصه یک مثال برجسته‌تر از هوش مصنوعی اخلاقی را در نظر بگیریم که نشان می‌دهد چگونه بررسی دوگانه خودآگاه هوش مصنوعی ممکن است یک عملکرد تعبیه‌شده مبتنی بر هوش مصنوعی اخلاقی را ارائه دهد.

اول، به عنوان پیشینه، یکی از نگرانی هایی که در مورد ظهور خودروهای خودران مبتنی بر هوش مصنوعی بیان شده است این است که ممکن است در نهایت به روشی تبعیض آمیز تا حدودی سهوی مورد استفاده قرار گیرند. در اینجا چگونه است. فرض کنید این خودروهای خودران برای تلاش برای به حداکثر رساندن پتانسیل درآمد خود راه اندازی شده اند، که قطعا برای کسانی که ناوگانی از خودروهای خودران در دسترس را به اشتراک می گذارند منطقی است. مالک ناوگان می خواهد عملیات سودآوری داشته باشد.

ممکن است در یک شهر یا شهر معین، خودروهای خودران رومینگ به تدریج شروع به خدمت رسانی به برخی از بخش‌های جامعه و نه مناطق دیگر کنند. آنها این کار را برای یک هدف پول سازی انجام می دهند، زیرا مناطق فقیرتر ممکن است به اندازه بخش های ثروتمند منطقه درآمدزایی نداشته باشند. این یک آرزوی صریح برای خدمت به برخی مناطق و خدمت نکردن به برخی دیگر نیست. در عوض، به طور ارگانیک به هوش مصنوعی خودروهای خودران برمی‌گردد که از نظر محاسباتی «پیدا می‌کنند» که با تمرکز بر مناطقی که از لحاظ جغرافیایی پردرآمدتر هستند، می‌توان پول بیشتری به دست آورد. من این نگرانی اخلاقی اجتماعی را در ستون خود مورد بحث قرار داده ام، مانند در پیوند اینجا.

فرض کنید ما یک بررسی دوگانه خودآگاه هوش مصنوعی را به سیستم های رانندگی هوش مصنوعی اضافه کرده ایم. پس از مدتی، مؤلفه هوش مصنوعی به صورت محاسباتی متوجه الگویی از مکان پرسه زدن خودروهای خودران می شود. قابل توجه است، در برخی مناطق اما نه در برخی دیگر. بر اساس کدگذاری با برخی از قوانین هوش مصنوعی اخلاقی، چک کننده دوگانه خودآگاه هوش مصنوعی شروع به هدایت خودروهای خودران به سایر نقاط شهر می کند که در غیر این صورت نادیده گرفته می شدند.

این مفهوم خودآگاهی هوش مصنوعی را نشان می‌دهد و این کار را در ترکیب با عنصر هوش مصنوعی اخلاقی انجام می‌دهد.

یک مثال دیگر ممکن است بینشی ارائه دهد که این ملاحظات هوش مصنوعی اخلاقی می تواند یک پیامد مرگ یا زندگی کاملاً نگران کننده و جدی باشد.

یک گزارش خبری در مورد تصادف اخیر اتومبیل را در نظر بگیرید. بر اساس گزارش ها، یک راننده انسان در حال آمدن به یک تقاطع شلوغ بود و چراغ سبز داشت تا مستقیم به جلو حرکت کند. راننده دیگری از کنار چراغ قرمز عبور کرد و در حالی که نباید این کار را می کرد وارد تقاطع شد. راننده چراغ سبز در آخرین لحظه متوجه شد که این خودروی دیگر قصد دارد به شدت به خودروی او برخورد کند.

به گفته این راننده در معرض خطر، او با هوشیاری محاسبه کرده است که یا قرار است با ماشین دیگر برخورد کند یا می تواند برای جلوگیری از مداخله گر منحرف شود. مشکل انحراف این بود که عابران پیاده در نزدیکی وجود داشتند که در معرض خطر بودند.

کدام انتخاب را انجام می دهید؟

شما می توانید خود را برای ضربه خوردن آماده کنید و امیدوار باشید که آسیب شما را از بین نبرد یا نکشد. از سوی دیگر، شما می توانید به شدت دور شوید، اما به شدت عابران پیاده مجاور را به خطر بیندازید و احتمالاً آسیب بزنید یا بکشید. این یک مشکل سخت است که قضاوت اخلاقی را در بر می گیرد و کاملاً در مفاهیم اخلاقی (و قانونی) غرق است.

یک معضل اخلاقی همه‌منظوره وجود دارد که این نوع معضل را پوشش می‌دهد که معروف یا شاید بدنام آن مشکل تریلی نامیده می‌شود، پوشش گسترده من را در اینجا ببینید. این لینک در اینجا. معلوم شد که این یک آزمایش فکری محرک اخلاقی است که به اوایل دهه 1900 بازمی گردد. به این ترتیب، این موضوع برای مدتی طولانی مطرح بوده است و اخیراً به طور کلی با ظهور هوش مصنوعی و خودروهای خودران مرتبط شده است.

راننده انسانی را با یک سیستم رانندگی هوش مصنوعی که در خودروی خودران تعبیه شده است جایگزین کنید.

پس تصور کنید که یک خودروی خودران با هوش مصنوعی در حال ورود به یک تقاطع است و حسگرهای وسیله نقلیه خودران ناگهان یک خودروی انسان‌گردان را تشخیص می‌دهند که مستقیماً از چراغ قرمز عبور می‌کند و به سمت خودروی بدون راننده نشانه می‌رود. فرض کنید خودروی خودران تعدادی مسافر در داخل وسیله نقلیه دارد.

می خواهید هوش مصنوعی چه کاری انجام دهد؟

اگر سیستم رانندگی با هوش مصنوعی تصمیم بگیرد که به جلو ادامه دهد و وارد آن شود (احتمالاً به مسافران داخل وسیله نقلیه آسیب می رساند یا ممکن است کشته شوند)، یا می خواهید سیستم رانندگی هوش مصنوعی فرصتی را از دست بدهد و منحرف شود، اگرچه عمل انحراف باعث می شود وسیله نقلیه خودران انجام شود. به طور خطرناکی نسبت به عابران پیاده نزدیک و ممکن است به آنها آسیب برساند یا بکشد.

بسیاری از سازندگان خودروهای خودران با هوش مصنوعی در حال اتخاذ رویکردی سر در شن برای این مخمصه‌های آزاردهنده هوش مصنوعی اخلاقی هستند. به طور کلی، هوش مصنوعی همانطور که در حال حاضر برنامه ریزی شده است، به سادگی جلو می رود و به شدت توسط ماشین دیگر مورد ضرب و شتم قرار می گیرد. هوش مصنوعی برای جستجوی مانورهای فراری دیگر برنامه ریزی نشده بود.

من بارها پیش‌بینی کرده‌ام که این موضع‌گیری «ببین، نه بد بشنو، نه بد» سازندگان خودروهای خودران با هوش مصنوعی در نهایت به اطرافشان خواهد آمد و آنها را گاز خواهد گرفت (تحلیل من در پیوند اینجا). شما می‌توانید منتظر شکایت‌هایی در رابطه با چنین تصادف‌هایی باشید که به دنبال یافتن این موضوع هستند که هوش مصنوعی برای انجام چه کاری برنامه‌ریزی شده است. آیا شرکت یا توسعه دهندگان هوش مصنوعی یا اپراتور ناوگانی که هوش مصنوعی را توسعه داده و ارائه کرده اند نسبت به کارهایی که هوش مصنوعی انجام داده یا نکرده است، سهل انگاری کرده یا مسئول بوده است؟ همچنین می‌توانید پیش‌بینی کنید که پس از وقوع این نوع موارد، یک طوفان آتش‌سوزی اخلاقی هوش مصنوعی در سطح عمومی ایجاد شود.

وارد این معضل هوش مصنوعی اخلاقی می‌شویم، چک‌کننده دوگانه خودآگاه هوش مصنوعی ما که اخلاق مدار است. شاید این جزء ویژه هوش مصنوعی ممکن است در چنین شرایطی درگیر شود. این بخش، بقیه سیستم رانندگی هوش مصنوعی و وضعیت خودروی خودران را زیر نظر دارد. هنگامی که چنین لحظه‌ای وحشتناک پیش می‌آید، مؤلفه هوش مصنوعی به‌عنوان حل‌کننده مشکل ترولی عمل می‌کند و آنچه را که سیستم رانندگی هوش مصنوعی باید انجام دهد، نشان می‌دهد.

من به شما اطمینان می دهم که کدنویسی کار آسانی نیست.

نتیجه

من آخرین فکر را در حال حاضر در مورد این موضوع با شما به اشتراک خواهم گذاشت.

به احتمال زیاد آن را جذاب می بینید.

آیا می دانید در مورد تست آینه?

در مطالعه خودآگاهی کاملاً شناخته شده است. نام‌های دیگر این موضوع عبارتند از: تست تشخیص خود آینه، تست نقطه قرمز، تست روژ و عبارات مرتبط. این تکنیک و رویکرد ابتدا در اوایل دهه 1970 برای ارزیابی خودآگاهی حیوانات ساخته شد. حیواناتی که طبق گزارش ها با موفقیت این آزمایش را پشت سر گذاشته اند عبارتند از میمون ها، انواع خاصی از فیل ها، دلفین ها، زاغی ها و برخی دیگر. حیواناتی که مورد آزمایش قرار گرفتند و طبق گزارش ها این آزمایش را قبول نکردند شامل پانداهای غول پیکر، شیرهای دریایی و غیره می شوند.

این معامله است.

وقتی حیوانی خود را در آینه می بیند، آیا حیوان متوجه می شود که تصویر نشان داده شده مربوط به خودش است یا حیوان فکر می کند حیوان دیگری است؟

احتمالاً، حیوان از نظر بصری گونه‌های خود را می‌شناسد، با دیدن گونه‌های خود، و بنابراین ممکن است فکر کند که حیوان نشان داده شده در آینه پسرعمو یا رقیب متخاصم است (مخصوصاً اگر حیوان در تصویر آینه غرغر کند. به‌نظر می‌رسد که نوبت به آنها پاسخ می‌دهد). شاید شما هم گربه خانگی یا سگ خانگی محبوبتان را دیده باشید که برای اولین بار خود را در آینه خانه می بیند.

در هر صورت، ما فرض می کنیم که یک حیوان وحشی قبلاً خود را ندیده است. خب، این لزوماً درست نیست، زیرا شاید حیوان نگاهی اجمالی به خود در یک استخر آب آرام یا از طریق یک سازند صخره‌ای براق انداخت. اما این موارد شانس کمتری در نظر گرفته می شوند.

خوب، ما می خواهیم به نحوی ارزیابی کنیم که آیا یک حیوان می تواند بفهمد که در واقع حیوانی است که در آینه نشان داده شده است. به آن عمل به ظاهر ساده فکر کنید. انسان ها در سنین جوانی متوجه می شوند که وجود دارند و وجودشان با دیدن خود در آینه نشان داده می شود. آنها از خود آگاه می شوند. در تئوری، تا زمانی که خود را در آینه نبینید، ممکن است متوجه نباشید که هستید.

شاید حیوانات به همان شیوه قادر به خودآگاهی شناختی نباشند. ممکن است حیوانی خود را در آینه ببیند و دائماً باور کند که حیوان دیگری است. مهم نیست چند بار خودش را می بیند، باز هم فکر می کند که این حیوان متفاوت از خودش است.

بخش ترفند این به بازی می آید. روی حیوان علامت می گذاریم. این علامت فقط زمانی قابل مشاهده است که حیوان خود را در آینه ببیند. اگر حیوان بتواند بپیچد یا بچرخد و علامت را روی خودش ببیند (مستقیماً)، این آزمایش را خراب می کند. علاوه بر این، حیوان نمی تواند علامت را حس کند، بو کند یا به روش دیگری تشخیص دهد. یک بار دیگر، اگر آنها این کار را انجام دهند، آزمایش را خراب می کند. حیوان نمی‌تواند بداند که ما علامتی روی آن گذاشته‌ایم، زیرا این به جانور نشان می‌دهد که چیزی آنجاست.

ما می خواهیم موارد را به گونه ای محدود کنیم که تنها دلیل ممکن برای قابل کشف بودن علامت، نگاه کردن به خود در آینه باشد.

آها تست آماده است. حیوان در مقابل آینه قرار می گیرد یا به سمت آن سرگردان می شود. اگر حیوان بخواهد متعاقباً علامت را لمس کند یا حفاری کند، ما به طور منطقی به این نتیجه می رسیم که تنها راه این اتفاق این است که حیوان متوجه شود که علامت روی خودش بوده است. تعداد بسیار کمی از گونه های جانوری توانسته اند این آزمایش را با موفقیت پشت سر بگذارند.

انتقادات زیادی در مورد این آزمون وجود دارد. اگر یک آزمایشگر انسانی در نزدیکی باشد، ممکن است با خیره شدن به علامت چیزهایی را از بین ببرد، که ممکن است باعث شود حیوان مسواک بزند یا احساسش کند. احتمال دیگر این است که حیوان همچنان معتقد است که حیوان دیگری در آینه نشان داده شده است، اما از همان نوع است، و به این ترتیب حیوان تعجب می کند که آیا آن نیز علامتی مانند علامت روی حیوان دیگر دارد؟

ادامه دارد و ادامه دارد.

من مطمئن هستم که از دانستن این موضوع خوشحالید و از این پس خواهید فهمید که چرا یک نقطه یا علامت عجیب و غریب روی حیوانی وجود دارد که در غیر این صورت چنین علامتی را نداشت. چه کسی می داند، ممکن است اخیرا یک آزمایش آزمایشی آینه ای را به پایان رسانده باشد. با خیال راحت به حیوان تبریک بگوئید که سخاوتمندانه شرکت کرده است.

چه ارتباطی با خودروهای خودران مبتنی بر هوش مصنوعی دارد؟

این قسمت را دوست خواهید داشت

یک ماشین خودران در یک بزرگراه طولانی در حال حرکت است. سیستم رانندگی هوش مصنوعی از حسگرهایی برای تشخیص ترافیک دیگر استفاده می کند. این یک بزرگراه دو بانده است که ترافیک آن به سمت شمال در یک باند و به سمت جنوب در لاین دیگر است. در مواقعی، اتومبیل‌ها و کامیون‌ها سعی می‌کنند از کنار یکدیگر عبور کنند و این کار را با وارد شدن به خط مقابل و سپس بازگشت به مسیر مناسب خود انجام می‌دهند.

شما این را دیده اید، بدون شک این کار را کرده اید.

شرط می بندم این جنبه بعدی برای شما هم اتفاق افتاده است. جلوتر از خودروی خودران، یکی از آن کامیون های تانکر بزرگ قرار دارد. از فلز براق ساخته شده است. صیقلی و تمیز مانند سوت. هنگام سوار شدن به پشت چنین کامیونی، می توانید تصویر آینه ای ماشین خود را از قسمت پشتی تانکر ببینید. اگر این را دیده باشید، می دانید که چقدر می تواند مسحورکننده باشد. شما و ماشینتان در انعکاس آینه ای پشت کامیون تانکر منعکس شده اید.

برای پیچ و تاب دیوانه وار بنشین.

یک ماشین خودران پشت کامیون تانکر می آید. دوربین ها تصویر ماشینی را که در انعکاس آینه مانند نشان داده می شود، تشخیص می دهند. اوه، هوش مصنوعی ارزیابی می کند، آیا این یک ماشین است؟ آیا با ماشین خودران می آید؟ هر چه خودروی خودران به کامیون تانکر نزدیک و نزدیکتر می شود، به نظر می رسد خودرو نزدیک و نزدیکتر می شود.

بله، هوش مصنوعی از نظر محاسباتی ممکن است محاسبه کند که این یک موقعیت خطرناک است و هوش مصنوعی باید از این وسیله نقلیه سرکش دیوانه اقدامات اجتنابی انجام دهد. ببینید، هوش مصنوعی خود را در آینه تشخیص نداد. در تست آینه شکست خورد.

چه باید کرد؟ شاید بررسی دوگانه خودآگاه هوش مصنوعی به این موضوع بپردازد و به بقیه سیستم رانندگی هوش مصنوعی اطمینان دهد که این فقط یک بازتاب بی ضرر است. خطر جلوگیری شد جهان نجات یافته است. گذراندن موفقیت آمیز آزمون آینه هوش مصنوعی!

با یک نتیجه گیری ساده، حتی ممکن است پیشنهاد کنیم که گاهی هوش مصنوعی از یک خرس معمولی باهوش تر یا حداقل خودآگاه تر است (البته، به اعتبار خرس ها، آنها معمولاً در آزمایش آینه ای خوب عمل می کنند، اغلب اوقات موفق شده اند. برای انعکاس آنها در حوضچه های آب استفاده می شود).

تصحیح، شاید هوش مصنوعی بتواند از پانداهای غول پیکر و شیرهای دریایی خودآگاه تر باشد، اما به حیوانات نگویید که ممکن است وسوسه شوند که سیستم های هوش مصنوعی را در هم بشکنند. ما این را نمی خواهیم، ​​نه؟

منبع: https://www.forbes.com/sites/lanceeliot/2022/09/18/ai-ethics-and-the-quest-for-self-awareness-in-ai/