اخلاق هوش مصنوعی درباره سندروم افزایش یافتن سیب زمینی داغ که توسط سازندگان هوش مصنوعی به کار گرفته شده است که ظاهراً سعی می کنند از مسئولیت پذیری برای سیستم های خودمختار تصمیم گیرنده زندگی خود اجتناب کنند.

همه ما می دانیم که شما باید مطمئن شوید که با سیب زمینی داغ ضرب المثلی مواجه نشوید.

به نظر می رسد که گامبیت داغ سیب زمینی حداقل در اواخر دهه 1800 ریشه دارد، زمانی که یک بازی سالنی شامل شمع های روشن به نوعی توپ را به چرخش درآورد. مردم معمولاً روی یک سری صندلی‌های چوبی که نسبتاً مجاور یکدیگر بودند می‌نشستند و در آن دوران یک بازی کاملاً هیجان‌انگیز انجام می‌دادند. یک شمع روشن توسط بازیکنان از فردی به فرد دیگر تحویل داده می‌شود و نشان‌دهنده چیزی است که ما بعداً آن را به عنوان تحویل سیب زمینی داغ.

مرسوم بود که از هر فرد خواسته می شد قبل از عبور از کنار شمع که به تدریج در حال سوختن است، یک قافیه محبوب را با صدای بلند صحبت کند. قافیه ظاهراً اینگونه بوده است:

جک زنده است و احتمالاً زنده است.

اگر او در دست تو بمیرد، تو باید بدهی.»

این رسیتال قافیه احتمالاً به شمع اجازه می‌دهد تا به پایان نهایی خود ادامه دهد. هرکسی که با شمع در اختیارش در هنگام خاموش شدن طبیعی در پایان گیر کرد، کسی بود که مسابقه را باخت ( جناس!).

طبق کلمات مشخص شده در قافیه، بازنده باید "مصرف" را می پرداخت و بنابراین معمولاً باید از هر دور بعدی بازی خارج می شد. سپس این ممکن است با چیزی که ما امروز به عنوان صندلی های موسیقی روزمره در نظر می گیریم ترکیب شود، به طوری که فردی که راند را از دست داده است دیگر در دورهای بعدی شرکت نمی کند (گویی که موسیقی متوقف شده و آنها نمی توانند یک صندلی در دسترس داشته باشند). در نهایت، فقط دو نفر باقی می ماندند که شمع روشن را رد می کردند و قافیه را می گفتند، تا اینکه در خاموشی نهایی برنده نهایی مشخص شد.

ممکن است تعجب کنید که چرا ما دیگر این بازی را با یک شمع روشن انجام نمی‌دهیم، و چرا به جای اینکه آن را به عنوان یک طرح "شمع روشن" به تصویر بکشیم، معمولاً به آن به عنوان یک سیب زمینی داغ یاد می‌کنیم. محققان تئوری های زیادی در مورد چگونگی وقوع تدریجی این موضوع ارائه کرده اند. تاریخ به نظر مبهم و مبهم و بلاتکلیف به نظر می رسد که چگونه اوضاع در این موضوع تکامل یافته است. فکر می‌کنم خیالمان راحت باشد که معمولاً از شمع‌های روشن به این شکل استفاده نمی‌شود، زیرا احتمال اینکه چیزی به‌طور محسوسی خراب شود، بسیار نگران‌کننده به نظر می‌رسد (شخصی شمع را رها می‌کند و آتش روشن می‌کند، یا زمانی که شمع به او می‌رسد، می‌سوزد. از بازیکن دیگر و غیره).

از نظر سیب زمینی داغ به عنوان یک جایگزین بالقوه برای شمع روشن، به طور کلی می توانید استدلال کنید که سیب زمینی به طور کلی تا حدودی ایمن تر خواهد بود. بدون شعله باز بدون موم ذوب اساس بالقوه استفاده از سیب زمینی در این زمینه این است که پس از گرم شدن آنها به راحتی گرما را حفظ می کنند. می توانید سیب زمینی را دور تا دور رد کنید و مدتی داغ بماند. یکی فرض می‌کند که تصمیم‌گیری در مورد زمانی که سیب‌زمینی داغ دیگر داغ نیست و در عوض سرد رتبه‌بندی می‌شود، پیشنهادی به شدت قابل بحث است.

البته، این روزها مفهوم یک سیب زمینی داغ ضرب المثلی بیشتر مورد توجه قرار گرفته است. هر چیزی که به عنوان یک سیب زمینی داغ رتبه بندی یا رتبه بندی می شود، معمولاً از کیفیتی کاملاً خلاص می شود. شما نمی خواهید یک سیب زمینی داغ در دست بگیرید. می خواهید مطمئن شوید که جای دیگری می رود. تا حدی، ممکن است بیش از حد نگران نباشید که کجا می رود، به سادگی اینکه دیگر در اختیار شما نیست.

اگر یک سیب زمینی داغ را به یک دوست عزیز یا آشنای مشابه بدهید، کاملاً بی رحم به نظر می رسید. به نظر می رسد این کاملاً نامناسب است. اگر می توانید این کار را انجام دهید، شاید شخص دیگری یا جای دیگری برای قرار دادن آن سیب زمینی داغ پیدا کنید. یک حرکت ناامیدانه ممکن است این باشد که سیب زمینی داغ را به یک همکار مهربان وادار کنیم، اما امیدواریم این کار تنها به عنوان آخرین راه حل انجام شود.

روی دیگر سکه این است که ممکن است از دادن یک سیب زمینی داغ به کسی که دوستش ندارید یا به دنبال انتقام از او هستید، لذت ببرید. مطمئناً، اگر قصد دارید فردی را که با شما بد رفتاری کرده است، از بین ببرید، می تواند تقریباً بسیار مفید باشد. بگذارید بفهمند در مورد سیب زمینی داغ چه کنند. خوش به حال سیب زمینی و بدترین خوش شانسی برای فردی که آن را با او تگ کرده اید.

در یک سناریوی سیب زمینی داغ که فقط دو نفر را درگیر می کند، احتمال یک دعوای رفت و برگشتی سریع در مورد اینکه کدام شخص کالای ناخوشایند و نامطلوب را در دست دارد وجود دارد. مثلا من سیب زمینی داغ را به تو می سپارم و تو با عجله آن را به من پس می دهی. با فرض اینکه ما نیازی به اعلام یک قافیه مهد کودک بین هر دست دادن نداریم، تقریباً می‌توانیم با همان سرعتی که بازوهایمان به ما اجازه می‌دهد از کنار سیب‌زمینی عبور کنیم.

شاید کنجکاو باشید که چرا من تصمیم گرفتم در سیب زمینی داغ مورد احترام و اغلب مورد اشاره قرار بگیرم.

به همین دلیل است

مشخص شد که پوشش سیب زمینی داغ به طور فزاینده ای در زمینه هوش مصنوعی (AI) استفاده می شود.

اکثر مردم چیزی در مورد آن نمی دانند. آنها هرگز در مورد آن نشنیده اند. آنها کاملاً از چیستی آن بی خبرند. حتی بسیاری از توسعه دهندگان هوش مصنوعی از این موضوع آگاه نیستند. با این وجود، وجود دارد و به نظر می رسد در شرایط واقعاً مشکوک، به ویژه مواردی که شامل شرایط مرگ یا زندگی است، استفاده می شود.

من از این به عنوان AI سندرم سیب زمینی داغ.

عواقب جدی بسیاری در زمینه این سندرم وجود دارد و ما باید مطمئن شویم که کلاه‌های تفکر اخلاق هوش مصنوعی را به کار می‌گیریم و در نظر داریم که چه کاری باید انجام شود. ملاحظات اخلاقی هشیارکننده وجود دارد. مسلماً پیامدهای حقوقی قابل توجهی نیز وجود دارد (که هنوز در جامعه دیده نشده است، اگرچه من پیش بینی می کنم که به زودی خواهد شد). برای پوشش مداوم و گسترده من از اخلاق هوش مصنوعی، هوش مصنوعی اخلاقی، و مسائل هوش مصنوعی قانونی، رجوع کنید به پیوند اینجا و پیوند اینجا، فقط به نام چند.

بیایید بسته را باز کنیم سندرم سیب زمینی داغ هوش مصنوعی.

یک سیستم هوش مصنوعی را تصور کنید که به طور مشترک با یک انسان کار می کند. هوش مصنوعی و انسان در حال عبور از کنترل برخی از فعالیت های در حال انجام هستند، به طوری که در برخی مواقع کنترل انسان در دست است در حالی که در برخی مواقع هوش مصنوعی کنترل می کند. این ممکن است در ابتدا به روشی خوب و منطقی انجام شود. به دلایل مختلفی که به صورت لحظه ای به آنها خواهیم پرداخت، هوش مصنوعی ممکن است از نظر محاسباتی تشخیص دهد که کنترل باید به سرعت به انسان واگذار شود.

این است سیب زمینی داغ به جای اینکه صرفاً به عنوان یک بازی آموزنده برای کودکان عمل کند، زندگی را در دنیای واقعی به خطر می اندازد.

مشکل انتقال شتابزده کنترل از هوش مصنوعی به انسان این است که این امر می تواند به شیوه ای معقول انجام شود یا به روشی نسبتاً غیر منطقی انجام شود. اگر انسان به طور خاص انتظار تحویل را نداشته باشد، این احتمالاً یک مشکل است. اگر انسان به طور کلی با گذراندن کنترل مشکلی نداشته باشد، شرایط زیربنای واگذاری می تواند دلهره آور باشد، زمانی که به انسان زمان کافی داده نمی شود یا آگاهی کافی از اینکه چرا کنترل به زور به دست انسان داده می شود.

ما نمونه‌هایی را بررسی خواهیم کرد که چگونه این می‌تواند خطر مرگ یا زندگی را برای انسان و احتمالاً سایر انسان‌های مجاور ایجاد کند. چیز جدی است دوره، نقطه پایان.

قبل از پرداختن به برخی از جنبه های گوشتی ملاحظات وحشی و پشمالو در زیربنای آن سندرم سیب زمینی داغ هوش مصنوعی، بیایید برخی اصول اضافی را در مورد موضوعات بسیار ضروری بیان کنیم. ما باید به طور مختصر به اخلاق هوش مصنوعی و به ویژه ظهور یادگیری ماشینی (ML) و یادگیری عمیق (DL) نگاهی بیاندازیم.

ممکن است به طور مبهم آگاه باشید که یکی از بلندترین صداها این روزها در زمینه هوش مصنوعی و حتی خارج از حوزه هوش مصنوعی، فریاد زدن برای ظاهری بیشتر از هوش مصنوعی اخلاقی است. بیایید نگاهی به معنای ارجاع به اخلاق هوش مصنوعی و هوش مصنوعی اخلاقی بیندازیم. علاوه بر این، وقتی از یادگیری ماشینی و یادگیری عمیق صحبت می‌کنم، منظورم را بررسی خواهیم کرد.

یک بخش یا بخش خاصی از اخلاق هوش مصنوعی که توجه رسانه ها را به خود جلب کرده است شامل هوش مصنوعی است که سوگیری ها و نابرابری های نامناسبی را نشان می دهد. ممکن است بدانید که زمانی که آخرین دوره هوش مصنوعی آغاز شد، شور و شوق زیادی برای آنچه که اکنون برخی می‌گویند وجود داشت. هوش مصنوعی برای خوب. متأسفانه، در پاشنه آن هیجان فوران، ما شروع به مشاهده کردیم هوش مصنوعی برای بد. برای مثال، سیستم‌های مختلف تشخیص چهره مبتنی بر هوش مصنوعی حاوی سوگیری‌های نژادی و سوگیری‌های جنسیتی هستند که من در مورد آن بحث کرده‌ام. پیوند اینجا.

تلاش برای مبارزه با هوش مصنوعی برای بد به طور فعال در حال انجام هستند. علاوه بر پر سر و صدا حقوقی تلاش برای مهار تخلفات، همچنین فشار اساسی به سمت پذیرش اخلاق هوش مصنوعی برای اصلاح شرارت هوش مصنوعی وجود دارد. تصور این است که ما باید اصول کلیدی هوش مصنوعی اخلاقی را برای توسعه و توسعه هوش مصنوعی اتخاذ و تأیید کنیم تا این کار را کاهش دهیم. هوش مصنوعی برای بد و به طور همزمان منادی و ترویج مرجح هوش مصنوعی برای خوب.

در یک مفهوم مرتبط، من طرفدار تلاش برای استفاده از هوش مصنوعی به عنوان بخشی از راه حل مشکلات هوش مصنوعی هستم، و با این شیوه تفکر با آتش مبارزه می کنم. برای مثال، ممکن است اجزای هوش مصنوعی اخلاقی را در یک سیستم هوش مصنوعی تعبیه کنیم که بر نحوه انجام بقیه هوش مصنوعی نظارت می‌کند و بنابراین به طور بالقوه در زمان واقعی هرگونه تلاش تبعیض آمیز را جلب می‌کند. پیوند اینجا. ما همچنین می‌توانیم یک سیستم هوش مصنوعی جداگانه داشته باشیم که به عنوان نوعی مانیتور اخلاق هوش مصنوعی عمل می‌کند. سیستم هوش مصنوعی به عنوان یک ناظر برای ردیابی و تشخیص اینکه چه زمانی هوش مصنوعی دیگر به ورطه غیراخلاقی می رود عمل می کند (تحلیل من از چنین قابلیت هایی را در اینجا ببینید. پیوند اینجا).

در یک لحظه، من برخی از اصول کلی زیربنای اخلاق هوش مصنوعی را با شما به اشتراک خواهم گذاشت. تعداد زیادی از این نوع لیست ها اینجا و آنجا شناور هستند. می توان گفت که هنوز فهرست منحصر به فردی از جذابیت و توافق جهانی وجود ندارد. این خبر تاسف بار است. خبر خوب این است که حداقل لیست‌های اخلاقی هوش مصنوعی وجود دارد که کاملاً مشابه هستند. در مجموع، این نشان می‌دهد که با نوعی همگرایی مستدل، راه خود را به سوی یک اشتراک کلی از آنچه اخلاق هوش مصنوعی تشکیل می‌دهد، پیدا می‌کنیم.

ابتدا، اجازه دهید به طور مختصر برخی از قوانین کلی اخلاقی هوش مصنوعی را پوشش دهیم تا نشان دهیم چه چیزی باید برای هر کسی که در حال ساخت، ساخت و یا استفاده از هوش مصنوعی است، اهمیت حیاتی داشته باشد.

به عنوان مثال، همانطور که توسط واتیکان در فراخوان رم برای اخلاق هوش مصنوعی و همانطور که به طور عمیق به آن پرداخته ام پیوند اینجا، این شش اصل اصلی اخلاق هوش مصنوعی شناسایی شده آنها است:

  • شفافیت: در اصل، سیستم های هوش مصنوعی باید قابل توضیح باشند
  • نقص: نیازهای همه انسانها باید مورد توجه قرار گیرد تا همه بتوانند از آن بهره ببرند و بهترین شرایط ممکن برای ابراز وجود و پیشرفت به همه افراد ارائه شود.
  • مسئوليت: کسانی که استفاده از هوش مصنوعی را طراحی و اجرا می کنند باید با مسئولیت و شفافیت پیش بروند
  • بی طرفی: از ایجاد و یا عمل بر اساس تعصب، در نتیجه حفظ انصاف و کرامت انسانی
  • قابلیت اطمینان: سیستم های هوش مصنوعی باید بتوانند به طور قابل اعتماد کار کنند
  • امنیت و حریم خصوصی: سیستم های هوش مصنوعی باید ایمن کار کنند و به حریم خصوصی کاربران احترام بگذارند.

همانطور که توسط وزارت دفاع ایالات متحده (DoD) در آنها بیان شده است اصول اخلاقی برای استفاده از هوش مصنوعی و همانطور که به طور عمیق به آن پرداخته ام پیوند اینجا، این شش اصل اصلی اخلاق هوش مصنوعی آنهاست:

  • مسئول: پرسنل وزارت دفاع سطوح مناسبی از قضاوت و مراقبت را اعمال خواهند کرد و در عین حال مسئولیت توسعه، استقرار و استفاده از قابلیت‌های هوش مصنوعی را بر عهده خواهند داشت.
  • منصفانه: این وزارتخانه اقدامات عمدی را برای به حداقل رساندن سوگیری ناخواسته در قابلیت‌های هوش مصنوعی انجام خواهد داد.
  • قابل ردیابی: قابلیت‌های هوش مصنوعی این وزارتخانه به گونه‌ای توسعه و مستقر خواهد شد که پرسنل مربوطه درک مناسبی از فناوری، فرآیندهای توسعه، و روش‌های عملیاتی قابل اجرا برای قابلیت‌های هوش مصنوعی، از جمله روش‌شناسی شفاف و قابل ممیزی، منابع داده‌ها، روش‌ها و مستندات طراحی داشته باشند.
  • قابل اعتماد: قابلیت‌های هوش مصنوعی این وزارتخانه کاربردهای مشخص و مشخصی خواهند داشت، و ایمنی، امنیت و اثربخشی چنین قابلیت‌هایی مشمول آزمایش و اطمینان در آن کاربردهای تعریف‌شده در کل چرخه عمر آن‌ها خواهد بود.
  • قابل اداره: این وزارتخانه قابلیت‌های هوش مصنوعی را طراحی و مهندسی می‌کند تا عملکردهای مورد نظر خود را انجام دهد، در حالی که توانایی شناسایی و اجتناب از پیامدهای ناخواسته را دارد، و توانایی جدا کردن یا غیرفعال کردن سیستم‌های مستقری که رفتار ناخواسته را نشان می‌دهند.

من همچنین در مورد تجزیه و تحلیل‌های جمعی مختلف از اصول اخلاق هوش مصنوعی بحث کرده‌ام، از جمله پوشش مجموعه‌ای ابداع شده توسط محققان که ماهیت بسیاری از اصول اخلاقی هوش مصنوعی ملی و بین‌المللی را در مقاله‌ای تحت عنوان «چشم‌انداز جهانی دستورالعمل‌های اخلاق هوش مصنوعی» (منتشر شده) بررسی و فشرده کرده است. که در طبیعت) و پوشش من در آن بررسی می شود پیوند اینجا، که منجر به این لیست کلیدی شد:

  • شفافیت
  • عدالت و انصاف
  • عدم سوء استفاده
  • مسئوليت
  • حریم خصوصی
  • سود رسانی
  • آزادی و خودمختاری
  • اعتماد
  • پایداری
  • کرامت
  • اتحاد

همانطور که ممکن است مستقیماً حدس بزنید، تلاش برای مشخص کردن جزئیات زیربنای این اصول می تواند بسیار سخت باشد. حتی بیشتر از آن، تلاش برای تبدیل این اصول گسترده به چیزی کاملاً ملموس و با جزئیات کافی برای استفاده در هنگام ساخت سیستم‌های هوش مصنوعی نیز یک مهره سخت است. به طور کلی می توان در مورد اینکه اصول اخلاقی هوش مصنوعی چیست و چگونه باید به طور کلی آنها را رعایت کرد، دست تکان داد، در حالی که وضعیت بسیار پیچیده تر در کدنویسی هوش مصنوعی است که باید لاستیک واقعی باشد که با جاده مطابقت می کند.

اصول اخلاقی هوش مصنوعی باید توسط توسعه دهندگان هوش مصنوعی، همراه با آنهایی که تلاش های توسعه هوش مصنوعی را مدیریت می کنند، و حتی آنهایی که در نهایت سیستم های هوش مصنوعی را انجام می دهند، مورد استفاده قرار گیرد. تمام ذینفعان در طول چرخه عمر توسعه و استفاده هوش مصنوعی در محدوده رعایت هنجارهای تثبیت شده هوش مصنوعی اخلاقی در نظر گرفته می شوند. این نکته مهمی است زیرا فرض معمول این است که «فقط کدنویس‌ها» یا کسانی که هوش مصنوعی را برنامه‌ریزی می‌کنند، مشمول رعایت مفاهیم اخلاق هوش مصنوعی هستند. همانطور که قبلاً گفته شد، برای ابداع و به کارگیری هوش مصنوعی به یک دهکده نیاز است، و برای آن کل دهکده باید به اصول اخلاقی هوش مصنوعی مسلط باشد و از آن پیروی کند.

بیایید همچنین مطمئن شویم که در مورد ماهیت هوش مصنوعی امروزی همسو هستیم.

امروزه هیچ هوش مصنوعی وجود ندارد که حساس باشد. ما این را نداریم ما نمی دانیم که آیا هوش مصنوعی ممکن خواهد بود یا خیر. هیچ کس نمی تواند به درستی پیش بینی کند که آیا ما به هوش مصنوعی خواهیم رسید یا خیر، یا اینکه آیا هوش مصنوعی به طور معجزه آسایی به شکلی از ابرنواختر شناختی محاسباتی پدید خواهد آمد (که معمولاً به عنوان تکینگی شناخته می شود، پوشش من را در اینجا ببینید. پیوند اینجا).

نوع هوش مصنوعی که من روی آن تمرکز می کنم شامل هوش مصنوعی غیر حساسی است که امروز داریم. اگر بخواهیم به شدت در مورد آن حدس بزنیم با احساس هوش مصنوعی، این بحث می تواند در جهتی کاملاً متفاوت پیش رود. ظاهراً یک هوش مصنوعی با کیفیت انسانی خواهد بود. شما باید در نظر داشته باشید که هوش مصنوعی حسی معادل شناختی یک انسان است. علاوه بر این، از آنجایی که برخی گمانه زنی می کنند که ممکن است هوش مصنوعی فوق هوشمند داشته باشیم، می توان تصور کرد که چنین هوش مصنوعی می تواند در نهایت از انسان ها باهوش تر باشد (برای کاوش من در مورد هوش مصنوعی فوق هوشمند به عنوان یک احتمال، نگاه کنید به پوشش در اینجا).

بیایید همه چیز را روی زمین نگه داریم و هوش مصنوعی محاسباتی غیر حساس امروزی را در نظر بگیریم.

درک کنید که هوش مصنوعی امروزی قادر به «فکر کردن» به هیچ شکلی با تفکر انسان نیست. وقتی با الکسا یا سیری تعامل می کنید، ظرفیت های مکالمه ممکن است شبیه ظرفیت های انسانی به نظر برسد، اما واقعیت این است که محاسباتی است و فاقد شناخت انسانی است. آخرین دوره هوش مصنوعی از یادگیری ماشینی (ML) و یادگیری عمیق (DL) استفاده گسترده ای کرده است که از تطابق الگوی محاسباتی استفاده می کند. این منجر به سیستم‌های هوش مصنوعی شده است که ظاهری شبیه به تمایلات انسان دارند. در همین حال، هیچ هوش مصنوعی امروزی وجود ندارد که شباهتی به عقل سلیم داشته باشد و هیچ یک از شگفتی‌های شناختی تفکر قوی انسانی را نداشته باشد.

ML/DL نوعی تطبیق الگوی محاسباتی است. روش معمول این است که شما داده ها را در مورد یک کار تصمیم گیری جمع آوری می کنید. داده ها را به مدل های کامپیوتری ML/DL وارد می کنید. آن مدل ها به دنبال یافتن الگوهای ریاضی هستند. پس از یافتن چنین الگوهایی، در صورت یافتن، سیستم هوش مصنوعی در هنگام مواجهه با داده های جدید از آن الگوها استفاده خواهد کرد. پس از ارائه داده های جدید، الگوهای مبتنی بر داده های "قدیمی" یا تاریخی برای ارائه یک تصمیم فعلی استفاده می شود.

من فکر می کنم می توانید حدس بزنید که این به کجا می رود. اگر انسان‌هایی که بر اساس تصمیم‌گیری‌های الگو گرفته شده‌اند، سوگیری‌های نامطلوب را در خود جای داده‌اند، احتمال این وجود دارد که داده‌ها این را به روش‌های ظریف اما قابل توجهی منعکس کنند. تطبیق الگوی محاسباتی یادگیری ماشینی یا یادگیری عمیق به سادگی سعی می‌کند تا داده‌ها را مطابق با ریاضی تقلید کند. هیچ شباهتی از عقل سلیم یا سایر جنبه های حساس مدل سازی ساخته شده با هوش مصنوعی به خودی خود وجود ندارد.

علاوه بر این، توسعه دهندگان هوش مصنوعی نیز ممکن است متوجه نباشند که چه اتفاقی در حال رخ دادن است. ریاضیات محرمانه در ML/DL ممکن است کشف سوگیری های پنهان در حال حاضر را دشوار کند. شما به حق امیدوارید و انتظار دارید که توسعه‌دهندگان هوش مصنوعی سوگیری‌های بالقوه مدفون را آزمایش کنند، اگرچه این دشوارتر از آن چیزی است که به نظر می‌رسد. این احتمال وجود دارد که حتی با آزمایش نسبتاً گسترده، سوگیری‌هایی همچنان در مدل‌های تطبیق الگوی ML/DL وجود داشته باشد.

می‌توانید تا حدودی از ضرب‌المثل معروف یا بدنام زباله‌های درون زباله‌ها استفاده کنید. مسئله این است که این بیشتر شبیه سوگیری‌هایی است که به‌طور موذیانه به‌عنوان سوگیری‌هایی که در هوش مصنوعی غوطه‌ور می‌شوند، القا می‌شوند. الگوریتم تصمیم‌گیری (ADM) هوش مصنوعی به طور اصولی مملو از نابرابری‌ها می‌شود.

خوب نیست.

بیایید به تمرکز خود بر روی سیب زمینی داغ و استفاده بالقوه فاجعه بار آن در هوش مصنوعی برگردیم. همچنین یک شیطنت وجود دارد که می تواند در کمین ترفند سیب زمینی داغ نیز وجود داشته باشد.

به عنوان یک جمع‌بندی سریع در مورد تجلی هوش مصنوعی بازی داغ سیب‌زمینی:

  • هوش مصنوعی و یک انسان در حلقه به طور مشترک روی یک کار مشخص کار می کنند
  • هوش مصنوعی در برخی مواقع کنترل دارد
  • انسان در حلقه گاهی اوقات کنترل دارد
  • نوعی پروتکل انتقال بین هوش مصنوعی و انسان وجود دارد
  • انتقال ممکن است بسیار قابل مشاهده باشد، یا ممکن است ظریف و تقریبا پنهان باشد
  • همه اینها معمولاً در یک زمینه زمان واقعی است (چیزی به طور فعال در حال انجام است)

تمرکز اصلی در اینجا زمانی است که انتقال اساساً یک سیب زمینی داغ است و هوش مصنوعی تصمیم می گیرد که کنترل را به طور ناگهانی به انسان واگذار کند. لطفاً توجه داشته باشید که من بعداً در اینجا جنبه دیگری را نیز پوشش خواهم داد، یعنی کنترل انسان را به عنوان یک سیب زمینی داغ به هوش مصنوعی واگذار می کند.

ابتدا، در نظر بگیرید که چه اتفاقی ممکن است بیفتد وقتی که هوش مصنوعی یک انتقال سیب زمینی داغ به یک انسان در حلقه انجام دهد.

من از انسان به عنوان انسان در حلقه یاد می کنم زیرا می گویم که انسان در حال حاضر بخشی از فعالیت در حال انجام است. ما می‌توانیم سناریوهای دیگری داشته باشیم که به موجب آن انسانی که به‌ویژه در این فعالیت شرکت نداشته است، شاید با کل موضوع بیگانه باشد، سیب‌زمینی داغ را توسط هوش مصنوعی به دست می‌آورد، بنابراین به خاطر داشته باشید که طعم‌های دیگری از این محیط وجود دارد.

اگر من یک سیب زمینی داغ به شما می دادم و می خواستم این کار را به شیوه ای معقول انجام دهم، شاید به شما هشدار می دادم که قرار است چیزهایی را به شما تحویل دهم. علاوه بر این، اگر واقعاً معتقد بودم که داشتن سیب زمینی داغ در کل بهتر از داشتن آن است، این کار را انجام خواهم داد. من به طور ذهنی محاسبه می کنم که آیا شما باید آن را داشته باشید یا اینکه آیا باید آن را ادامه دهم.

یک بازی بسکتبال را تصور کنید. من و تو در یک تیم هستیم. امیدوارم با هم کار کنیم تا بازی را ببریم. فقط چند ثانیه به زمان باقی مانده است و ما به شدت نیاز به گلزنی داریم در غیر این صورت بازی را باختیم. در موقعیتی قرار می‌گیرم که آخرین ضربه را بزنم. آیا باید این کار را انجام دهم یا باید توپ را به تو پاس بدهم و آخرین شوت را بزنی؟

اگر بسکتبالیست بهتری باشم و شانس بیشتری برای زدن ضربه داشته باشم، احتمالاً باید بسکتبال را نگه دارم و سعی کنم شوت بزنم. اگر تو بسکتبالیست بهتری از من هستی، احتمالاً باید توپ را به تو پاس بدهم و بگذارم شوت بزنی. ملاحظات دیگری مطرح می شود، از جمله اینکه کدام یک از ما در موقعیت بهتری در زمین برای زدن شوت قرار دارد، به علاوه اینکه آیا یکی از ما خسته است زیرا بازی تقریباً به پایان رسیده است و ممکن است فرسوده شده باشد و در حد مناسب نباشد. تیراندازی آنها و غیره.

با همه این عوامل در میانه لحظه های سخت، باید تصمیم بگیرم که آیا توپ را حفظ کنم یا آن را به تو پاس دهم.

به خوبی درک کنید که در این سناریو ساعت بسیار مهم است. من و شما هر دو با پاسخی بسیار به موقع روبرو هستیم. کل بازی اکنون در خط است. زمانی که ساعت تمام شد، یا برنده شدیم زیرا یکی از ما شلیک کرد، یا از زمانی که آن را غرق نکردیم شکست خوردیم. اگر سبد را غرق کنم شاید بتوانم قهرمان باشم. یا اگر توپ را به تو پاس بدهم و تو آن را غرق کنی، قهرمان می شوی.

جنبه بز یا جنبه های منفی این نیز وجود دارد. اگر توپ را نگه دارم و شوت را از دست بدهم، همه ممکن است مرا متهم کنند که بز هستم یا کل تیم را ناامید کرده ام. از طرفی اگر من توپ را به تو پاس بدهم و شوت را از دست بدهی، خوب، بز می شوی. این ممکن است برای شما کاملاً ناعادلانه باشد زیرا من شما را مجبور کردم که آخرین تیرانداز باشید و آخرین تیر را بزنید.

قطعاً می‌دانی که من تو را در آن موقعیت بد قرار دادم. و اگرچه همه می توانستند من را در حال انجام این کار ببینند، آنها مجبورند فقط روی آخرین نفری که توپ را در اختیار داشت تمرکز کنند. من احتمالا آزاد اسکیت می کنم. هیچکس به یاد نمی آورد که در آخرین لحظه توپ را به تو پاس دادم. آنها فقط به یاد می آورند که تو توپ را در اختیار داشتی و بازی را از دست دادی چون شوت نکردی.

خوب، پس من توپ را به تو پاس می دهم.

چرا این کار را کردم؟

هیچ راه آسانی برای تعیین این موضوع وجود ندارد.

نیت واقعی من ممکن است این باشد که نمی‌خواستم به عنوان بز گیر کنم، و بنابراین تصمیم گرفتم تمام فشار را روی تو بیاورم. وقتی از من پرسیدند که چرا توپ را پاس دادم، می توانم ادعا کنم که این کار را کردم زیرا فکر می کردم تو تیرانداز بهتری از من هستی (اما، بیایید وانمود کنیم که من اصلاً این را باور ندارم). یا من فکر می کردم که شما در موقعیت بهتری نسبت به من هستید (بیایید وانمود کنیم که من هم به این فکر نمی کردم). هیچ‌کس نمی‌دانست که من در واقع سعی می‌کردم از گیر نکردن با سیب‌زمینی داغ جلوگیری کنم.

از دید بیرونی چیزها، هیچ کس نمی توانست به راحتی دلیل واقعی من برای پاس دادن توپ به شما را تشخیص دهد. شاید من بی گناه این کار را کردم چون معتقد بودم تو بهترین بازیکن هستی. این یک زاویه است. شاید این کار را به این دلیل انجام دادم که نمی‌خواستم همه به خاطر از دست دادن شوت، من را بازنده خطاب کنند، بنابراین توپ را به شما رساندم و فکر کردم که این یک آرامش بزرگ برای من بود. اینکه آیا من واقعاً به شما اهمیت می‌دادم یا نه، موضوعی کاملاً متفاوت است.

اکنون می توانیم جزئیات بیشتری را به سیب زمینی داغ مرتبط با هوش مصنوعی اضافه کنیم:

  • هوش مصنوعی تصمیم می گیرد در آخرین لحظه کنترل را به انسان در حلقه بدهد
  • آخرین لحظه ممکن است در حال حاضر بسیار فراتر از هر اقدامی برای انسان باشد
  • Human-in-The-Loop دارای کنترل است، اما به دلیل زمان‌بندی تحویل، تا حدودی نادرست است

این را یک لحظه در نظر بگیرید

فرض کنید یک سیستم هوش مصنوعی و یک انسان در حلقه با هم بر روی یک کار بلادرنگ کار می کنند که شامل اجرای یک ماشین مقیاس بزرگ در یک کارخانه است. هوش مصنوعی تشخیص می دهد که ماشین آلات در حال خراب شدن هستند. به جای اینکه هوش مصنوعی به کنترل خود ادامه دهد، هوش مصنوعی به طور ناگهانی کنترل را به انسان واگذار می کند. ماشین آلات این کارخانه به سرعت به سمت آشفتگی محض پیش می رود و فرصتی برای انسان برای انجام اقدامات اصلاحی باقی نمی ماند.

هوش مصنوعی سیب زمینی داغ را به انسان در حلقه سپرد و انسان را با سیب زمینی داغ واقعی گیر کرده است به طوری که دیگر از نظر بشری نمی توان با آن کنار آمد. تگ، تو هستی، در دوران کودکی هنگام بازی با تگ بازی، خط قدیمی را دنبال می کند. انسان باید بگوییم با این آشفتگی برچسب خورده است.

درست مثل مثال من در مورد بازی بسکتبال.

چرا هوش مصنوعی این انتقال را انجام داد؟

خوب، بر خلاف زمانی که یک انسان ناگهان توپ بسکتبال را تحویل می دهد و سپس دست تکان می دهد که چرا این کار را انجام داده است، ما معمولاً می توانیم برنامه نویسی هوش مصنوعی را بررسی کنیم و بفهمیم که چه چیزی باعث شده است که هوش مصنوعی این نوع تحویل سیب زمینی داغ را انجام دهد.

یک توسعه‌دهنده هوش مصنوعی ممکن است از قبل تصمیم گرفته باشد که وقتی هوش مصنوعی در یک مخمصه بسیار بد قرار می‌گیرد، هوش مصنوعی باید کنترل را به انسان در حلقه بدهد. این کاملا معقول و معقول به نظر می رسد. انسان ممکن است "بازیکن بهتر" در زمین باشد. انسان ها می توانند از قابلیت های شناختی خود برای حل بالقوه هر مشکلی که در دست هستند استفاده کنند. هوش مصنوعی احتمالاً به محدودیت های برنامه نویسی خود رسیده است و هیچ کار سازنده دیگری در این شرایط نمی تواند انجام دهد.

اگر هوش مصنوعی در فاصله یک دقیقه مانده به کار ماشین آلات، تحویل را انجام داده باشد، شاید یک دقیقه سرکشی به اندازه کافی طولانی باشد که انسان در حلقه بتواند همه چیز را اصلاح کند. با این حال، فرض کنید که هوش مصنوعی در سه ثانیه مانده به پایان کار را انجام داد. آیا فکر می کنید یک انسان می تواند در آن محدوده زمانی واکنش نشان دهد؟ بعید. در هر صورت، صرفاً برای اینکه همه چیز حتی کم‌تر ایراد بگیرد، فرض کنید که انتقال به انسان در حلقه با چند نانوثانیه مانده به پایان اتفاق افتاده است (یک نانوثانیه یک میلیاردیم ثانیه است که در مقایسه با یک پلک زدن سریع طول چشم تنبل 300 میلی ثانیه است).

اگر هوش مصنوعی سیب زمینی داغ را تنها در چند ثانیه باقیمانده برای انجام هر اقدامی آشکار در اختیارش قرار داده باشد، یک انسان در حلقه می تواند به اندازه کافی واکنش نشان دهد؟

شماره

این انتقال بیش از آن چیزی است که ممکن است به نظر برسد، دروغ است.

در واقعیت، وقتی نوبت به وضعیت بدی می‌رسد، این انتقال هیچ فایده‌ای ندارد. هوش مصنوعی انسان را به بز تبدیل کرده است.

برخی از توسعه دهندگان هوش مصنوعی وقتی هوش مصنوعی خود را طراحی می کنند به این موضوع فکر نمی کنند. آنها (به اشتباه) سعادتمندانه در نظر نمی گیرند که زمان یک عامل تعیین کننده است. تنها کاری که آن‌ها انجام می‌دهند این است که زمانی که شرایط سخت می‌شود، برنامه‌ریزی را برای واگذاری برنامه‌ریزی کنند. هنگامی که هیچ کاری برای هوش مصنوعی باقی نمانده که بتواند به طور سازنده انجام دهد، توپ را به سمت بازیکن انسانی پرتاب کنید.

توسعه‌دهندگان هوش مصنوعی ممکن است در زمان کدنویسی هوش مصنوعی هیچ فکری به این موضوع نداشته باشند، و سپس اغلب با انجام آزمایش‌هایی که این موضوع را آشکار می‌کند، دوبار شکست می‌خورند. تنها چیزی که آزمایش آن‌ها نشان می‌دهد این است که هوش مصنوعی «وظیفه‌آمیز» زمانی که به محدودیت‌های هوش مصنوعی رسید، دست به کار شد. Voila، فرض بر این است که هوش مصنوعی خوب و آماده کار است. این آزمایش شامل یک انسان واقعی نمی شد که در آن موقعیت غیرقابل رشک و غیرممکن قرار گرفته باشد. فرآیند آزمایش انسان در حلقه درستی وجود نداشت که بتواند اعتراض کند که این یک چشم بر هم زدن در آخرین لحظه، یا در واقع گذشته از آخرین لحظه، برای آنها فایده چندانی نداشت یا اصلاً مفید نبود.

البته، برخی از توسعه دهندگان هوش مصنوعی با زیرکی این نوع مخمصه را در نظر گرفته اند.

پس از بررسی معما، آنها به برنامه ریزی هوش مصنوعی ادامه می دهند تا به هر حال اینگونه عمل کند.

چرا؟

زیرا حداقل در ذهن آنها کار دیگری برای انجام دادن وجود ندارد. وقتی همه چیز شکست خورد، کنترل را به دست انسان بدهید. شاید معجزه ای رخ دهد. اما نکته اصلی این است که این موضوع برای توسعه‌دهنده هوش مصنوعی نگران کننده نیست و آنها آخرین فرصت را به انسان می‌دهند تا با این آشفتگی کنار بیاید. توسعه‌دهنده هوش مصنوعی دست‌های خود را از هر اتفاقی که پس از آن اتفاق می‌افتد می‌شوید.

من می خواهم توضیح دهم که توسعه دهندگان هوش مصنوعی تنها طراحان این طرح های سیب زمینی داغ نیستند. تعداد زیادی از ذینفعان دیگر برای این موضوع پای میز مذاکره می آیند. شاید یک تحلیلگر سیستمی که تجزیه و تحلیل مشخصات و نیازمندی ها را انجام داده بود، گفته بود که این همان کاری است که هوش مصنوعی قرار است انجام دهد. توسعه دهندگان هوش مصنوعی درگیر، هوش مصنوعی را بر این اساس ساخته اند. مدیر پروژه هوش مصنوعی ممکن است این را ابداع کرده باشد. مدیران اجرایی و مدیریتی که بر توسعه هوش مصنوعی نظارت می کنند ممکن است این را ابداع کرده باشند.

همه در طول چرخه عمر توسعه هوش مصنوعی ممکن است همین طراحی سیب زمینی داغ را پیش ببرند. اینکه آیا کسی متوجه آن شده است، نمی توانیم با اطمینان بگوییم. اگر متوجه می‌شدند، ممکن بود به آن‌ها برچسب منفی داده شود و کنار گذاشته شوند. ممکن بود دیگران به این موضوع توجه داشته باشند، اما آنها عواقب آن را درک نکردند. آن‌ها احساس می‌کردند که این یک چیز جزئی فنی است که در حیطه کاری آنها نیست.

من به این فهرست غیررسمی «دلایل» احتمال بسیار شرورتر را اضافه خواهم کرد.

سندرم سیب زمینی داغ هوش مصنوعی گاهی عمدا به کار می رود زیرا کسانی که این هوش مصنوعی را می سازند می خواستند ادعای پرشور خود را مبنی بر انکار قابل قبول داشته باشند.

خودتان را برای این بخش از داستان آماده کنید.

در مورد ماشین‌آلات کارخانه‌ای که از بین می‌رود، احتمالاً انگشت‌نمای زیادی در مورد اینکه چه کسی مسئول آنچه اتفاق افتاده است وجود دارد. از نظر عملکرد ماشین آلات، ما یک سیستم هوش مصنوعی داشتیم که این کار را انجام می داد و ما یک انسان در حلقه داشتیم که این کار را انجام می داد. این دو بسکتبالیست ما هستند، به صورت استعاری.

ساعت رو به پایین بود و ماشین آلات در آستانه کابوم شدن بودند. بیایید بگوییم که من و شما می دانیم که هوش مصنوعی به انسان در حلقه تحویل داده است، و این کار را در حالی انجام می دهد که زمان کافی برای انسان باقی مانده است تا بتواند اقدامات کافی برای اصلاح یا اجتناب از فاجعه انجام دهد. هیچ کس دیگری متوجه نمی شود که این اتفاق افتاده است.

شرکت سازنده هوش مصنوعی می تواند در هر صورت بلافاصله اعلام کند که مقصر نیست زیرا انسان کنترل را در دست داشته است. طبق سوابق بی عیب و نقص آنها، هوش مصنوعی در زمان کابوم کنترلی نداشت. انسان بود. بنابراین، واضح است که یک انسان مقصر است.

آیا اساساً شرکت هوش مصنوعی هنگام انجام این ادعای صریح دروغ می گوید؟

نه، به نظر می رسد که آنها حقیقت را می گویند.

وقتی از آنها پرسیده شد که آیا مطمئن هستند که هوش مصنوعی کنترل نشده است، شرکت با صدای بلند و با افتخار اعلام کرد که هوش مصنوعی اصلاً کنترل نشده است. آنها مدرکی برای این ادعا دارند (با فرض اینکه هوش مصنوعی گزارشی از حادثه را نگه داشته است). در واقع، مدیران شرکت هوش مصنوعی ممکن است با انزجار از اینکه کسی صداقت آنها را در این مورد به چالش می کشد، ابروهای خود را بالا می برند. آنها حاضرند به سوگند مقدس خود سوگند یاد کنند که هوش مصنوعی بوده است نه تحت کنترل. انسان در حلقه کنترل داشت.

من اطمینان دارم که می بینید چقدر این می تواند گمراه کننده باشد.

بله، کنترل به انسان واگذار شد. در تئوری، انسان در کنترل بود. هوش مصنوعی دیگر کنترلی نداشت. اما فقدان زمان‌بندی و اطلاع‌رسانی در دسترس، این ادعا را به شدت توخالی می‌کند.

زیبایی این، از دیدگاه سازنده هوش مصنوعی، این است که تعداد کمی می توانند ادعاهای ارائه شده را به چالش بکشند. سازنده هوش مصنوعی ممکن است گزارش های این حادثه را منتشر نکند. انجام این کار می تواند وضعیت جعلی را از بین ببرد. گزارش‌ها به‌عنوان مالکیت معنوی (IP) یا ماهیت اختصاصی و محرمانه استدلال می‌شوند. این شرکت احتمالاً ادعا می کند که اگر گزارش ها نشان داده شوند، این سس مخفی هوش مصنوعی آنها را نشان می دهد و IP ارزشمند آنها را کاهش می دهد.

وضعیت اسفبار انسان فقیر در حلقه را تصور کنید. آنها متحیر هستند که همه آنها را سرزنش می کنند که اجازه داده اند همه چیز از کنترل خارج شود. هوش مصنوعی "کار درست را انجام داد" و کنترل را به انسان سپرد. ممکن است این همان چیزی باشد که مشخصات گفته شده است (هرچند باز هم، مشخصات در عدم در نظر گرفتن زمان‌بندی و عوامل امکان‌سنجی نادیده گرفته شده‌اند). گزارش‌هایی که منتشر نشده‌اند، اما ادعا می‌شود که توسط سازنده هوش مصنوعی ساخته شده‌اند، گواه این واقعیت هستند که انسان توسط هوش مصنوعی کنترل شده است.

شما می‌توانید این را به‌عنوان یک ضربه رقت‌آمیز بر روی انسان گیج‌شده اعلام کنید که تقریباً به طور قطعی سقوط خواهد کرد.

این احتمال وجود دارد که تنها در صورتی که این موضوع به دادگاه برود، واقعیت آنچه رخ داده است، آشکار می شود. اگر بیگل‌های قانونی زیرک از این نوع کنسرت آگاه باشند، سعی می‌کنند به صورت قانونی لاگ‌ها را به دست آورند. آنها باید یک شاهد متخصص (کاری که من گهگاه انجام داده‌ام) برای رمزگشایی سیاهه‌ها بیاورند. سیاهههای مربوط به تنهایی ممکن است کافی نباشد. سیاههها را می توان تغییر داد یا تغییر داد یا به طور عمدی ابداع کرد تا جزئیات را به وضوح نشان ندهند. به این ترتیب، کد هوش مصنوعی نیز ممکن است نیاز به بررسی داشته باشد.

در همین حال، در تمام طول این فرآیند دردناک و طولانی کشف قانونی، انسان در حلقه واقعا بد به نظر می رسد. رسانه ها شخص را غیرمسئول معرفی می کنند، سر خود را گم کرده، کوشا نیستند و باید کاملاً پاسخگو باشند. احتمالاً برای ماه‌ها یا سال‌ها، در طول این فرآیند، آن شخص همچنان همان کسی بود که همه انگشت اتهام را به سوی او نشانه می‌رفتند. ممکن است بوی تعفن هرگز از بین نرود.

همچنین به خاطر داشته باشید که همین شرایط ممکن است به راحتی دوباره تکرار شود. و دوباره. با فرض اینکه سازنده هوش مصنوعی هوش مصنوعی را تغییر نداده باشد، هر زمان که موقعیت مشابهی در لحظه آخر پیش بیاید، هوش مصنوعی این کار را انجام می دهد. می توان امیدوار بود که این موقعیت ها مکرر اتفاق نیفتد. در موارد نادری که رخ می دهد، انسان در حلقه هنوز هم مرد مناسب پاییزی است.

این یک ترفند شیطانی است.

ممکن است بخواهید اصرار کنید که سازنده هوش مصنوعی هیچ اشتباهی انجام نداده است. آنها حقیقت را می گویند. هوش مصنوعی کنترل را رها کرد. سپس انسان در کنترل در نظر گرفته شد. اینها حقایق هستند. مناقشه کردنش معنی نداره

چه کسی عاقل باشد و سؤالات سخت را بپرسد، به علاوه اینکه سازنده هوش مصنوعی به این سؤالات به روشی ساده پاسخ دهد، این چیزی است که به نظر می رسد به ندرت اتفاق می افتد.

سوالات عبارتند از:

  • چه زمانی هوش مصنوعی این کار را به انسان در حلقه انجام داد؟
  • هوش مصنوعی بر چه مبنای برنامه‌ریزی‌شده‌ای این انتقال را انجام داد؟
  • آیا زمان کافی برای به دست گرفتن کنترل به انسان در حلقه داده شد؟
  • هوش مصنوعی چگونه برای این مشکلات طراحی و ابداع شد؟
  • و به همین ترتیب.

تا حدودی، به همین دلیل است که اخلاق هوش مصنوعی و هوش مصنوعی اخلاقی یک موضوع بسیار مهم است. دستورات اخلاق هوش مصنوعی ما را وادار می کند که هوشیار بمانیم. فن‌آوران هوش مصنوعی ممکن است در مواقعی با فناوری، به‌ویژه بهینه‌سازی فناوری‌های پیشرفته، مشغول شوند. آنها لزوماً پیامدهای اجتماعی بزرگتر را در نظر نمی گیرند. داشتن یک ذهنیت اخلاقی هوش مصنوعی و انجام این کار به طور یکپارچه برای توسعه و میدان‌دهی هوش مصنوعی برای تولید هوش مصنوعی مناسب حیاتی است، از جمله (شاید شگفت‌انگیز یا طنزآمیز) ارزیابی نحوه پذیرش اخلاق هوش مصنوعی توسط شرکت‌ها.

علاوه بر به کارگیری اصول اخلاقی هوش مصنوعی به طور کلی، یک سوال مربوط به این موضوع وجود دارد که آیا ما باید قوانینی برای کنترل کاربردهای مختلف هوش مصنوعی داشته باشیم. قوانین جدیدی در سطوح فدرال، ایالتی و محلی وضع می شود که به محدوده و ماهیت چگونگی ابداع هوش مصنوعی مربوط می شود. تلاش برای تدوین و تصویب چنین قوانینی تدریجی است. اخلاق هوش مصنوعی حداقل به عنوان یک توقف در نظر گرفته شده عمل می کند و تقریباً مطمئناً تا حدی مستقیماً در آن قوانین جدید گنجانده می شود.

توجه داشته باشید که برخی قاطعانه استدلال می کنند که ما به قوانین جدیدی که هوش مصنوعی را پوشش می دهد نیازی نداریم و قوانین موجود ما کافی است. در واقع، آنها از قبل هشدار می‌دهند که اگر برخی از این قوانین هوش مصنوعی را به اجرا بگذاریم، با مهار پیشرفت‌های هوش مصنوعی که مزایای اجتماعی عظیمی را ارائه می‌دهد، غاز طلایی را خواهیم کشت.

در این مقطع از این بحث سنگین، شرط می بندم که شما خواهان نمونه های گویا دیگری هستید که ممکن است این موضوع را به نمایش بگذارد. مجموعه‌ای از نمونه‌های خاص و مطمئناً محبوب وجود دارد که به دلم نشسته است. ببینید، به عنوان یک متخصص در زمینه هوش مصنوعی از جمله پیامدهای اخلاقی و قانونی، اغلب از من خواسته می‌شود که نمونه‌های واقع بینانه‌ای را که معضلات اخلاقی هوش مصنوعی را نشان می‌دهند شناسایی کنم تا بتوان ماهیت تا حدودی نظری موضوع را راحت‌تر درک کرد. یکی از جذاب‌ترین زمینه‌هایی که این معضل اخلاقی هوش مصنوعی را به وضوح نشان می‌دهد، ظهور خودروهای خودران واقعی مبتنی بر هوش مصنوعی است. این به عنوان یک مورد کاربردی مفید یا نمونه ای برای بحث و گفتگو در مورد موضوع مفید خواهد بود.

پس در اینجا یک سوال قابل توجه وجود دارد که قابل تامل است: آیا ظهور خودروهای خودران واقعی مبتنی بر هوش مصنوعی چیزی را در مورد سندرم سیب زمینی داغ هوش مصنوعی روشن می کند، و اگر چنین است، این چه چیزی را به نمایش می گذارد؟

یک لحظه به من اجازه دهید تا پرسش را باز کنم.

اول، توجه داشته باشید که هیچ راننده انسانی در یک ماشین خودران واقعی دخیل نیست. به خاطر داشته باشید که خودروهای خودران واقعی از طریق سیستم رانندگی هوش مصنوعی هدایت می شوند. نه نیازی به راننده انسان پشت فرمان وجود دارد و نه پیش بینی ای برای رانندگی وسیله نقلیه توسط انسان وجود دارد. برای پوشش گسترده و مداوم من در مورد وسایل نقلیه خودران (AVs) و به خصوص خودروهای خودران، نگاه کنید به پیوند اینجا.

مایلم بیشتر توضیح دهم که منظور از خودروهای خودران واقعی چیست.

درک سطح اتومبیل های خودران

به عنوان یک توضیح، خودروهای خودران واقعی، خودروهایی هستند که هوش مصنوعی خودرو را کاملاً به تنهایی رانندگی می کند و هیچ کمک انسانی در طول کار رانندگی وجود ندارد.

این وسایل نقلیه بدون راننده سطح 4 و سطح 5 در نظر گرفته می شوند (توضیحات من را در اینجا ببینید این لینک در اینجا) ، در حالی که خودرویی که نیاز به یک راننده انسانی برای مشارکت در رانندگی دارد معمولاً در سطح 2 یا سطح 3 در نظر گرفته می شود. افزودنی های خودکار که به عنوان ADAS (سیستم های کمک راننده پیشرفته) شناخته می شوند.

هنوز یک خودروی خودران واقعی در سطح 5 وجود ندارد، و ما هنوز حتی نمی دانیم که آیا امکان دستیابی به آن وجود دارد یا خیر، و نه اینکه چقدر طول می کشد تا به آنجا برسیم.

در همین حال ، تلاش های سطح 4 به تدریج در تلاشند تا با انجام آزمایشات عمومی بسیار باریک و انتخابی در جاده ها ، کمی به سمت خود جلب کنند ، هرچند در مورد اینکه آیا این آزمایش به خودی خود مجاز است یا خیر ، اختلاف نظر وجود دارد (همه ما در یک آزمایش خوکچه هندی زنده یا مرگ هستیم) برخی از آنها ادعا می كنند كه در بزرگراهها و گذرگاههای ما در حال انجام است این لینک در اینجا).

از آنجا که اتومبیل های نیمه خودمختار به یک راننده انسانی احتیاج دارند ، تصویب آن دسته از اتومبیل ها تفاوت چندانی با رانندگی وسایل نقلیه معمولی نخواهد داشت ، بنابراین به تنهایی چیز جدیدی برای پوشش آنها در این موضوع وجود ندارد (هر چند ، همانطور که خواهید دید در یک لحظه ، نکات بعدی که بطور کلی اعمال می شود).

در مورد اتومبیل های نیمه خودمختار ، مهم است که در مورد جنبه نگران کننده ای که اخیراً بوجود آمده است ، هشدار داده شود ، یعنی این که با وجود آن رانندگان انسانی که با ارسال فیلم هایی از خودشان ، در حال خوابیدن در چرخ یک اتومبیل سطح 2 یا سطح 3 هستند. ، همه ما باید از اینكه گمان نرود راننده بتواند هنگام رانندگی یك اتومبیل نیمه خودمختار ، توجه خود را از وظیفه رانندگی دور كند ، خودداری كنیم.

شما مسئولیت اقدامات رانندگی وسیله نقلیه ، صرفنظر از میزان اتوماسیون در سطح 2 یا سطح 3 ، مسئولیت مسئولیت مسئولیت شما می باشد.

اتومبیل های خودران و سندرم سیب زمینی داغ هوش مصنوعی

برای وسایل نقلیه خود رانندگی واقعی سطح 4 و سطح 5 ، یک راننده انسانی درگیر در وظیفه رانندگی نخواهد بود.

همه سرنشینان مسافر خواهند بود.

هوش مصنوعی رانندگی را انجام می دهد.

یک جنبه برای بحث فوری این واقعیت را در بر دارد که هوش مصنوعی در سیستم های رانندگی هوش مصنوعی امروزی حساس نیست. به عبارت دیگر ، هوش مصنوعی در مجموع مجموعه ای از برنامه نویسی و الگوریتم های مبتنی بر رایانه است و مطمئناً قادر به استدلال به همان روشی نیست که انسان می تواند.

چرا این تاکید اضافی در مورد هوش مصنوعی نیست؟

از آنجا که می خواهم تأکید کنم هنگام بحث در مورد نقش سیستم رانندگی AI ، من خصوصیات انسانی را به AI نسبت نمی دهم. لطفاً توجه داشته باشید که این روزها تمایل مستمر و خطرناکی برای انسان سازی AI وجود دارد. در حقیقت ، افراد حساسیتی شبیه انسان به هوش مصنوعی امروزی دارند ، علی رغم این واقعیت انکارناپذیر و غیرقابل انکار که هنوز چنین هوش مصنوعی وجود ندارد.

با این توضیحات ، می توانید تصور کنید که سیستم رانندگی هوش مصنوعی بطور طبیعی از جنبه های رانندگی "آگاهی" نداشته باشد. رانندگی و همه آنچه که شامل می شود باید به عنوان بخشی از سخت افزار و نرم افزار اتومبیل خودران برنامه ریزی شوند.

بیایید به جنبه های بی شماری بپردازیم که در این موضوع بازی می شوند.

اول، مهم است که بدانیم همه خودروهای خودران با هوش مصنوعی یکسان نیستند. هر خودروساز و شرکت فناوری خودران رویکرد خود را برای ابداع خودروهای خودران در پیش گرفته است. به این ترتیب، اظهار نظر گسترده در مورد اینکه سیستم های رانندگی هوش مصنوعی چه کاری انجام خواهند داد یا انجام نمی دهند، دشوار است.

علاوه بر این ، هرگاه بیان شود که سیستم رانندگی هوش مصنوعی کار خاصی انجام نمی دهد ، بعداً توسعه دهندگانی که در واقع کامپیوتر را برای انجام این کار برنامه ریزی می کنند ، می توانند از این امر پیشی بگیرند. گام به گام ، سیستم های رانندگی هوش مصنوعی به تدریج در حال بهبود و گسترش هستند. امروزه محدودیت موجود ممکن است دیگر در نسخه یا نسخه بعدی سیستم وجود نداشته باشد.

امیدوارم که اخطارهای فراوانی را برای زیربنای آنچه که می خواهم بیان کنم، ارائه دهد.

برای وسایل نقلیه کاملاً خودمختار ممکن است هیچ شانسی برای انتقال بین هوش مصنوعی و انسان وجود نداشته باشد، زیرا این احتمال وجود دارد که هیچ انسانی در حلقه برای شروع وجود نداشته باشد. آرزوی بسیاری از سازندگان خودروهای خودران امروزی حذف کامل راننده انسان از وظیفه رانندگی است. این وسیله نقلیه حتی شامل کنترل‌های رانندگی قابل دسترسی انسان نخواهد بود. در این صورت، یک راننده انسانی، در صورت حضور، نمی‌تواند در کار رانندگی شرکت کند زیرا به هیچ گونه کنترل رانندگی دسترسی ندارند.

برای برخی از وسایل نقلیه کاملاً خودمختار، برخی از طرح‌ها هنوز به انسان اجازه می‌دهند که در جریان باشد، اگرچه انسان اصلاً لازم نیست در دسترس باشد یا در فرآیند رانندگی شرکت کند. بنابراین در صورت تمایل انسان می تواند در رانندگی شرکت کند. در هیچ نقطه ای، هوش مصنوعی برای انجام هر یک از وظایف رانندگی به انسان وابسته نیست.

در مورد وسایل نقلیه نیمه خودران، یک رابطه دست به دست بین راننده انسان و هوش مصنوعی وجود دارد. برای برخی از طرح‌ها، راننده انسانی می‌تواند کنترل‌های رانندگی را به طور کامل به دست بگیرد و اساساً هوش مصنوعی را از مشارکت در رانندگی باز دارد. اگر راننده انسانی بخواهد هوش مصنوعی را به نقش رانندگی بازگرداند، می‌تواند این کار را انجام دهد، اگرچه گاهی اوقات انسان مجبور می‌شود کنترل‌های رانندگی را رها کند.

شکل دیگری از عملیات نیمه خودمختار مستلزم این است که راننده انسانی و هوش مصنوعی به صورت گروهی با هم کار کنند. هوش مصنوعی رانندگی می کند و انسان رانندگی می کند. آنها با هم رانندگی می کنند. هوش مصنوعی ممکن است به انسان منتقل شود. انسان ممکن است به هوش مصنوعی سر باز بزند.

در مقطعی، سیستم رانندگی هوش مصنوعی ممکن است از نظر محاسباتی مشخص کند که خودروی خودران در حال حرکت به سمت وضعیت غیرقابل دفاع است و خودروی خودران در حال تصادف است.

به‌علاوه، برخی از کارشناسان مدعی می‌شوند که خودروهای خودران غیرقابل تصادف هستند، که این حرف مزخرف محض و سخنی ظالمانه و نادرست است، پوشش من را در این نشانی ببینید. پیوند اینجا.

با ادامه سناریوی یک خودروی خودران که به سمت یک تصادف یا تصادف حرکت می کند، سیستم رانندگی هوش مصنوعی ممکن است طوری برنامه ریزی شود که به طور خلاصه کنترل های رانندگی را به راننده انسانی واگذار کند. اگر زمان کافی برای انجام اقدامات طفره‌آمیز برای راننده انسانی وجود داشته باشد، این در واقع ممکن است کاری معقول و مناسب برای هوش مصنوعی باشد.

اما فرض کنید هوش مصنوعی این کار را با کسری از ثانیه باقی مانده انجام می دهد. زمان واکنش راننده انسانی به اندازه کافی سریع نیست که به اندازه کافی پاسخ دهد. بعلاوه، اگر انسان به طور معجزه آسایی به اندازه کافی سریع بود، احتمال این وجود دارد که با زمان محدود باقیمانده قبل از سقوط، هیچ اقدام فراری قابل انجامی وجود نداشته باشد. این دو مورد است: (1) زمان ناکافی برای انجام عمل توسط راننده انسانی، (2) زمان ناکافی که اگر اقدامی توسط راننده انسانی امکان پذیر بود، این عمل می تواند در مدت زمان کم ارائه شده انجام شود.

در مجموع، این شبیه بحث قبلی من در مورد وضعیت زنگ بسکتبال و ماشین آلات کارخانه است که سناریوی دیوانه شده بود.

بیایید ماده شوم را به این اضافه کنیم.

یک خودروساز یا شرکت فناوری خودران نمی‌خواهد با تصادف‌های مختلف خودرویی که در ناوگان آنها اتفاق افتاده است برچسب بخورد. سیستم رانندگی هوش مصنوعی طوری برنامه ریزی شده است که همیشه کنترل را به راننده انسان می سپارد، صرف نظر از اینکه زمان کافی برای راننده انسانی برای انجام کاری در مورد مشکل وجود دارد یا خیر. هر زمان که تصادف اتومبیلی از این دست رخ می دهد، خودروساز یا شرکت فناوری خودران می تواند با صدای بلند اصرار کند که راننده انسانی در کنترل بوده است، در حالی که هوش مصنوعی اینطور نبود.

به نظر می رسد سابقه آنها برای سیستم های رانندگی هوش مصنوعی بسیار عالی است.

یک بار هم سیستم رانندگی هوش مصنوعی برای این تصادفات خودرو "مقصر" نیست. همیشه این رانندگان انسان لعنتی هستند که به نظر نمی رسد چشمشان به جاده باشد. ما ممکن است تمایل داشته باشیم که این اشتباه را بپذیریم و باور کنیم که هوش مصنوعی تمام دقیق احتمالاً هرگز اشتباه نمی کند. ما ممکن است تمایل داشته باشیم (از آنجایی که به تجربه می دانیم) باور کنیم که رانندگان انسانی شلخته هستند و اشتباهات زیادی در رانندگی مرتکب می شوند. نتیجه منطقی این است که رانندگان انسانی باید مقصر باشند و سیستم رانندگی هوش مصنوعی کاملاً بی گناه است.

قبل از اینکه برخی از حامیان خودرانی از این خصوصیات ناراحت شوند، بیایید کاملاً اذعان کنیم که راننده انسانی ممکن است مقصر باشد و آنها باید زودتر اقدام می کردند، مانند تحویل گرفتن کنترل های رانندگی از هوش مصنوعی. همچنین این احتمال وجود دارد که وقتی هوش مصنوعی کنترل‌های رانندگی را تحویل می‌دهد، راننده انسانی می‌تواند کاری اساسی انجام دهد. و غیره.

تمرکز در اینجا بر شرایطی بوده است که در آن هوش مصنوعی راننده وسیله نقلیه در نظر گرفته می‌شود و سپس به طور ناگهانی و با توجه کمی به آنچه که یک راننده انسانی می‌تواند انجام دهد، سیب‌زمینی داغ را به سمت راننده انسان پرتاب می‌کند. همچنین به همین دلیل است که بسیاری در مورد نقش رانندگی دوگانه خودروهای نیمه خودران نگران هستند. ممکن است بگویید راننده های زیادی پشت فرمان هستند. به نظر می رسد هدف حل این موضوع با داشتن وسایل نقلیه کاملاً خودمختار است که نیازی به انسان در فرمان ندارند و هوش مصنوعی همیشه وسیله نقلیه را هدایت می کند.

این سوال متفقین را مطرح می کند که چه چیزی یا چه کسی مسئول رانندگی هوش مصنوعی است، که من بارها در ستون های خود به آن پرداخته ام، مانند پیوند اینجا و پیوند اینجا.

نتیجه

هنگام شنیدن یا خواندن در مورد تصادفات اتومبیل های نیمه خودران باید مراقب باشیم. مراقب کسانی باشید که سعی می کنند با اعلام اینکه سیستم رانندگی هوش مصنوعی آنها سابقه بی نقصی دارد ما را فریب دهند. ترفند فریبنده سندرم سیب زمینی داغ هوش مصنوعی ممکن است در ترکیب باشد

برای شرکت‌هایی که سعی می‌کنند در این موارد حیله‌گر باشند، شاید بتوانیم این جمله معروف آبراهام لینکلن را در قلب خود نگه داریم: «شما می‌توانید همه مردم را گاهی و برخی از مردم را همیشه فریب دهید، اما نمی‌توانید فریب دهید. همه مردم همیشه.»

من سعی کردم در اینجا جادوی هوش مصنوعی پنهان شده در پشت صفحه نمایش و گاهی اوقات زیر کاپوت را فاش کنم، که برای افراد بیشتر توضیح داده ام نه بیشتر اوقات فریب بخورید

منبع: https://www.forbes.com/sites/lanceeliot/2022/08/01/ai-ethics-fuming-about-the-rising-hot-potato-syndrome-being-employed-by-ai-makers- ظاهراً سعی می کنند از مسئولیت پذیری برای زندگی خود اجتناب کنند. تصمیم گیری در مورد سیستم های خودمختار/