مبارزه با اخلاق هوش مصنوعی با ضربه آتشین یک و دو سیستم سلاح های خودمختار مبتنی بر هوش مصنوعی و بهره برداری از سیستم های خودگردان مبتنی بر هوش مصنوعی که به طرز شیطانی مسلح شده اند

آن ربات های چهار پا رقصنده شگفت انگیز.

من مطمئن هستم که شما آن ویدئوهای ویروسی از سیستم‌های روباتیک چهار پا را دیده‌اید که به شیوه‌های به ظاهر لذت‌بخش و دوست‌داشتنی سگ‌مانند می‌رقصند و شوخی می‌کنند. به نظر می‌رسد که ما از دیدن آن ربات‌های مبتنی بر هوش مصنوعی در حالی که از موانع بالا می‌روند و به نظر می‌رسد زمانی که بالای جعبه‌ها قرار می‌گیرند یا به‌طور نامطمئن روی بالای کابینت‌ها قرار می‌گیرند، جای ظریفی پیدا می‌کنند، لذت می‌بریم. نگهبانان انسانی آن‌ها گاه ربات‌های چهارپای متحیر را هل می‌دهند یا هل می‌دهند، که به‌شدت ناعادلانه به نظر می‌رسد و به راحتی می‌تواند خشم شما را از رفتار بی‌رحمانه آن انسان‌نماهای مغز متفکر برانگیزد.

من نمی دانم که آیا ویدیوهای نه چندان ویروسی با کالیبر کاملاً متفاوت را دیده اید.

خودتان را آماده کنید.

ویدئوهایی به طور گسترده ای منتشر شده است که نشان می دهد همان نوع ربات های چهار پا که با سلاح های مشخص از یک نوع یا آن تجهیز شده اند.

به عنوان مثال، یک مسلسل یا سلاح گرم مشابه بر روی یک روبات رقصنده و رقصنده آشنا نصب شده است. ارتباط الکترونیکی بین ربات چهار پا و مکانیسم شلیک سلاح وجود دارد. ابزار راه رفتن کامپیوتری که اکنون به سلاح مجهز شده است، در حال گام برداشتن به سمت جایی که یک هدف بولسی قرار گرفته است، نشان داده می شود، و مسلسل به شدت به سمت هدف شلیک می شود. پس از میخکوب کردن هدف نیمه تخریب شده، ربات چهار پا می رقصد و در اطراف موانع مجاور می رقصد و به صف می نشیند تا همان عمل را بارها و بارها در سایر اهداف تازه تکرار کند.

نه کاملاً آن چیزی که انتظار داشتید ببینید. این مطمئناً احساس سبکی و شادی نسبی را از تماشای صادقانه آن روبات‌های چهار پا نوازش می‌گیرد. به واقعیت خشن ظاهرا خوش آمدید بی آسیب سیستم های خودمختار در حال تبدیل یا تبدیل شدن به سلاح شدید. با تلاش زیاد، می‌توانید یک شبه یک سیستم خودمختار «غیر تسلیحاتی» در نظر بگیرید که مجهز به تسلیحات کامل باشد.

در برخی شرایط تقریباً آسان است.

من قصد دارم در مورد این موضوع بحث‌برانگیز بحث کنم و شک و تردیدهای نسبتاً سنگین اخلاق هوش مصنوعی را که به وجود می‌آیند را پوشش دهم. ما سفری به سیستم‌های خودمختار، هوش مصنوعی، وسایل نقلیه خودران، تسلیحات و تعدادی از مسائل مرتبط با هوش مصنوعی اخلاقی خواهیم داشت. برای پوشش مداوم و گسترده من از اخلاق هوش مصنوعی و هوش مصنوعی اخلاقی، رجوع کنید پیوند اینجا و پیوند اینجا، فقط به نام چند.

بیایید با چند سنگ اساسی شروع کنیم.

برای بحث، بپذیرید که دو راه عمده برای طبقه بندی سیستم های خودمختار که به تسلیحات مسلح شده اند وجود دارد:

1) سیستم های سلاح های خودمختار (بر اساس طراحی)

2) سیستم های خودمختار که دارای سلاح هستند (بر اساس واقعیت)

تفاوت مهمی بین این دو دسته وجود دارد.

در وهله اول، یک را تعریف می کنیم سیستم تسلیحاتی خودمختار از همان ابتدا یک ساخته کامپیوتری باشد که به طور هدفمند به عنوان یک سلاح در نظر گرفته شده است. توسعه دهندگان در نظر داشتند که می خواهند یک سلاح ابداع کنند. تلاش صریح آنها تولید یک سلاح است. آنها می دانستند که می توانند تسلیحات را با جدیدترین فناوری های سیستم های خودمختار ترکیب کنند. این اسلحه‌ای است که بر موجی از فناوری پیشرفته سوار می‌شود که به حرکت مستقل و اقدامات خودمختار دست می‌یابد (به زودی به طور کامل توضیح خواهم داد).

در مقابل، در وهله دوم، ما موضوع سیستم‌های خودگردان را بررسی می‌کنیم که اصلاً تمایل خاصی به تسلیحات ندارند. اینها سیستم های مستقلی هستند که برای اهداف دیگر توسعه می یابند. یک وسیله نقلیه خودران مانند یک خودروی خودران را تصور کنید که برای ایجاد تحرک برای همه و کمک به کاهش هزاران مرگ و میر سالانه ناشی از خودروهای انسان‌راننده و انسان‌گردان (به پوشش عمیق من مراجعه کنید) تصور کنید. در پیوند اینجا). به نظر می رسد که سلاحی برای آن دسته از افراد خوش بین جامعه که تلاش می کنند انسان ها را از پشت فرمان بیرون بیاورند و به جای آن هوش مصنوعی را روی صندلی راننده قرار دهند، در نظر گرفته نمی شود.

اما اگر انسان ها بخواهند این سیستم های مستقل بی خطر را می توان به سلاح تبدیل کرد.

من به این دسته دوم اشاره می کنم سیستم های خودمختار که دارای سلاح هستند. سیستم خودمختار در اصل و به طور عابدانه برای یک هدف احتمالاً غیر تسلیحاتی ساخته شده بود. علیرغم آن، امید نوع دوستانه رویایی توسط کسی در جایی که این ایده راسخ می شود که این تدبیر می تواند به سلاح تبدیل شود، از بین می رود. به طور ناگهانی، سیستم خودمختار که نوازشگر به نظر می رسید با برچسب زدن بر روی برخی از قابلیت های سلاح (مانند ربات های سگ مانند چهار پا که قبلاً ذکر شد و یک مسلسل یا سلاح گرم مشابهی به ویژگی های آنها اضافه شده است) به یک سلاح کشنده تبدیل شد. .

متأسفانه، این دو دسته تا حدودی در یک مکان ختم می‌شوند، یعنی ظرفیت استفاده از سیستم‌های خودمختار برای تسلیحات به صورت بالقوه کشنده را فراهم می‌کنند.

روند رسیدن به آن نقطه پایانی احتمالا متفاوت است.

برای سیستم‌های خودمختار کاملاً تسلیحاتی که به عنوان سلاح تثبیت شده‌اند، جنبه‌های تسلیحاتی معمولاً جلو و مرکز هستند. ممکن است بگویید که جنبه های سیستم خودمختار در اطراف سنگ بنای هر سلاحی که در نظر گرفته می شود پیچیده شده است. روند تفکر توسعه دهندگان تا حدودی در راستای این است که چگونه یک سلاح می تواند از ظهور سیستم های خودمختار بهره برداری کند.

دیدگاه دیگر معمولاً اصلاً با آن طرز فکر نیست. توسعه دهندگان می خواهند یک سیستم خودمختار پیشرفته را استخراج کنند، شاید برای بهبود نوع بشر. این توسعه دهندگان صمیمانه ترین قلب و روح خود را برای ساختن سیستم خودمختار به کار می گیرند. این هسته اختراع آنهاست. آنها ممکن است تصور نکنند که کسی وسیله معجزه آسا سودمند آنها را غصب یا خراب کند. آنها به طرز سعادتمندانه ای شیفته مزایای اجتماعی مرتبط با شکل گیری و تولید سیستم خودمختار هستند.

در نقطه‌ای، فرض کنید که اشخاص ثالث متوجه می‌شوند که سیستم خودمختار را می‌توان مجدداً تنظیم کرد تا به سلاح تبدیل شود. شاید آنها توسعه دهندگان را فریب می دهند تا به آنها اجازه دهند سیستم مستقلی را برای اهداف عالی داشته باشند. در پشت درهای بسته، این بدخواهان تصمیم می‌گیرند که یواشکی ظرفیت تسلیحاتی را به سیستم خودمختار اضافه کنند. Voila، معصومیت به سلاحی آشکار تبدیل شد.

لازم نیست کارها به این شکل پیش برود.

شاید به توسعه دهندگان گفته شود که در حال توسعه یک سیستم مستقل بی گناه هستند، با این حال کسانی که بودجه یا هدایت این تلاش را انجام می دهند، اهداف دیگری در ذهن داشتند. شاید تلاش سیستم خودمختار واقعاً بی‌گناه شروع شد، اما پس از آن که صورت‌حساب‌ها باید پرداخت می‌شد، رهبری با منبع مالی که سیستم‌های خودمختار را به دلایل شوم می‌خواهد، معامله کرد. احتمال دیگر این است که توسعه‌دهندگان می‌دانستند که استفاده بعدی ممکن است برای تسلیحات باشد، اما آنها تصور می‌کردند که وقتی یا در صورت ظهور از این پل وحشتناک عبور می‌کنند. و غیره.

مسیرهای بسیار و زیادی برای چگونگی انجام این همه وجود دارد.

شاید برایتان جالب باشد که در ستون‌های قبلی توضیح داده‌ام که آگاهی در مورد اخلاق هوش مصنوعی در حال افزایش است. استفاده از دو عناصر هوش مصنوعی معاصر را ببینید پیوند اینجا. اجازه دهید به طور خلاصه شما را به سرعت بیاورم.

یک سیستم هوش مصنوعی که برای خوبی در نظر گرفته می‌شود، گاهی اوقات می‌تواند در آستانه بد قرار گیرد، شاید از طریق برخی تغییرات نسبتاً ساده، و به همین ترتیب به عنوان ماهیت استفاده دوگانه در نظر گرفته می‌شود. اخیراً در اخبار یک سیستم هوش مصنوعی بود که برای کشف مواد شیمیایی که ممکن است قاتل باشند ساخته شده بود، که توسعه دهندگان می خواستند مطمئن شوند که ما می توانیم از چنین مواد شیمیایی بد تصوری اجتناب کنیم یا مراقب آن باشیم. معلوم شد که می‌توان هوش مصنوعی را تا حدودی به‌راحتی بهینه‌سازی کرد تا به طور اختصاصی آن مواد شیمیایی قاتل را کشف کند و بنابراین به طور بالقوه به افراد بد اجازه می‌دهد بدانند چه نوع مواد شیمیایی را می‌توانند به طور بالقوه برای نقشه‌های شیطانی افتضاح خود آماده کنند.

سیستم‌های خودمختار می‌توانند به وضوح در آن پوشش دوگانه قرار بگیرند.

تا حدودی، به همین دلیل است که اخلاق هوش مصنوعی و هوش مصنوعی اخلاقی یک موضوع بسیار مهم است. دستورات اخلاق هوش مصنوعی ما را وادار می کند که هوشیار بمانیم. فن‌آوران هوش مصنوعی ممکن است در مواقعی با فناوری، به‌ویژه بهینه‌سازی فناوری‌های پیشرفته، مشغول شوند. آنها لزوماً پیامدهای اجتماعی بزرگتر را در نظر نمی گیرند. داشتن یک ذهنیت اخلاقی هوش مصنوعی و انجام این کار به طور یکپارچه برای توسعه و میدان‌دهی هوش مصنوعی برای تولید هوش مصنوعی مناسب حیاتی است، از جمله (شاید شگفت‌انگیز یا طنزآمیز) ارزیابی نحوه پذیرش اخلاق هوش مصنوعی توسط شرکت‌ها.

علاوه بر به کارگیری اصول اخلاقی هوش مصنوعی به طور کلی، یک سوال مربوط به این موضوع وجود دارد که آیا ما باید قوانینی برای کنترل کاربردهای مختلف هوش مصنوعی داشته باشیم. قوانین جدیدی در سطوح فدرال، ایالتی و محلی وضع می شود که به محدوده و ماهیت چگونگی ابداع هوش مصنوعی مربوط می شود. تلاش برای تدوین و تصویب چنین قوانینی تدریجی است. اخلاق هوش مصنوعی حداقل به عنوان یک توقف در نظر گرفته شده عمل می کند و تقریباً مطمئناً تا حدی مستقیماً در آن قوانین جدید گنجانده می شود.

توجه داشته باشید که برخی قاطعانه استدلال می کنند که ما به قوانین جدیدی که هوش مصنوعی را پوشش می دهد نیازی نداریم و قوانین موجود ما کافی است. در واقع، آنها از قبل هشدار می‌دهند که اگر برخی از این قوانین هوش مصنوعی را به اجرا بگذاریم، با مهار پیشرفت‌های هوش مصنوعی که مزایای اجتماعی عظیمی را ارائه می‌کند، غاز طلایی را زیر پا می‌گذاریم.

استقلال و سلاح به عنوان دو دستور

عباراتی وجود دارد که برخی از آن برای هشدار دادن در مورد انواع سیستم‌های خودمختار تسلیحاتی استفاده می‌کنند که در مجموع به عنوان ابداع می‌شوند. ربات های سلاخی.

این یک جنبه اضافی را به ارمغان می آورد که ما باید در مورد آن فکر کنیم.

آیا یک سیستم تسلیحاتی خودمختار و/یا یک سیستم خودمختار که تسلیحاتی شده است باید از یک روبات کشنده یا قاتل برتری داشته باشد؟

برخی استدلال می کنند که ما می توانیم قاطعانه داشته باشیم غیر کشنده سیستم های خودمختار تسلیحاتی نیز. بنابراین، در آن دیدگاه، استفاده از عباراتی مانند ربات‌های سلاخ یا ربات‌های قاتل بسیار نامناسب به نظر می‌رسد. یک نوع غیر کشنده احتمالاً می تواند آسیبی را که نتیجه کشنده نیست را تحت کنترل درآورد یا وارد کند. چنین سیستم هایی کشنده نیستند، بلکه ظرفیت آسیب زایی کمتری دارند. توانایی‌ها را اغراق نکنید، می‌گویند آنهایی که اصرار دارند ما مجبور نیستیم درگیر یک ماشین کشتار آشکار باشیم.

بنابراین، ممکن است این را داشته باشیم:

  • سیستم های تسلیحاتی خودمختار مرگبار
  • سیستم های خودمختار کشنده ای که تسلیحاتی شده اند
  • سیستم های تسلیحاتی خودران غیر کشنده
  • سیستم های خودمختار غیر کشنده که تسلیحاتی شده اند

البته، استدلال مخالف این است که به نظر می‌رسد هر سیستم خودمختاری که تسلیحاتی شده است، پتانسیل لغزش به قلمرو مرگ‌بار را دارد، حتی اگر ظاهراً فقط برای استفاده غیرکشنده در نظر گرفته شود. دو مرحله افزایشی رفتن از غیر کشنده به کشنده به سرعت انجام می شود زمانی که شما قبلاً یک سلاح در میان یک سیستم خودمختار در دست داشته باشید. به سختی می‌توانید تضمینی قاطع ارائه دهید که غیرکشنده‌ها وارد عرصه مرگ‌بار نخواهند شد (اگرچه برخی تلاش می‌کنند این کار را انجام دهند، در یک ظاهر ریاضی).

قبل از اینکه به موضوع کلی سیستم‌های خودمختار و تسلیحات بیشتر بپردازیم، ممکن است مفید باشد به چیز دیگری اشاره کنیم که اگرچه واضح است لزوماً در ذهن نیست.

ایناهاش:

  • یک جنبه هوش مصنوعی وجود دارد که بخشی از سیستم خودمختار است
  • یک جنبه تسلیحاتی وجود دارد که جنبه تسلیحاتی این معادله است
  • هوش مصنوعی همچنین ممکن است با تسلیحات مرتبط باشد

بیایید آن را باز کنیم.

فرض می‌کنیم که سیستم‌های خودمختار امروزی به هوش مصنوعی به‌عنوان ابزار رایانه‌ای زیربنایی برای ایجاد جنبه‌های مستقل نیاز دارند. این را ذکر می‌کنم زیرا می‌توانید استدلال کنید که ما ممکن است از فناوری‌ها و تکنیک‌های غیرمرتبط با هوش مصنوعی برای انجام سیستم‌های مستقل استفاده کنیم، که اگرچه درست است، اما احتمال آن کمتر و کمتر به نظر می‌رسد. اساساً، هوش مصنوعی به سطوح بالاتری از خودمختاری اجازه می‌دهد و بیشتر آنها از فناوری پیشرفته هوش مصنوعی بهره می‌برند.

خوب، پس ما یک قابلیت مبتنی بر هوش مصنوعی داریم که به نوعی در سیستم خودمختار تزریق می شود و برای هدایت و کنترل سیستم خودمختار عمل می کند.

به عنوان یک قانون سرانگشتی آن را در نوک انگشتان خود نگه دارید.

به نظر می رسد به راحتی آشکار است که ما نیز نیاز به نوعی تسلیحات داریم، در غیر این صورت چرا در اینجا موضوع سیستم های خودمختار را مورد بحث قرار می دهیم. و سلاح ها بنابراین، بله، بدیهی است که یک نوع سلاح وجود دارد.

من قصد ندارم در مورد نوع تسلیحاتی که ممکن است مورد استفاده قرار گیرد، کاوش کنم. شما به سادگی می توانید هر سلاحی را که به ذهنتان می رسد جایگزین کنید. ممکن است سلاح های دقیق وجود داشته باشد. ممکن است سلاح های مخرب انبوه گرا وجود داشته باشد. ممکن است چیزی با گلوله یا پرتابه باشد. ممکن است چیزی باشد که دارای مواد شیمیایی یا اجزای فرار اتمی باشد. لیست بی پایان است.

نکته دیگر این است که آیا هوش مصنوعی با سلاح در ارتباط است یا خیر. هوش مصنوعی ممکن است صرفاً سلاح را برای سواری به همراه داشته باشد. در مورد ربات چهارپایی که به تفنگ شلیک می‌کرد، شاید تفنگ توسط انسانی شلیک می‌شود که کنترل از راه دور به ماشه سلاح متصل است. این ربات سگ‌مانند صحنه‌ای را هدایت می‌کند و پس از آن این وظیفه انسان دوردست است که ماشه را بکشد.

از سوی دیگر، هوش مصنوعی ممکن است همان طور که گفته شد، ماشه کش باشد. هوش مصنوعی ممکن است نه تنها برای هدایت و مانور دادن ابداع شده باشد، بلکه سلاح را نیز فعال کند. از این نظر، هوش مصنوعی همه کارها را از A تا Z انجام می دهد. هیچ وابستگی به یک انسان راه دور برای انجام جنبه تسلیحاتی کارها وجود ندارد. هوش مصنوعی برای انجام این کار در عوض برنامه ریزی شده است.

برای روشن شدن پس از آن در این مورد استفاده خاص از سیستم‌های خودمختار که دارای سلاح هستند، این نوع احتمالات را داریم:

  • سیستم خودمختار: هوش مصنوعی سیستم خودران را به طور کامل به تنهایی اجرا می کند
  • سیستم خودمختار: هوش مصنوعی سیستم خودمختار را اجرا می کند، اما یک انسان در حلقه نیز می تواند مداخله کند
  • تسلیحات: انسان از راه دور سلاح را اجرا می کند (هوش مصنوعی این کار را نمی کند)
  • تسلیحات: هوش مصنوعی تسلیحات را اجرا می کند، اما انسان در حلقه نیز می تواند مداخله کند
  • تسلیحات: هوش مصنوعی تسلیحات را کاملاً به تنهایی اجرا می کند

من قبلاً تغییرات داشتن انسان در حلقه را در مورد سیستم های خودمختار و وسایل نقلیه خودمختار پوشش داده ام. پیوند اینجا.

وقتی آن ویدیوهای سرگرم کننده ربات های چهار پا را تماشا می کنید که در حال رقصیدن و شوخی کردن هستند، آنها معمولاً روبات هایی هستند که به طور انحصاری توسط هوش مصنوعی اداره می شوند (خوب، این یک رسم است یا آداب مناسبی در بین ربات هایی که عمیقاً هستند در نظر گرفته می شود. به این مسائل). این همان چیزی است که شما نیز ممکن است به درستی فرض کنید. البته شما این را به طور قطع نمی دانید. ممکن است یک اپراتور انسانی از راه دور ربات ها را هدایت کند. همچنین این احتمال وجود دارد که هوش مصنوعی بخشی از هدایت را انجام دهد، و یک اپراتور انسانی از راه دور نیز این کار را انجام می دهد، شاید اگر ربات در موقعیت سختی قرار گیرد و نتواند از نظر محاسباتی وسیله ای مناسب برای رهایی خود را محاسبه کند، به هوش مصنوعی کمک کند.

نکته در اینجا این است که طعم های متعددی وجود دارد که چگونه هوش مصنوعی و سیستم های خودمختار و تسلیحات می توانند با هم ترکیب شوند. برخی دارای هوش مصنوعی هستند که سیستم خودمختار را اجرا می کند اما تسلیحات را اجرا نمی کند. یک انسان ممکن است از راه دور سلاح را اداره کند. زاویه دیگر این است که سلاح ممکن است از قبل فعال شده باشد، و سیستم خودمختار سلاح فعال شده را تحویل می دهد، بنابراین هوش مصنوعی به خودی خود مستقیماً در تحریک سلاح شرکت نداشته و در عوض به عنوان یک وسیله نقلیه تحویل عمل می کند. و ممکن است هوش مصنوعی یک ضرب‌المثل جک از همه کارها باشد و تمام جنبه‌های سیستم خودمختار را برای استفاده از تسلیحات نیز انجام دهد.

انتخاب خود را انجام دهید.

در همین حال، لطفاً بدانید که انسان در حلقه عامل بزرگی در بحث در مورد این موضوع است.

یک خط تقسیم توسط برخی این است که اگر هوش مصنوعی هدف گیری و تیراندازی را انجام دهد (یا هر سلاحی که مستلزم آن باشد) آنگاه کل کیت و کابودل به سرزمینی بی‌نظیر رفته است. این ظاهراً با سلاح‌های معمولی شلیک و فراموش کردن که دارای یک انتخاب از پیش تعیین‌شده توسط انسان هستند، مانند پهپادهای گشت‌زنی که موشکی آماده برای شلیک به هدفی دارد، متفاوت است. قبلا انتخاب شده توسط یک انسان

برخی تعجب می‌کنند که چرا سیستم‌های خودمختار که دارای سلاح هستند، همیشه شامل یک انسان در حلقه در سراسر فرآیند سیستم خودمختار نمی‌شوند که به طور فعال در حال اجراست. به نظر می‌رسد اگر یک الزام جدی این باشد که همه این سیستم‌های خودمختار تسلیحاتی باید یک انسان در حلقه داشته باشند، بهتر بود، یا این کار را برای عملکرد سیستم خودمختار یا برای عملیات تسلیحات (یا برای هر دو) انجام می‌داد. . حفظ یک دست انسان مطمئن و ثابت در این ترکیب هوش مصنوعی ممکن است کاملاً زیرکانه به نظر برسد.

برای فهرست طولانی دلایلی که چرا این لزوما امکان پذیر نیست آماده شوید.

این مشکلات را در نظر بگیرید:

  • Human-in-the-Loop ممکن است برای پاسخگویی به موقع به اندازه کافی سریع نباشد
  • Human-in-the-Loop ممکن است اطلاعات کافی برای پاسخگویی دقیق نداشته باشد
  • Human-in-the-Loop ممکن است در زمان مورد نیاز در دسترس نباشد
  • Human-in-the-Loop ممکن است تصمیم نگرفته باشد و در صورت نیاز اقدامی نکند
  • انسان در حلقه ممکن است تصمیم «اشتباه» بگیرد (نسبتا)
  • Human-in-the-Loop ممکن است در زمان مورد نیاز از سیستم قابل دسترسی نباشد
  • Human-in-the-Loop ممکن است گیج شود و غرق شود
  • غیره

شما بدون شک وسوسه شده اید که به لیستی از ضعف ها و محدودیت های انسانی نگاه کنید و سپس به این نتیجه گیری جدی برسید که ظاهرا منطقی است که انسان در حلقه را حذف کنید و همیشه در عوض از هوش مصنوعی استفاده کنید. این می‌تواند به استثنای انسان در حلقه باشد یا شاید هوش مصنوعی بتواند طراحی ریشه‌دار انسان در حلقه را نادیده بگیرد. تجزیه و تحلیل من را در مورد اینکه چگونه اختلاف نظر بین هوش مصنوعی و انسان در حلقه می تواند منجر به موقعیت های مخاطره آمیز شود را ببینید. پیوند اینجا.

اغلب، فهرستی تحقیرآمیز از این نوع از جنبه‌های منفی در زمان واقعی متمرکز بر انسان به‌خودی خود باقی می‌ماند و این تصور ماندگار را بر جای می‌گذارد که هوش مصنوعی باید به نوعی انتخابی بسیار عاقلانه‌تر از داشتن یک انسان در حلقه باشد. . در آن دام خائنانه نیفتید. مبادلات هشیارکننده ای در میان است.

این پیامدهای هوش مصنوعی را در نظر بگیرید:

  • هوش مصنوعی ممکن است با خطایی مواجه شود که باعث گمراهی آن شود
  • ممکن است هوش مصنوعی غرق شود و بدون پاسخ قفل شود
  • هوش مصنوعی ممکن است حاوی اشکالات توسعه دهنده باشد که باعث رفتار نامنظم می شود
  • ممکن است هوش مصنوعی با ویروس بدکار کاشته شده خراب شود
  • هوش مصنوعی ممکن است توسط هکرهای سایبری در زمان واقعی تصرف شود
  • ممکن است هوش مصنوعی به دلیل پیچیدگی ها غیرقابل پیش بینی در نظر گرفته شود
  • هوش مصنوعی ممکن است از نظر محاسباتی تصمیم "اشتباه" را بگیرد (نسبتا)
  • غیره

من اطمینان دارم که می توانید ببینید که بین استفاده از انسان در حلقه و اتکای صرف به هوش مصنوعی، معاوضه هایی وجود دارد. اگر وسوسه می‌شوید که راه‌حل آماده استفاده از هر دو است، فقط می‌خواهم تاکید کنم که می‌توانید بهترین هر دو دنیا را به دست آورید، اما می‌توانید بدترین هر دو جهان را نیز دریافت کنید. تصور نکنید که همیشه و مطمئنا بهترین هر دو جهان خواهد بود.

ممکن است از یکی از نکات منفی ذکر شده در بالا در مورد هوش مصنوعی تا حدودی شگفت زده شده باشید، به ویژه اینکه هوش مصنوعی ممکن است غیرقابل پیش بینی. ما به این باور عادت داریم که هوش مصنوعی کاملاً منطقی و از نظر ریاضی دقیق است. به این ترتیب، ممکن است انتظار داشته باشید که هوش مصنوعی کاملاً قابل پیش بینی باشد. قرار است دقیقاً بدانیم که هوش مصنوعی چه کاری انجام خواهد داد. دوره، پایان داستان.

متاسفم که آن بالون را ترکاندم، اما این افسانه قابل پیش بینی نام اشتباهی است. اندازه و پیچیدگی هوش مصنوعی امروزی غالباً یک باتلاق است که کاملاً قابل پیش بینی بودن را به چالش می کشد. این موضوع در هیاهوی هوش مصنوعی اخلاقی درباره برخی کاربردهای امروزی یادگیری ماشینی (ML) و یادگیری عمیق (DL) دیده می‌شود. کمی بیشتر به صورت لحظه ای توضیح می دهم.

همچنین، ممکن است بخواهید نگاهی به آخرین تحلیل من در مورد روندهای آتی در تلاش برای اطمینان از سیستم های هوش مصنوعی قابل تایید و قابل اثبات ریاضی از طریق جدیدترین های ایمنی هوش مصنوعی بیندازید. پیوند اینجا.

نشخوار در قوانین جاده

من به مفهوم اهداف و هدف گذاری اشاره کرده بودم، که یک اصطلاح نسبتاً سنگین است که شایسته توجه جدی است.

ما می توانیم در این مورد فکر کنیم:

  • اهدافی که انسان هستند
  • اهدافی که انسان نیستند اما موجودات زنده هستند
  • اهدافی که به عنوان دارایی تعبیر می شوند

فرض کنید که ما یک سیستم خودمختار داریم که به سلاح تبدیل شده است. هوش مصنوعی برای هدایت سیستم خودمختار و برای تسلیحات استفاده می شود. هوش مصنوعی همه چیز را از A تا Z انجام می دهد. هیچ شرطی برای انسان در حلقه وجود ندارد. از نظر هدف گیری، هوش مصنوعی اهداف را انتخاب می کند. هیچ هدف گذاری اولیه ای وجود ندارد که توسط انسان ها ایجاد شده باشد. در عوض، هوش مصنوعی طوری برنامه‌ریزی شده است که به طور کلی مشخص کند که آیا انسان‌هایی وجود دارند که باید هدف قرار گیرند (شاید بررسی اقدامات خصمانه، انواع خاصی از لباس‌ها و غیره).

با من در این تا کنون؟

این سناریو تقریباً همان سناریویی است که بیشترین اعتراض را در مورد سیستم های خودمختار تسلیحاتی ایجاد می کند.

نگرانی اعلام شده این است که هوش مصنوعی (حداقل) سه کاری را انجام می دهد که نباید مجاز به انجام آنها باشد:

  • هدف قرار دادن انسان به عنوان هدف
  • هدف گیری بدون استفاده از انسان در حلقه
  • بالقوه غیرقابل پیش بینی عمل می کندly

توجه داشته باشید که نگرانی هایی در مورد غیرقابل پیش بینی بودن هوش مصنوعی وجود دارد. ممکن است اگرچه هوش مصنوعی برای هدف قرار دادن انواع خاصی از انسان ها برنامه ریزی شده باشد، برنامه نویسی هوش مصنوعی آن چیزی نیست که ما فکر می کردیم، و این هوش مصنوعی در نهایت "دوستان" را هدف قرار می دهد، علاوه بر آنهایی که هوش مصنوعی قرار بود آنها را "دشمنان" تعبیر کند. ” (یا شاید به جای آن). علاوه بر این، حتی اگر بخواهیم یک شرط انسان در حلقه را لحاظ کنیم، غیرقابل پیش بینی بودن هوش مصنوعی ممکن است به این معنی باشد که وقتی قرار است هوش مصنوعی با انسان در حلقه گفتگو کند، این کار را انجام نمی دهد. بنابراین و بدون دخالت انسان عمل می کند.

ممکن است برای شما جالب باشد که کمیته بین المللی صلیب سرخ (صلیب سرخ) یک موضع کلی سه نقطه ای در مورد سیستم های تسلیحاتی خودمختار ارائه کرده است که در مورد این نوع نگرانی ها توضیح می دهد (بر اساس وب سایت صلیب سرخ):

1. «سیستم‌های تسلیحاتی غیرقابل پیش‌بینی باید صریحاً تحت کنترل باشند خارج، به ویژه به دلیل تأثیرات بی رویه آنها. این امر با ممنوعیت سیستم‌های تسلیحاتی خودمختار که به گونه‌ای طراحی یا مورد استفاده قرار می‌گیرند بهتر می‌شود که اثرات آن‌ها به اندازه کافی درک، پیش‌بینی و توضیح داده نشود.»

2. «با توجه به ملاحظات اخلاقی برای حفاظت از بشریت، و حمایت از قوانین حقوق بشردوستانه بین‌المللی برای حمایت از غیرنظامیان و جنگجویان در هنگام جنگ، استفاده از سیستم های تسلیحاتی خودمختار برای هدف قرار دادن انسان ها باید رد شود. این به بهترین وجه از طریق ممنوعیت سیستم‌های تسلیحاتی خودمختار که برای اعمال زور علیه افراد طراحی یا استفاده می‌شوند، محقق می‌شود.»

3. «به منظور حفاظت از غیرنظامیان و اشیاء غیرنظامی، رعایت قوانین حقوق بشردوستانه بین‌المللی و حفاظت از بشریت، طراحی و استفاده از سیستم‌های تسلیحاتی خودمختار که منع نمی‌شوند باید تنظیم شود، از جمله از طریق ترکیبی از: محدودیت در انواع هدفمانند محدود کردن آنها به اشیایی که طبیعتاً اهداف نظامی هستند. محدودیت در مدت زمان، دامنه جغرافیایی و مقیاس استفادهاز جمله فعال کردن قضاوت و کنترل انسان در رابطه با یک حمله خاص. محدودیت در موقعیت های استفادهمانند محدود کردن آنها به موقعیت هایی که غیرنظامیان یا اشیاء غیرنظامی در آن حضور ندارند. rالزامات برای تعامل انسان و ماشینبه ویژه برای اطمینان از نظارت مؤثر انسانی، مداخله و غیرفعال کردن به موقع.»

بر اساس یک چشم انداز مرتبط، سازمان ملل (سازمان ملل) از طریق کنوانسیون برخی از سلاح های متعارف (CCW) در ژنو، طبق گزارش رسمی منتشر شده در فضای مجازی (شامل ارجاعات به موارد بشردوستانه بین المللی مربوطه، یازده اصل راهنمای غیر الزام آور در مورد سلاح های خودمختار مرگبار ایجاد کرده است. مقررات قانون یا حقوق بین الملل حقوق بشر):

(الف) قوانین بین‌المللی بشردوستانه به طور کامل در مورد همه سیستم‌های تسلیحاتی، از جمله توسعه و استفاده بالقوه از سیستم‌های تسلیحاتی خودمختار مرگبار، اعمال می‌شود.

(ب) مسئولیت انسان برای تصمیم گیری در مورد استفاده از سیستم های تسلیحاتی باید حفظ شود زیرا نمی توان مسئولیت را به ماشین ها منتقل کرد. این باید در کل چرخه حیات سیستم تسلیحاتی در نظر گرفته شود.

ج) تعامل انسان و ماشین، که ممکن است اشکال مختلفی داشته باشد و در مراحل مختلف چرخه حیات یک سلاح اجرا شود، باید اطمینان حاصل کند که استفاده بالقوه از سیستم‌های تسلیحاتی مبتنی بر فناوری‌های نوظهور در حوزه سیستم‌های تسلیحاتی خود مختار مرگبار است. انطباق با قوانین بین المللی قابل اجرا، به ویژه IHL. در تعیین کیفیت و میزان تعامل انسان و ماشین، باید طیفی از عوامل از جمله زمینه عملیاتی، ویژگی‌ها و قابلیت‌های سیستم تسلیحاتی را در نظر گرفت.

(د) مسئولیت توسعه، استقرار و استفاده از هر سیستم تسلیحاتی نوظهور در چارچوب CCW باید مطابق با قوانین بین‌المللی قابل اجرا تضمین شود، از جمله از طریق عملیات چنین سیستم‌هایی در یک زنجیره مسئول از فرماندهی و کنترل انسانی.

ث) مطابق با تعهدات دولتها بر اساس حقوق بین الملل، در مطالعه، توسعه، دستیابی یا اتخاذ یک سلاح جدید، ابزار یا روش جنگی، باید تعیین شود که آیا استفاده از آن، در برخی یا در همه شرایط، انجام می شود یا خیر. ممنوع شده توسط قوانین بین المللی؛

(و) هنگام توسعه یا دستیابی به سیستم‌های تسلیحاتی جدید مبتنی بر فناوری‌های نوظهور در زمینه سیستم‌های تسلیحاتی مرگبار، امنیت فیزیکی، پادمان‌های غیر فیزیکی مناسب (از جمله امنیت سایبری در برابر هک یا جعل داده)، خطر دستیابی به گروه‌های تروریستی. و خطر تکثیر باید در نظر گرفته شود.

(ز) ارزیابی ریسک و اقدامات کاهشی باید بخشی از چرخه طراحی، توسعه، آزمایش و استقرار فناوری‌های نوظهور در هر سیستم تسلیحاتی باشد.

(ح) استفاده از فناوری‌های نوظهور در زمینه سیستم‌های تسلیحات خود مختار مرگ‌بار در حفظ انطباق با IHL و سایر تعهدات حقوقی بین‌المللی قابل‌اجرا باید مورد توجه قرار گیرد.

(i) در ایجاد اقدامات بالقوه سیاستی، فناوری‌های نوظهور در حوزه سیستم‌های تسلیحاتی خودمختار کشنده نباید انسان‌سازی شوند.

(j) بحث‌ها و هرگونه اقدام سیاسی بالقوه اتخاذ شده در چارچوب CCW نباید مانع پیشرفت یا دسترسی به استفاده‌های صلح‌آمیز از فناوری‌های خودمختار هوشمند شود.

(ک) CCW چارچوب مناسبی را برای رسیدگی به موضوع فناوری‌های نوظهور در حوزه سیستم‌های تسلیحاتی خود مختار مرگبار در چارچوب اهداف و مقاصد کنوانسیون ارائه می‌کند، که به دنبال ایجاد تعادل بین ضرورت نظامی و ملاحظات بشردوستانه است.

معضلی که در آن قرار داریم

این قوانین مختلف جنگ، قوانین درگیری مسلحانه، یا IHL (قوانین بشردوستانه بین المللی) به عنوان یک راهنمای حیاتی و همیشه امیدوارکننده برای در نظر گرفتن آنچه که ممکن است در مورد ظهور سیستم های خودمختار که دارای تسلیحات هستند، انجام دهیم، خواه با طراحی کیستون یا با طراحی کیستون عمل می کنند. با روش های پس از واقعیت

ما می توانیم از صمیم قلب آرزو کنیم که ممنوعیت سیستم های خودمختار تسلیحاتی مرگبار به طور دقیق و مطیع رعایت شود. مشکل این است که در هر یک از صادقانه‌ترین ممنوعیت‌ها، فضای تکان‌دهنده زیادی وجود دارد. همانطور که می گویند، قوانین برای شکستن قرار دارند. می‌توانید شرط‌بندی کنید که در جایی که همه چیز ضعیف است، ریفراف شکاف‌ها را برطرف می‌کند و سعی می‌کند راه خود را با چشمک زدن به قوانین دور بزند.

در اینجا برخی از خلاءهای بالقوه قابل بررسی هستند:

  • ادعاهای غیر کشنده. درست کردن غیر کشنده سیستم‌های تسلیحاتی خودمختار (به‌نظر می‌رسد اشکالی ندارد، زیرا خارج از مرز ممنوعیت است)، که سپس می‌توانید آن‌ها را با کمی تغییر به سمت کشنده شدن تغییر دهید (فقط در آخرین لحظه فراتر از ممنوعیت خواهید بود).
  • فقط ادعاهای سیستم خودمختار. این ممنوعیت را با ایجاد نکردن سیستم‌های خودمختار متمرکز بر کشنده، حفظ کنید، در عین حال، در ابداع سیستم‌های خودران روزمره که (هنوز) تسلیحاتی نشده‌اند، اما می‌توانید به اندازه‌ای کم‌تر به آن‌ها مجهز شوید، پیشرفت کنید.
  • ادعاهای ادغام نشدن به عنوان یکی. سیستم‌های خودمختار را بسازید که اصلاً دارای سلاح نیستند، و وقتی زمانش رسید، سلاح‌های piggyback را به گونه‌ای بسازید که بتوانید قویاً استدلال کنید که آنها دو عنصر مجزا هستند و بنابراین ادعا کنید که آنها در چارچوب یک All-in-one قرار نمی‌گیرند. سیستم تسلیحاتی خودمختار یا پسر عموی آن.
  • ادعا می کند که مستقل نیست. یک سیستم تسلیحاتی بسازید که به نظر نمی رسد از ظرفیت های خودمختار برخوردار باشد. در این سیستم احتمالاً غیرخودمختار فضایی برای حذف استقلال مبتنی بر هوش مصنوعی بگذارید. در صورت نیاز، خودمختاری را وصل کنید و آماده رول هستید (تا آن زمان ظاهراً ممنوعیت را نقض نمی کردید).
  • دیگر

در تلاش برای ممنوعیت کامل سیستم‌های تسلیحاتی خود مختار، مشکلات زیادی وجود دارد. من به چند مورد دیگر از آنها خواهم پرداخت.

برخی از کارشناسان استدلال می کنند که ممنوعیت به ویژه مفید نیست و در عوض باید مقررات نظارتی وجود داشته باشد. ایده این است که این ابزارها مجاز خواهند بود اما به شدت کنترل می شوند. مجموعه‌ای از استفاده‌های قانونی، همراه با راه‌های هدف‌گیری قانونی، انواع قابلیت‌های قانونی، تناسب قانونی و مواردی از این دست ارائه شده است.

از نظر آنها ممنوعیت مستقیم مانند این است که سر خود را در ماسه بگذارید و وانمود کنید که فیل در اتاق وجود ندارد. اگرچه این مشاجره خون کسانی را به جوش می‌آورد که با این استدلال مخالفت می‌کنند که با ایجاد ممنوعیت می‌توانید وسوسه دنبال کردن این نوع سیستم‌ها را به طرز چشمگیری کاهش دهید. مطمئنا، برخی این ممنوعیت را به رخ می کشند، اما حداقل امیدواریم که بیشتر آنها این کار را نکنند. سپس می توانید توجه خود را بر روی تظاهرکنندگان متمرکز کنید و مجبور نباشید توجه خود را به همه تقسیم کنید.

دور و بر این بحث ها می رود.

یکی دیگر از نگرانی‌هایی که اغلب به آن اشاره می‌شود این است که حتی اگر خوب‌ها به ممنوعیت پایبند باشند، بدها این کار را نمی‌کنند. این امر خوب را در وضعیت بدی قرار می دهد. بدها این نوع سیستم‌های خودمختار تسلیحاتی را خواهند داشت و خوب‌ها نه. هنگامی که چیزهایی آشکار می شوند که بدها آنها را دارند، برای رسیدن به خوبی ها خیلی دیر خواهد بود. به طور خلاصه، تنها کار زیرکانه این است که برای مبارزه با آتش با آتش آماده شوید.

مناقشه بازدارندگی کلاسیک نیز وجود دارد. اگر افراد خوب تصمیم بگیرند که سیستم‌های خود مختار تسلیحاتی بسازند، می‌توان از آن برای جلوگیری از ورود افراد بد به درگیری استفاده کرد. یا خوب‌ها بهتر مسلح می‌شوند و بدی‌ها را منصرف می‌کنند، یا خوب‌ها وقتی آماده می‌شوند که شاید بدها آشکار کنند که در تمام مدت به طور مخفیانه آن سیستم‌ها را ابداع کرده‌اند.

مقابله با این شمارنده ها این است که با ساختن سیستم های خودمختار تسلیحاتی، یک مسابقه تسلیحاتی به راه انداخته اید. طرف مقابل هم به دنبال همین خواهد بود. حتی اگر از نظر فناوری قادر به ایجاد مجدد چنین سیستم‌هایی نباشند، اکنون می‌توانند نقشه‌های «خوب‌ها» را بدزدند، جرئت‌های فناوری پیشرفته را مهندسی معکوس کنند، یا هر چیزی را که به نظر می‌رسد آزمایش‌شده و واقعی می‌بینند تقلید کنند. راهی برای انجام کار

آه، برخی متقابلاً، همه اینها ممکن است منجر به کاهش درگیری ها به شکل ظاهری متقابل شود. اگر طرف A بداند که طرف B آن سلاح های سیستم های خودمختار کشنده را دارد، و طرف B بداند که طرف A آنها را دارد، ممکن است محکم بنشیند و با هم برخورد نکند. این هاله متمایز از ارتعاشات تخریب متقابل تضمین شده (MAD) است.

و به همین ترتیب.

هوش مصنوعی در خودمختاری

بیایید مطمئن شویم که در مورد ماهیت هوش مصنوعی امروزی یکسان هستیم.

امروزه هیچ هوش مصنوعی وجود ندارد که حساس باشد. ما این را نداریم ما نمی دانیم که آیا هوش مصنوعی ممکن خواهد بود یا خیر. هیچ کس نمی تواند به درستی پیش بینی کند که آیا ما به هوش مصنوعی خواهیم رسید یا خیر، یا اینکه آیا هوش مصنوعی به طور معجزه آسایی به شکلی از ابرنواختر شناختی محاسباتی پدید خواهد آمد (که معمولاً به عنوان تکینگی شناخته می شود، پوشش من را در اینجا ببینید. پیوند اینجا).

نوع هوش مصنوعی که من روی آن تمرکز می کنم شامل هوش مصنوعی غیر حساسی است که امروز داریم. اگر بخواهیم به شدت در مورد آن حدس بزنیم با احساس هوش مصنوعی، این بحث می تواند در جهتی کاملاً متفاوت پیش رود. ظاهراً یک هوش مصنوعی با کیفیت انسانی خواهد بود. شما باید در نظر داشته باشید که هوش مصنوعی حسی معادل شناختی یک انسان است. علاوه بر این، از آنجایی که برخی گمانه زنی می کنند که ممکن است هوش مصنوعی فوق هوشمند داشته باشیم، می توان تصور کرد که چنین هوش مصنوعی می تواند در نهایت از انسان ها باهوش تر باشد (برای کاوش من در مورد هوش مصنوعی فوق هوشمند به عنوان یک احتمال، نگاه کنید به پوشش در اینجا).

بیایید همه چیز را روی زمین نگه داریم و هوش مصنوعی محاسباتی غیر حساس امروزی را در نظر بگیریم.

درک کنید که هوش مصنوعی امروزی قادر به «فکر کردن» به هیچ شکلی با تفکر انسان نیست. وقتی با الکسا یا سیری تعامل می کنید، ظرفیت های مکالمه ممکن است شبیه ظرفیت های انسانی به نظر برسد، اما واقعیت این است که محاسباتی است و فاقد شناخت انسانی است. آخرین دوره هوش مصنوعی از یادگیری ماشینی (ML) و یادگیری عمیق (DL) استفاده گسترده ای کرده است که از تطابق الگوی محاسباتی استفاده می کند. این منجر به سیستم‌های هوش مصنوعی شده است که ظاهری شبیه به تمایلات انسان دارند. در همین حال، هیچ هوش مصنوعی امروزی وجود ندارد که شباهتی به عقل سلیم داشته باشد و هیچ یک از شگفتی‌های شناختی تفکر قوی انسانی را نداشته باشد.

بسیار مراقب انسان سازی هوش مصنوعی امروزی باشید.

ML/DL نوعی تطبیق الگوی محاسباتی است. روش معمول این است که شما داده ها را در مورد یک کار تصمیم گیری جمع آوری می کنید. داده ها را به مدل های کامپیوتری ML/DL وارد می کنید. آن مدل ها به دنبال یافتن الگوهای ریاضی هستند. پس از یافتن چنین الگوهایی، در صورت یافتن، سیستم هوش مصنوعی در هنگام مواجهه با داده های جدید از آن الگوها استفاده خواهد کرد. پس از ارائه داده های جدید، الگوهای مبتنی بر داده های "قدیمی" یا تاریخی برای ارائه یک تصمیم فعلی استفاده می شود.

من فکر می کنم می توانید حدس بزنید که این به کجا می رود. اگر انسان‌هایی که بر اساس تصمیم‌گیری‌های الگو گرفته شده‌اند، سوگیری‌های نامطلوب را در خود جای داده‌اند، احتمال این وجود دارد که داده‌ها این را به روش‌های ظریف اما قابل توجهی منعکس کنند. تطبیق الگوی محاسباتی یادگیری ماشینی یا یادگیری عمیق به سادگی سعی می‌کند تا داده‌ها را مطابق با ریاضی تقلید کند. هیچ شباهتی از عقل سلیم یا سایر جنبه های حساس مدل سازی ساخته شده با هوش مصنوعی به خودی خود وجود ندارد.

علاوه بر این، توسعه دهندگان هوش مصنوعی نیز ممکن است متوجه نباشند که چه اتفاقی در حال رخ دادن است. ریاضیات محرمانه در ML/DL ممکن است کشف سوگیری های پنهان در حال حاضر را دشوار کند. شما به حق امیدوارید و انتظار دارید که توسعه‌دهندگان هوش مصنوعی سوگیری‌های بالقوه مدفون را آزمایش کنند، اگرچه این دشوارتر از آن چیزی است که به نظر می‌رسد. این احتمال وجود دارد که حتی با آزمایش نسبتاً گسترده، سوگیری‌هایی همچنان در مدل‌های تطبیق الگوی ML/DL وجود داشته باشد.

می‌توانید تا حدودی از ضرب‌المثل معروف یا بدنام زباله‌های درون زباله‌ها استفاده کنید. مسئله این است که این بیشتر شبیه سوگیری‌هایی است که به‌طور موذیانه به‌عنوان سوگیری‌هایی که در هوش مصنوعی غوطه‌ور می‌شوند، القا می‌شوند. الگوریتم تصمیم‌گیری (ADM) هوش مصنوعی به طور اصولی مملو از نابرابری‌ها می‌شود.

خوب نیست.

با این پیشینه بنیادی افزوده شده، یک بار دیگر به موضوع سیستم های خودمختار و سلاح سازی می پردازیم. قبلاً دیدیم که هوش مصنوعی وارد جزء سیستم خودمختار می شود و همچنین می تواند وارد جزء تسلیحاتی شود. هوش مصنوعی امروزی حساس نیست. این ارزش تکرار را دارد و من این را برای بینش بیشتر در مورد این موارد برجسته می کنم.

بیایید چند سناریو را بررسی کنیم تا ببینیم که چگونه این یک ملاحظات حیاتی است. من به طور لحظه ای از جهت گیری زمان جنگ در مورد این موضوع خارج می شوم و نحوه نفوذ آن در بسیاری از محیط های اجتماعی دیگر را به نمایش می گذارم. بر این اساس خود را ثابت نگه دارید.

یک سیستم خودمختار مبتنی بر هوش مصنوعی مانند یک وسیله نقلیه خودمختار که باید بگوییم هیچ ربطی به سلاح ندارد، در یک مکان معمولی راه خود را باز می کند. یک انسان می آید تا از وسیله نقلیه خودران استفاده کند. این شخص به یک سلاح پیشگویی مسلح شده است. برای بحث در این سناریوی خاص فرض کنید که شخص چیزی نامطلوب در ذهن دارد. شخص وارد وسیله نقلیه خودران می شود (در هر صورت اسلحه خود را حمل می کند، مخفی یا پنهان).

وسیله نقلیه خودران به هر مقصدی که راکب درخواست کرده است حرکت می کند. در این مورد، هوش مصنوعی به سادگی به صورت برنامه‌ریزی‌شده این مسافر را از یک مکان پیکاپ به مقصد تعیین‌شده حمل می‌کند، درست همانطور که برای ده‌ها یا صدها سفر در هر روز انجام داده است.

اگر این یک راننده انسان و یک وسیله نقلیه انسانی بود، احتمالاً این احتمال وجود دارد که راننده انسان متوجه شود که مسافر مسلح است و به نظر می رسد که نیت ناخوشایندی دارد. راننده انسانی ممکن است از رانندگی وسیله نقلیه امتناع کند. یا راننده انسان ممکن است به ایستگاه پلیس برود. یا ممکن است راننده انسانی سعی کند مسافر مسلح را تحت سلطه خود درآورد (نمونه های گزارش شده وجود دارد) یا مسافر را از استفاده از سلاح خود منصرف کند. کاملاً پیچیده است و هر تعداد تنوع می تواند وجود داشته باشد. به سختی می توانید ادعا کنید که تنها یک پاسخ درست برای حل چنین مشکلی وجود دارد. متأسفانه، وضعیت آزاردهنده و آشکارا خطرناک است.

هوش مصنوعی در این مورد بعید است برای هر یک از آن نوع احتمالات برنامه ریزی شود. به طور خلاصه، مسافر مسلح ممکن است بتواند از سلاح خود استفاده کند و این کار را از داخل وسیله نقلیه خودران در طول مسیر رانندگی انجام دهد. سیستم رانندگی هوش مصنوعی به حرکت خود ادامه می دهد و وسیله نقلیه خودران به سمت تعیین شده مسافر حرکت می کند (با این فرض که مقصد در غیر این صورت خارج از محدوده در نظر گرفته نشده است).

بیشتر سیستم‌های رانندگی هوش مصنوعی معاصر فقط از نظر محاسباتی روی جاده‌ها تمرکز می‌کنند و نه بر تلاش‌های سوارکار.

اوضاع می تواند بدتر از این هم شود.

فرض کنید شخصی می خواهد دسته ای از مواد غذایی را به مکانی که غذای اضافی برای نیازمندان می برد حمل کند. فرد درخواست یک وسیله نقلیه مستقل می کند و کیسه های مواد غذایی را در صندلی عقب خودرو قرار می دهد. آنها قصد ندارند برای سواری همراه شوند و صرفاً از وسیله نقلیه خودران برای تحویل کیسه های غذا برای آنها استفاده می کنند.

کاملاً خوب به نظر می رسد

تصور کنید که یک فرد شرور ترجیح می دهد به جای تصور صلح آمیزتر از کیسه های مواد غذایی، نوعی سلاح را در وسیله نقلیه خودران قرار دهد. فکر می کنم می توانید حدس بزنید چه اتفاقی ممکن است بیفتد. این نگرانی‌ای است که من بارها در ستون‌هایم به آن توصیه کرده‌ام و از قبل هشدار داده‌ام که باید زودتر با آن کنار بیاییم.

یکی از پاسخ‌های ارائه شده به این نوع سناریوها این است که شاید همه وسایل نقلیه خودران را می‌توان طوری برنامه‌ریزی کرد که از دوربین‌ها و سایر حسگرهای خود برای آزمایش و تشخیص اینکه آیا یک مسافر بالقوه مسلح است یا خیر برنامه‌ریزی کرد. شاید هوش مصنوعی برای انجام این کار برنامه ریزی شده باشد. یا هوش مصنوعی به صورت الکترونیکی و بی سر و صدا به اپراتور انسانی از راه دور هشدار می دهد که سپس از طریق دوربین ها به صورت بصری و در غیر این صورت مسافر را بررسی کرده و احتمالاً با او تعامل می کند. همه اینها بخشی از یک قوطی کرم های پیچیده و بالقوه غیرقابل حل است، به طوری که باعث ایجاد مشکلات شدید حریم خصوصی و انبوهی از نگرانی های بالقوه Ethical AI می شود. پوشش من را در پیوند اینجا.

یکی دیگر از گزینه‌های مشابه این است که هوش مصنوعی حاوی نوعی برنامه‌ریزی اخلاقی تعبیه‌شده است که سعی می‌کند هوش مصنوعی را قادر به قضاوت‌های اخلاقی یا اخلاقی کند که معمولاً برای تصمیم‌گیرندگان انسانی محفوظ است. من این انواع پیش‌بینی‌کننده‌های اخلاق محاسباتی تعبیه‌شده با هوش مصنوعی را بررسی کرده‌ام، ببینید پیوند اینجا و پیوند اینجا.

با بازگشت به یک سناریوی میدان نبرد، تصور کنید که یک سیستم تسلیحات خودمختار مرگبار در بالای یک منطقه جنگی در حال عبور است. هوش مصنوعی سیستم خودمختار را راه اندازی می کند. هوش مصنوعی در حال کار با سلاح ها در داخل هواپیما است. ما قبلاً این احتمال را تصور کرده بودیم که AI ممکن است برای اسکن حرکات به ظاهر خصمانه یا سایر شاخص های اهداف انسانی که به عنوان رزمندگان معتبر شناخته می شوند برنامه ریزی شود.

آیا همین هوش مصنوعی باید نوعی مؤلفه اخلاق مدار داشته باشد که تلاش کند محاسباتی در نظر بگیرد که انسان در حلقه چه کاری می تواند انجام دهد و به نوعی به جای داشتن یک انسان در حلقه عمل می کند؟

برخی می گویند بله، این را پیگیری کنیم. برخی با وحشت عقب می نشینند و می گویند یا غیرممکن است یا حرمت انسانیت را نقض می کند.

باز هم یک قوطی دیگر کرم.

نتیجه

برای کسانی از شما که به این موضوع علاقه مند هستند، چیزهای بیشتری قابل بحث است.

من به شما یک معمای آزاردهنده را می‌چشم.

ما معمولاً انتظار داریم که یک انسان در نهایت برای هر اتفاقی که در زمان جنگ رخ می دهد پاسخگو باشد. اگر هوش مصنوعی یک سیستم تسلیحاتی خودمختار را کنترل می‌کند یا یک سیستم خودگردان را کنترل می‌کند که احتمالاً به سلاح تبدیل شده است، و این سیستم در میدان جنگ کاری انجام می‌دهد که گمان می‌رود غیر وجدان باشد، چه کسی یا چه کسی باید در این مورد مقصر باشد؟

ممکن است استدلال کنید که هوش مصنوعی باید پاسخگو باشد. اما، اگر چنین است، دقیقاً به چه معناست؟ ما هنوز هوش مصنوعی امروزی را تجسم شخصیت حقوقی نمی دانیم، توضیح من را در اینجا ببینید پیوند اینجا. در مورد هوش مصنوعی، دم را به الاغ سنجاق نکنید. شاید اگر روزی هوش مصنوعی حساس شد، بتوانید این کار را انجام دهید. تا آن زمان، این مقدار کمی قابل دسترس است (به علاوه، هوش مصنوعی در معرض چه نوع مجازات یا عواقبی خواهد بود، به تحلیل من در پیوند اینجا و پیوند اینجا، مثلا).

اگر هوش مصنوعی مظنون پاسخگو نباشد، ممکن است به طور طبیعی بگوییم که هر انسان یا انسان هوش مصنوعی را ابداع کرده است، باید پاسخگو باشد. اگر هوش مصنوعی صرفاً یک سیستم خودمختار را اجرا می‌کرد و برخی از انسان‌ها با آن همراه شدند که آن را با سلاح‌سازی همراه کردند، می‌توانید این کار را انجام دهید؟ آیا دنبال توسعه دهندگان هوش مصنوعی می روید؟ یا کسانی که هوش مصنوعی را به کار گرفته اند؟ یا فقط بازیگر اسلحه ساز؟

من اطمینان دارم که شما این ایده را دریافت کنید که من فقط نوک کوه یخ را در بحث دلچسب خود لمس کرده ام.

در حال حاضر، اجازه دهید جلوتر برویم و این گفتمان را به پایان برسانیم. شاید به یاد بیاورید که جان لیلی در Euphues: The Anatomy of Wit در سال 1578 به طور به یاد ماندنی اظهار داشت که همه چیز در عشق و جنگ عادلانه است.

آیا او ظهور سیستم‌های تسلیحاتی خودمختار و همچنین ظهور سیستم‌های خودمختار را در ذهن داشت؟

ما مطمئناً باید فوراً این را در بالای ذهن خود قرار دهیم.

منبع: https://www.forbes.com/sites/lanceeliot/2022/07/25/ai-ethics-straggling-with-the-fiery-one-two-punch-of-both-ai-based-autonomous- سیستم‌های-سلاحی-و-استثمار-سیستم‌های-خودران-هوش-محور-که-شیطانی-سلاح شده/