آن ربات های چهار پا رقصنده شگفت انگیز.
من مطمئن هستم که شما آن ویدئوهای ویروسی از سیستمهای روباتیک چهار پا را دیدهاید که به شیوههای به ظاهر لذتبخش و دوستداشتنی سگمانند میرقصند و شوخی میکنند. به نظر میرسد که ما از دیدن آن رباتهای مبتنی بر هوش مصنوعی در حالی که از موانع بالا میروند و به نظر میرسد زمانی که بالای جعبهها قرار میگیرند یا بهطور نامطمئن روی بالای کابینتها قرار میگیرند، جای ظریفی پیدا میکنند، لذت میبریم. نگهبانان انسانی آنها گاه رباتهای چهارپای متحیر را هل میدهند یا هل میدهند، که بهشدت ناعادلانه به نظر میرسد و به راحتی میتواند خشم شما را از رفتار بیرحمانه آن انساننماهای مغز متفکر برانگیزد.
من نمی دانم که آیا ویدیوهای نه چندان ویروسی با کالیبر کاملاً متفاوت را دیده اید.
خودتان را آماده کنید.
ویدئوهایی به طور گسترده ای منتشر شده است که نشان می دهد همان نوع ربات های چهار پا که با سلاح های مشخص از یک نوع یا آن تجهیز شده اند.
به عنوان مثال، یک مسلسل یا سلاح گرم مشابه بر روی یک روبات رقصنده و رقصنده آشنا نصب شده است. ارتباط الکترونیکی بین ربات چهار پا و مکانیسم شلیک سلاح وجود دارد. ابزار راه رفتن کامپیوتری که اکنون به سلاح مجهز شده است، در حال گام برداشتن به سمت جایی که یک هدف بولسی قرار گرفته است، نشان داده می شود، و مسلسل به شدت به سمت هدف شلیک می شود. پس از میخکوب کردن هدف نیمه تخریب شده، ربات چهار پا می رقصد و در اطراف موانع مجاور می رقصد و به صف می نشیند تا همان عمل را بارها و بارها در سایر اهداف تازه تکرار کند.
نه کاملاً آن چیزی که انتظار داشتید ببینید. این مطمئناً احساس سبکی و شادی نسبی را از تماشای صادقانه آن روباتهای چهار پا نوازش میگیرد. به واقعیت خشن ظاهرا خوش آمدید بی آسیب سیستم های خودمختار در حال تبدیل یا تبدیل شدن به سلاح شدید. با تلاش زیاد، میتوانید یک شبه یک سیستم خودمختار «غیر تسلیحاتی» در نظر بگیرید که مجهز به تسلیحات کامل باشد.
در برخی شرایط تقریباً آسان است.
من قصد دارم در مورد این موضوع بحثبرانگیز بحث کنم و شک و تردیدهای نسبتاً سنگین اخلاق هوش مصنوعی را که به وجود میآیند را پوشش دهم. ما سفری به سیستمهای خودمختار، هوش مصنوعی، وسایل نقلیه خودران، تسلیحات و تعدادی از مسائل مرتبط با هوش مصنوعی اخلاقی خواهیم داشت. برای پوشش مداوم و گسترده من از اخلاق هوش مصنوعی و هوش مصنوعی اخلاقی، رجوع کنید پیوند اینجا و پیوند اینجا، فقط به نام چند.
بیایید با چند سنگ اساسی شروع کنیم.
برای بحث، بپذیرید که دو راه عمده برای طبقه بندی سیستم های خودمختار که به تسلیحات مسلح شده اند وجود دارد:
1) سیستم های سلاح های خودمختار (بر اساس طراحی)
2) سیستم های خودمختار که دارای سلاح هستند (بر اساس واقعیت)
تفاوت مهمی بین این دو دسته وجود دارد.
در وهله اول، یک را تعریف می کنیم سیستم تسلیحاتی خودمختار از همان ابتدا یک ساخته کامپیوتری باشد که به طور هدفمند به عنوان یک سلاح در نظر گرفته شده است. توسعه دهندگان در نظر داشتند که می خواهند یک سلاح ابداع کنند. تلاش صریح آنها تولید یک سلاح است. آنها می دانستند که می توانند تسلیحات را با جدیدترین فناوری های سیستم های خودمختار ترکیب کنند. این اسلحهای است که بر موجی از فناوری پیشرفته سوار میشود که به حرکت مستقل و اقدامات خودمختار دست مییابد (به زودی به طور کامل توضیح خواهم داد).
در مقابل، در وهله دوم، ما موضوع سیستمهای خودگردان را بررسی میکنیم که اصلاً تمایل خاصی به تسلیحات ندارند. اینها سیستم های مستقلی هستند که برای اهداف دیگر توسعه می یابند. یک وسیله نقلیه خودران مانند یک خودروی خودران را تصور کنید که برای ایجاد تحرک برای همه و کمک به کاهش هزاران مرگ و میر سالانه ناشی از خودروهای انسانراننده و انسانگردان (به پوشش عمیق من مراجعه کنید) تصور کنید. در پیوند اینجا). به نظر می رسد که سلاحی برای آن دسته از افراد خوش بین جامعه که تلاش می کنند انسان ها را از پشت فرمان بیرون بیاورند و به جای آن هوش مصنوعی را روی صندلی راننده قرار دهند، در نظر گرفته نمی شود.
اما اگر انسان ها بخواهند این سیستم های مستقل بی خطر را می توان به سلاح تبدیل کرد.
من به این دسته دوم اشاره می کنم سیستم های خودمختار که دارای سلاح هستند. سیستم خودمختار در اصل و به طور عابدانه برای یک هدف احتمالاً غیر تسلیحاتی ساخته شده بود. علیرغم آن، امید نوع دوستانه رویایی توسط کسی در جایی که این ایده راسخ می شود که این تدبیر می تواند به سلاح تبدیل شود، از بین می رود. به طور ناگهانی، سیستم خودمختار که نوازشگر به نظر می رسید با برچسب زدن بر روی برخی از قابلیت های سلاح (مانند ربات های سگ مانند چهار پا که قبلاً ذکر شد و یک مسلسل یا سلاح گرم مشابهی به ویژگی های آنها اضافه شده است) به یک سلاح کشنده تبدیل شد. .
متأسفانه، این دو دسته تا حدودی در یک مکان ختم میشوند، یعنی ظرفیت استفاده از سیستمهای خودمختار برای تسلیحات به صورت بالقوه کشنده را فراهم میکنند.
روند رسیدن به آن نقطه پایانی احتمالا متفاوت است.
برای سیستمهای خودمختار کاملاً تسلیحاتی که به عنوان سلاح تثبیت شدهاند، جنبههای تسلیحاتی معمولاً جلو و مرکز هستند. ممکن است بگویید که جنبه های سیستم خودمختار در اطراف سنگ بنای هر سلاحی که در نظر گرفته می شود پیچیده شده است. روند تفکر توسعه دهندگان تا حدودی در راستای این است که چگونه یک سلاح می تواند از ظهور سیستم های خودمختار بهره برداری کند.
دیدگاه دیگر معمولاً اصلاً با آن طرز فکر نیست. توسعه دهندگان می خواهند یک سیستم خودمختار پیشرفته را استخراج کنند، شاید برای بهبود نوع بشر. این توسعه دهندگان صمیمانه ترین قلب و روح خود را برای ساختن سیستم خودمختار به کار می گیرند. این هسته اختراع آنهاست. آنها ممکن است تصور نکنند که کسی وسیله معجزه آسا سودمند آنها را غصب یا خراب کند. آنها به طرز سعادتمندانه ای شیفته مزایای اجتماعی مرتبط با شکل گیری و تولید سیستم خودمختار هستند.
در نقطهای، فرض کنید که اشخاص ثالث متوجه میشوند که سیستم خودمختار را میتوان مجدداً تنظیم کرد تا به سلاح تبدیل شود. شاید آنها توسعه دهندگان را فریب می دهند تا به آنها اجازه دهند سیستم مستقلی را برای اهداف عالی داشته باشند. در پشت درهای بسته، این بدخواهان تصمیم میگیرند که یواشکی ظرفیت تسلیحاتی را به سیستم خودمختار اضافه کنند. Voila، معصومیت به سلاحی آشکار تبدیل شد.
لازم نیست کارها به این شکل پیش برود.
شاید به توسعه دهندگان گفته شود که در حال توسعه یک سیستم مستقل بی گناه هستند، با این حال کسانی که بودجه یا هدایت این تلاش را انجام می دهند، اهداف دیگری در ذهن داشتند. شاید تلاش سیستم خودمختار واقعاً بیگناه شروع شد، اما پس از آن که صورتحسابها باید پرداخت میشد، رهبری با منبع مالی که سیستمهای خودمختار را به دلایل شوم میخواهد، معامله کرد. احتمال دیگر این است که توسعهدهندگان میدانستند که استفاده بعدی ممکن است برای تسلیحات باشد، اما آنها تصور میکردند که وقتی یا در صورت ظهور از این پل وحشتناک عبور میکنند. و غیره.
مسیرهای بسیار و زیادی برای چگونگی انجام این همه وجود دارد.
شاید برایتان جالب باشد که در ستونهای قبلی توضیح دادهام که آگاهی در مورد اخلاق هوش مصنوعی در حال افزایش است. استفاده از دو عناصر هوش مصنوعی معاصر را ببینید پیوند اینجا. اجازه دهید به طور خلاصه شما را به سرعت بیاورم.
یک سیستم هوش مصنوعی که برای خوبی در نظر گرفته میشود، گاهی اوقات میتواند در آستانه بد قرار گیرد، شاید از طریق برخی تغییرات نسبتاً ساده، و به همین ترتیب به عنوان ماهیت استفاده دوگانه در نظر گرفته میشود. اخیراً در اخبار یک سیستم هوش مصنوعی بود که برای کشف مواد شیمیایی که ممکن است قاتل باشند ساخته شده بود، که توسعه دهندگان می خواستند مطمئن شوند که ما می توانیم از چنین مواد شیمیایی بد تصوری اجتناب کنیم یا مراقب آن باشیم. معلوم شد که میتوان هوش مصنوعی را تا حدودی بهراحتی بهینهسازی کرد تا به طور اختصاصی آن مواد شیمیایی قاتل را کشف کند و بنابراین به طور بالقوه به افراد بد اجازه میدهد بدانند چه نوع مواد شیمیایی را میتوانند به طور بالقوه برای نقشههای شیطانی افتضاح خود آماده کنند.
سیستمهای خودمختار میتوانند به وضوح در آن پوشش دوگانه قرار بگیرند.
تا حدودی، به همین دلیل است که اخلاق هوش مصنوعی و هوش مصنوعی اخلاقی یک موضوع بسیار مهم است. دستورات اخلاق هوش مصنوعی ما را وادار می کند که هوشیار بمانیم. فنآوران هوش مصنوعی ممکن است در مواقعی با فناوری، بهویژه بهینهسازی فناوریهای پیشرفته، مشغول شوند. آنها لزوماً پیامدهای اجتماعی بزرگتر را در نظر نمی گیرند. داشتن یک ذهنیت اخلاقی هوش مصنوعی و انجام این کار به طور یکپارچه برای توسعه و میداندهی هوش مصنوعی برای تولید هوش مصنوعی مناسب حیاتی است، از جمله (شاید شگفتانگیز یا طنزآمیز) ارزیابی نحوه پذیرش اخلاق هوش مصنوعی توسط شرکتها.
علاوه بر به کارگیری اصول اخلاقی هوش مصنوعی به طور کلی، یک سوال مربوط به این موضوع وجود دارد که آیا ما باید قوانینی برای کنترل کاربردهای مختلف هوش مصنوعی داشته باشیم. قوانین جدیدی در سطوح فدرال، ایالتی و محلی وضع می شود که به محدوده و ماهیت چگونگی ابداع هوش مصنوعی مربوط می شود. تلاش برای تدوین و تصویب چنین قوانینی تدریجی است. اخلاق هوش مصنوعی حداقل به عنوان یک توقف در نظر گرفته شده عمل می کند و تقریباً مطمئناً تا حدی مستقیماً در آن قوانین جدید گنجانده می شود.
توجه داشته باشید که برخی قاطعانه استدلال می کنند که ما به قوانین جدیدی که هوش مصنوعی را پوشش می دهد نیازی نداریم و قوانین موجود ما کافی است. در واقع، آنها از قبل هشدار میدهند که اگر برخی از این قوانین هوش مصنوعی را به اجرا بگذاریم، با مهار پیشرفتهای هوش مصنوعی که مزایای اجتماعی عظیمی را ارائه میکند، غاز طلایی را زیر پا میگذاریم.
استقلال و سلاح به عنوان دو دستور
عباراتی وجود دارد که برخی از آن برای هشدار دادن در مورد انواع سیستمهای خودمختار تسلیحاتی استفاده میکنند که در مجموع به عنوان ابداع میشوند. ربات های سلاخی.
این یک جنبه اضافی را به ارمغان می آورد که ما باید در مورد آن فکر کنیم.
آیا یک سیستم تسلیحاتی خودمختار و/یا یک سیستم خودمختار که تسلیحاتی شده است باید از یک روبات کشنده یا قاتل برتری داشته باشد؟
برخی استدلال می کنند که ما می توانیم قاطعانه داشته باشیم غیر کشنده سیستم های خودمختار تسلیحاتی نیز. بنابراین، در آن دیدگاه، استفاده از عباراتی مانند رباتهای سلاخ یا رباتهای قاتل بسیار نامناسب به نظر میرسد. یک نوع غیر کشنده احتمالاً می تواند آسیبی را که نتیجه کشنده نیست را تحت کنترل درآورد یا وارد کند. چنین سیستم هایی کشنده نیستند، بلکه ظرفیت آسیب زایی کمتری دارند. تواناییها را اغراق نکنید، میگویند آنهایی که اصرار دارند ما مجبور نیستیم درگیر یک ماشین کشتار آشکار باشیم.
بنابراین، ممکن است این را داشته باشیم:
- سیستم های تسلیحاتی خودمختار مرگبار
- سیستم های خودمختار کشنده ای که تسلیحاتی شده اند
- سیستم های تسلیحاتی خودران غیر کشنده
- سیستم های خودمختار غیر کشنده که تسلیحاتی شده اند
البته، استدلال مخالف این است که به نظر میرسد هر سیستم خودمختاری که تسلیحاتی شده است، پتانسیل لغزش به قلمرو مرگبار را دارد، حتی اگر ظاهراً فقط برای استفاده غیرکشنده در نظر گرفته شود. دو مرحله افزایشی رفتن از غیر کشنده به کشنده به سرعت انجام می شود زمانی که شما قبلاً یک سلاح در میان یک سیستم خودمختار در دست داشته باشید. به سختی میتوانید تضمینی قاطع ارائه دهید که غیرکشندهها وارد عرصه مرگبار نخواهند شد (اگرچه برخی تلاش میکنند این کار را انجام دهند، در یک ظاهر ریاضی).
قبل از اینکه به موضوع کلی سیستمهای خودمختار و تسلیحات بیشتر بپردازیم، ممکن است مفید باشد به چیز دیگری اشاره کنیم که اگرچه واضح است لزوماً در ذهن نیست.
ایناهاش:
- یک جنبه هوش مصنوعی وجود دارد که بخشی از سیستم خودمختار است
- یک جنبه تسلیحاتی وجود دارد که جنبه تسلیحاتی این معادله است
- هوش مصنوعی همچنین ممکن است با تسلیحات مرتبط باشد
بیایید آن را باز کنیم.
فرض میکنیم که سیستمهای خودمختار امروزی به هوش مصنوعی بهعنوان ابزار رایانهای زیربنایی برای ایجاد جنبههای مستقل نیاز دارند. این را ذکر میکنم زیرا میتوانید استدلال کنید که ما ممکن است از فناوریها و تکنیکهای غیرمرتبط با هوش مصنوعی برای انجام سیستمهای مستقل استفاده کنیم، که اگرچه درست است، اما احتمال آن کمتر و کمتر به نظر میرسد. اساساً، هوش مصنوعی به سطوح بالاتری از خودمختاری اجازه میدهد و بیشتر آنها از فناوری پیشرفته هوش مصنوعی بهره میبرند.
خوب، پس ما یک قابلیت مبتنی بر هوش مصنوعی داریم که به نوعی در سیستم خودمختار تزریق می شود و برای هدایت و کنترل سیستم خودمختار عمل می کند.
به عنوان یک قانون سرانگشتی آن را در نوک انگشتان خود نگه دارید.
به نظر می رسد به راحتی آشکار است که ما نیز نیاز به نوعی تسلیحات داریم، در غیر این صورت چرا در اینجا موضوع سیستم های خودمختار را مورد بحث قرار می دهیم. و سلاح ها بنابراین، بله، بدیهی است که یک نوع سلاح وجود دارد.
من قصد ندارم در مورد نوع تسلیحاتی که ممکن است مورد استفاده قرار گیرد، کاوش کنم. شما به سادگی می توانید هر سلاحی را که به ذهنتان می رسد جایگزین کنید. ممکن است سلاح های دقیق وجود داشته باشد. ممکن است سلاح های مخرب انبوه گرا وجود داشته باشد. ممکن است چیزی با گلوله یا پرتابه باشد. ممکن است چیزی باشد که دارای مواد شیمیایی یا اجزای فرار اتمی باشد. لیست بی پایان است.
نکته دیگر این است که آیا هوش مصنوعی با سلاح در ارتباط است یا خیر. هوش مصنوعی ممکن است صرفاً سلاح را برای سواری به همراه داشته باشد. در مورد ربات چهارپایی که به تفنگ شلیک میکرد، شاید تفنگ توسط انسانی شلیک میشود که کنترل از راه دور به ماشه سلاح متصل است. این ربات سگمانند صحنهای را هدایت میکند و پس از آن این وظیفه انسان دوردست است که ماشه را بکشد.
از سوی دیگر، هوش مصنوعی ممکن است همان طور که گفته شد، ماشه کش باشد. هوش مصنوعی ممکن است نه تنها برای هدایت و مانور دادن ابداع شده باشد، بلکه سلاح را نیز فعال کند. از این نظر، هوش مصنوعی همه کارها را از A تا Z انجام می دهد. هیچ وابستگی به یک انسان راه دور برای انجام جنبه تسلیحاتی کارها وجود ندارد. هوش مصنوعی برای انجام این کار در عوض برنامه ریزی شده است.
برای روشن شدن پس از آن در این مورد استفاده خاص از سیستمهای خودمختار که دارای سلاح هستند، این نوع احتمالات را داریم:
- سیستم خودمختار: هوش مصنوعی سیستم خودران را به طور کامل به تنهایی اجرا می کند
- سیستم خودمختار: هوش مصنوعی سیستم خودمختار را اجرا می کند، اما یک انسان در حلقه نیز می تواند مداخله کند
- تسلیحات: انسان از راه دور سلاح را اجرا می کند (هوش مصنوعی این کار را نمی کند)
- تسلیحات: هوش مصنوعی تسلیحات را اجرا می کند، اما انسان در حلقه نیز می تواند مداخله کند
- تسلیحات: هوش مصنوعی تسلیحات را کاملاً به تنهایی اجرا می کند
من قبلاً تغییرات داشتن انسان در حلقه را در مورد سیستم های خودمختار و وسایل نقلیه خودمختار پوشش داده ام. پیوند اینجا.
وقتی آن ویدیوهای سرگرم کننده ربات های چهار پا را تماشا می کنید که در حال رقصیدن و شوخی کردن هستند، آنها معمولاً روبات هایی هستند که به طور انحصاری توسط هوش مصنوعی اداره می شوند (خوب، این یک رسم است یا آداب مناسبی در بین ربات هایی که عمیقاً هستند در نظر گرفته می شود. به این مسائل). این همان چیزی است که شما نیز ممکن است به درستی فرض کنید. البته شما این را به طور قطع نمی دانید. ممکن است یک اپراتور انسانی از راه دور ربات ها را هدایت کند. همچنین این احتمال وجود دارد که هوش مصنوعی بخشی از هدایت را انجام دهد، و یک اپراتور انسانی از راه دور نیز این کار را انجام می دهد، شاید اگر ربات در موقعیت سختی قرار گیرد و نتواند از نظر محاسباتی وسیله ای مناسب برای رهایی خود را محاسبه کند، به هوش مصنوعی کمک کند.
نکته در اینجا این است که طعم های متعددی وجود دارد که چگونه هوش مصنوعی و سیستم های خودمختار و تسلیحات می توانند با هم ترکیب شوند. برخی دارای هوش مصنوعی هستند که سیستم خودمختار را اجرا می کند اما تسلیحات را اجرا نمی کند. یک انسان ممکن است از راه دور سلاح را اداره کند. زاویه دیگر این است که سلاح ممکن است از قبل فعال شده باشد، و سیستم خودمختار سلاح فعال شده را تحویل می دهد، بنابراین هوش مصنوعی به خودی خود مستقیماً در تحریک سلاح شرکت نداشته و در عوض به عنوان یک وسیله نقلیه تحویل عمل می کند. و ممکن است هوش مصنوعی یک ضربالمثل جک از همه کارها باشد و تمام جنبههای سیستم خودمختار را برای استفاده از تسلیحات نیز انجام دهد.
انتخاب خود را انجام دهید.
در همین حال، لطفاً بدانید که انسان در حلقه عامل بزرگی در بحث در مورد این موضوع است.
یک خط تقسیم توسط برخی این است که اگر هوش مصنوعی هدف گیری و تیراندازی را انجام دهد (یا هر سلاحی که مستلزم آن باشد) آنگاه کل کیت و کابودل به سرزمینی بینظیر رفته است. این ظاهراً با سلاحهای معمولی شلیک و فراموش کردن که دارای یک انتخاب از پیش تعیینشده توسط انسان هستند، مانند پهپادهای گشتزنی که موشکی آماده برای شلیک به هدفی دارد، متفاوت است. قبلا انتخاب شده توسط یک انسان
برخی تعجب میکنند که چرا سیستمهای خودمختار که دارای سلاح هستند، همیشه شامل یک انسان در حلقه در سراسر فرآیند سیستم خودمختار نمیشوند که به طور فعال در حال اجراست. به نظر میرسد اگر یک الزام جدی این باشد که همه این سیستمهای خودمختار تسلیحاتی باید یک انسان در حلقه داشته باشند، بهتر بود، یا این کار را برای عملکرد سیستم خودمختار یا برای عملیات تسلیحات (یا برای هر دو) انجام میداد. . حفظ یک دست انسان مطمئن و ثابت در این ترکیب هوش مصنوعی ممکن است کاملاً زیرکانه به نظر برسد.
برای فهرست طولانی دلایلی که چرا این لزوما امکان پذیر نیست آماده شوید.
این مشکلات را در نظر بگیرید:
- Human-in-the-Loop ممکن است برای پاسخگویی به موقع به اندازه کافی سریع نباشد
- Human-in-the-Loop ممکن است اطلاعات کافی برای پاسخگویی دقیق نداشته باشد
- Human-in-the-Loop ممکن است در زمان مورد نیاز در دسترس نباشد
- Human-in-the-Loop ممکن است تصمیم نگرفته باشد و در صورت نیاز اقدامی نکند
- انسان در حلقه ممکن است تصمیم «اشتباه» بگیرد (نسبتا)
- Human-in-the-Loop ممکن است در زمان مورد نیاز از سیستم قابل دسترسی نباشد
- Human-in-the-Loop ممکن است گیج شود و غرق شود
- غیره
شما بدون شک وسوسه شده اید که به لیستی از ضعف ها و محدودیت های انسانی نگاه کنید و سپس به این نتیجه گیری جدی برسید که ظاهرا منطقی است که انسان در حلقه را حذف کنید و همیشه در عوض از هوش مصنوعی استفاده کنید. این میتواند به استثنای انسان در حلقه باشد یا شاید هوش مصنوعی بتواند طراحی ریشهدار انسان در حلقه را نادیده بگیرد. تجزیه و تحلیل من را در مورد اینکه چگونه اختلاف نظر بین هوش مصنوعی و انسان در حلقه می تواند منجر به موقعیت های مخاطره آمیز شود را ببینید. پیوند اینجا.
اغلب، فهرستی تحقیرآمیز از این نوع از جنبههای منفی در زمان واقعی متمرکز بر انسان بهخودی خود باقی میماند و این تصور ماندگار را بر جای میگذارد که هوش مصنوعی باید به نوعی انتخابی بسیار عاقلانهتر از داشتن یک انسان در حلقه باشد. . در آن دام خائنانه نیفتید. مبادلات هشیارکننده ای در میان است.
این پیامدهای هوش مصنوعی را در نظر بگیرید:
- هوش مصنوعی ممکن است با خطایی مواجه شود که باعث گمراهی آن شود
- ممکن است هوش مصنوعی غرق شود و بدون پاسخ قفل شود
- هوش مصنوعی ممکن است حاوی اشکالات توسعه دهنده باشد که باعث رفتار نامنظم می شود
- ممکن است هوش مصنوعی با ویروس بدکار کاشته شده خراب شود
- هوش مصنوعی ممکن است توسط هکرهای سایبری در زمان واقعی تصرف شود
- ممکن است هوش مصنوعی به دلیل پیچیدگی ها غیرقابل پیش بینی در نظر گرفته شود
- هوش مصنوعی ممکن است از نظر محاسباتی تصمیم "اشتباه" را بگیرد (نسبتا)
- غیره
من اطمینان دارم که می توانید ببینید که بین استفاده از انسان در حلقه و اتکای صرف به هوش مصنوعی، معاوضه هایی وجود دارد. اگر وسوسه میشوید که راهحل آماده استفاده از هر دو است، فقط میخواهم تاکید کنم که میتوانید بهترین هر دو دنیا را به دست آورید، اما میتوانید بدترین هر دو جهان را نیز دریافت کنید. تصور نکنید که همیشه و مطمئنا بهترین هر دو جهان خواهد بود.
ممکن است از یکی از نکات منفی ذکر شده در بالا در مورد هوش مصنوعی تا حدودی شگفت زده شده باشید، به ویژه اینکه هوش مصنوعی ممکن است غیرقابل پیش بینی. ما به این باور عادت داریم که هوش مصنوعی کاملاً منطقی و از نظر ریاضی دقیق است. به این ترتیب، ممکن است انتظار داشته باشید که هوش مصنوعی کاملاً قابل پیش بینی باشد. قرار است دقیقاً بدانیم که هوش مصنوعی چه کاری انجام خواهد داد. دوره، پایان داستان.
متاسفم که آن بالون را ترکاندم، اما این افسانه قابل پیش بینی نام اشتباهی است. اندازه و پیچیدگی هوش مصنوعی امروزی غالباً یک باتلاق است که کاملاً قابل پیش بینی بودن را به چالش می کشد. این موضوع در هیاهوی هوش مصنوعی اخلاقی درباره برخی کاربردهای امروزی یادگیری ماشینی (ML) و یادگیری عمیق (DL) دیده میشود. کمی بیشتر به صورت لحظه ای توضیح می دهم.
همچنین، ممکن است بخواهید نگاهی به آخرین تحلیل من در مورد روندهای آتی در تلاش برای اطمینان از سیستم های هوش مصنوعی قابل تایید و قابل اثبات ریاضی از طریق جدیدترین های ایمنی هوش مصنوعی بیندازید. پیوند اینجا.
نشخوار در قوانین جاده
من به مفهوم اهداف و هدف گذاری اشاره کرده بودم، که یک اصطلاح نسبتاً سنگین است که شایسته توجه جدی است.
ما می توانیم در این مورد فکر کنیم:
- اهدافی که انسان هستند
- اهدافی که انسان نیستند اما موجودات زنده هستند
- اهدافی که به عنوان دارایی تعبیر می شوند
فرض کنید که ما یک سیستم خودمختار داریم که به سلاح تبدیل شده است. هوش مصنوعی برای هدایت سیستم خودمختار و برای تسلیحات استفاده می شود. هوش مصنوعی همه چیز را از A تا Z انجام می دهد. هیچ شرطی برای انسان در حلقه وجود ندارد. از نظر هدف گیری، هوش مصنوعی اهداف را انتخاب می کند. هیچ هدف گذاری اولیه ای وجود ندارد که توسط انسان ها ایجاد شده باشد. در عوض، هوش مصنوعی طوری برنامهریزی شده است که به طور کلی مشخص کند که آیا انسانهایی وجود دارند که باید هدف قرار گیرند (شاید بررسی اقدامات خصمانه، انواع خاصی از لباسها و غیره).
با من در این تا کنون؟
این سناریو تقریباً همان سناریویی است که بیشترین اعتراض را در مورد سیستم های خودمختار تسلیحاتی ایجاد می کند.
نگرانی اعلام شده این است که هوش مصنوعی (حداقل) سه کاری را انجام می دهد که نباید مجاز به انجام آنها باشد:
- هدف قرار دادن انسان به عنوان هدف
- هدف گیری بدون استفاده از انسان در حلقه
- بالقوه غیرقابل پیش بینی عمل می کندly
توجه داشته باشید که نگرانی هایی در مورد غیرقابل پیش بینی بودن هوش مصنوعی وجود دارد. ممکن است اگرچه هوش مصنوعی برای هدف قرار دادن انواع خاصی از انسان ها برنامه ریزی شده باشد، برنامه نویسی هوش مصنوعی آن چیزی نیست که ما فکر می کردیم، و این هوش مصنوعی در نهایت "دوستان" را هدف قرار می دهد، علاوه بر آنهایی که هوش مصنوعی قرار بود آنها را "دشمنان" تعبیر کند. ” (یا شاید به جای آن). علاوه بر این، حتی اگر بخواهیم یک شرط انسان در حلقه را لحاظ کنیم، غیرقابل پیش بینی بودن هوش مصنوعی ممکن است به این معنی باشد که وقتی قرار است هوش مصنوعی با انسان در حلقه گفتگو کند، این کار را انجام نمی دهد. بنابراین و بدون دخالت انسان عمل می کند.
ممکن است برای شما جالب باشد که کمیته بین المللی صلیب سرخ (صلیب سرخ) یک موضع کلی سه نقطه ای در مورد سیستم های تسلیحاتی خودمختار ارائه کرده است که در مورد این نوع نگرانی ها توضیح می دهد (بر اساس وب سایت صلیب سرخ):
1. «سیستمهای تسلیحاتی غیرقابل پیشبینی باید صریحاً تحت کنترل باشند خارج، به ویژه به دلیل تأثیرات بی رویه آنها. این امر با ممنوعیت سیستمهای تسلیحاتی خودمختار که به گونهای طراحی یا مورد استفاده قرار میگیرند بهتر میشود که اثرات آنها به اندازه کافی درک، پیشبینی و توضیح داده نشود.»
2. «با توجه به ملاحظات اخلاقی برای حفاظت از بشریت، و حمایت از قوانین حقوق بشردوستانه بینالمللی برای حمایت از غیرنظامیان و جنگجویان در هنگام جنگ، استفاده از سیستم های تسلیحاتی خودمختار برای هدف قرار دادن انسان ها باید رد شود. این به بهترین وجه از طریق ممنوعیت سیستمهای تسلیحاتی خودمختار که برای اعمال زور علیه افراد طراحی یا استفاده میشوند، محقق میشود.»
3. «به منظور حفاظت از غیرنظامیان و اشیاء غیرنظامی، رعایت قوانین حقوق بشردوستانه بینالمللی و حفاظت از بشریت، طراحی و استفاده از سیستمهای تسلیحاتی خودمختار که منع نمیشوند باید تنظیم شود، از جمله از طریق ترکیبی از: محدودیت در انواع هدفمانند محدود کردن آنها به اشیایی که طبیعتاً اهداف نظامی هستند. محدودیت در مدت زمان، دامنه جغرافیایی و مقیاس استفادهاز جمله فعال کردن قضاوت و کنترل انسان در رابطه با یک حمله خاص. محدودیت در موقعیت های استفادهمانند محدود کردن آنها به موقعیت هایی که غیرنظامیان یا اشیاء غیرنظامی در آن حضور ندارند. rالزامات برای تعامل انسان و ماشینبه ویژه برای اطمینان از نظارت مؤثر انسانی، مداخله و غیرفعال کردن به موقع.»
بر اساس یک چشم انداز مرتبط، سازمان ملل (سازمان ملل) از طریق کنوانسیون برخی از سلاح های متعارف (CCW) در ژنو، طبق گزارش رسمی منتشر شده در فضای مجازی (شامل ارجاعات به موارد بشردوستانه بین المللی مربوطه، یازده اصل راهنمای غیر الزام آور در مورد سلاح های خودمختار مرگبار ایجاد کرده است. مقررات قانون یا حقوق بین الملل حقوق بشر):
(الف) قوانین بینالمللی بشردوستانه به طور کامل در مورد همه سیستمهای تسلیحاتی، از جمله توسعه و استفاده بالقوه از سیستمهای تسلیحاتی خودمختار مرگبار، اعمال میشود.
(ب) مسئولیت انسان برای تصمیم گیری در مورد استفاده از سیستم های تسلیحاتی باید حفظ شود زیرا نمی توان مسئولیت را به ماشین ها منتقل کرد. این باید در کل چرخه حیات سیستم تسلیحاتی در نظر گرفته شود.
ج) تعامل انسان و ماشین، که ممکن است اشکال مختلفی داشته باشد و در مراحل مختلف چرخه حیات یک سلاح اجرا شود، باید اطمینان حاصل کند که استفاده بالقوه از سیستمهای تسلیحاتی مبتنی بر فناوریهای نوظهور در حوزه سیستمهای تسلیحاتی خود مختار مرگبار است. انطباق با قوانین بین المللی قابل اجرا، به ویژه IHL. در تعیین کیفیت و میزان تعامل انسان و ماشین، باید طیفی از عوامل از جمله زمینه عملیاتی، ویژگیها و قابلیتهای سیستم تسلیحاتی را در نظر گرفت.
(د) مسئولیت توسعه، استقرار و استفاده از هر سیستم تسلیحاتی نوظهور در چارچوب CCW باید مطابق با قوانین بینالمللی قابل اجرا تضمین شود، از جمله از طریق عملیات چنین سیستمهایی در یک زنجیره مسئول از فرماندهی و کنترل انسانی.
ث) مطابق با تعهدات دولتها بر اساس حقوق بین الملل، در مطالعه، توسعه، دستیابی یا اتخاذ یک سلاح جدید، ابزار یا روش جنگی، باید تعیین شود که آیا استفاده از آن، در برخی یا در همه شرایط، انجام می شود یا خیر. ممنوع شده توسط قوانین بین المللی؛
(و) هنگام توسعه یا دستیابی به سیستمهای تسلیحاتی جدید مبتنی بر فناوریهای نوظهور در زمینه سیستمهای تسلیحاتی مرگبار، امنیت فیزیکی، پادمانهای غیر فیزیکی مناسب (از جمله امنیت سایبری در برابر هک یا جعل داده)، خطر دستیابی به گروههای تروریستی. و خطر تکثیر باید در نظر گرفته شود.
(ز) ارزیابی ریسک و اقدامات کاهشی باید بخشی از چرخه طراحی، توسعه، آزمایش و استقرار فناوریهای نوظهور در هر سیستم تسلیحاتی باشد.
(ح) استفاده از فناوریهای نوظهور در زمینه سیستمهای تسلیحات خود مختار مرگبار در حفظ انطباق با IHL و سایر تعهدات حقوقی بینالمللی قابلاجرا باید مورد توجه قرار گیرد.
(i) در ایجاد اقدامات بالقوه سیاستی، فناوریهای نوظهور در حوزه سیستمهای تسلیحاتی خودمختار کشنده نباید انسانسازی شوند.
(j) بحثها و هرگونه اقدام سیاسی بالقوه اتخاذ شده در چارچوب CCW نباید مانع پیشرفت یا دسترسی به استفادههای صلحآمیز از فناوریهای خودمختار هوشمند شود.
(ک) CCW چارچوب مناسبی را برای رسیدگی به موضوع فناوریهای نوظهور در حوزه سیستمهای تسلیحاتی خود مختار مرگبار در چارچوب اهداف و مقاصد کنوانسیون ارائه میکند، که به دنبال ایجاد تعادل بین ضرورت نظامی و ملاحظات بشردوستانه است.
معضلی که در آن قرار داریم
این قوانین مختلف جنگ، قوانین درگیری مسلحانه، یا IHL (قوانین بشردوستانه بین المللی) به عنوان یک راهنمای حیاتی و همیشه امیدوارکننده برای در نظر گرفتن آنچه که ممکن است در مورد ظهور سیستم های خودمختار که دارای تسلیحات هستند، انجام دهیم، خواه با طراحی کیستون یا با طراحی کیستون عمل می کنند. با روش های پس از واقعیت
ما می توانیم از صمیم قلب آرزو کنیم که ممنوعیت سیستم های خودمختار تسلیحاتی مرگبار به طور دقیق و مطیع رعایت شود. مشکل این است که در هر یک از صادقانهترین ممنوعیتها، فضای تکاندهنده زیادی وجود دارد. همانطور که می گویند، قوانین برای شکستن قرار دارند. میتوانید شرطبندی کنید که در جایی که همه چیز ضعیف است، ریفراف شکافها را برطرف میکند و سعی میکند راه خود را با چشمک زدن به قوانین دور بزند.
در اینجا برخی از خلاءهای بالقوه قابل بررسی هستند:
- ادعاهای غیر کشنده. درست کردن غیر کشنده سیستمهای تسلیحاتی خودمختار (بهنظر میرسد اشکالی ندارد، زیرا خارج از مرز ممنوعیت است)، که سپس میتوانید آنها را با کمی تغییر به سمت کشنده شدن تغییر دهید (فقط در آخرین لحظه فراتر از ممنوعیت خواهید بود).
- فقط ادعاهای سیستم خودمختار. این ممنوعیت را با ایجاد نکردن سیستمهای خودمختار متمرکز بر کشنده، حفظ کنید، در عین حال، در ابداع سیستمهای خودران روزمره که (هنوز) تسلیحاتی نشدهاند، اما میتوانید به اندازهای کمتر به آنها مجهز شوید، پیشرفت کنید.
- ادعاهای ادغام نشدن به عنوان یکی. سیستمهای خودمختار را بسازید که اصلاً دارای سلاح نیستند، و وقتی زمانش رسید، سلاحهای piggyback را به گونهای بسازید که بتوانید قویاً استدلال کنید که آنها دو عنصر مجزا هستند و بنابراین ادعا کنید که آنها در چارچوب یک All-in-one قرار نمیگیرند. سیستم تسلیحاتی خودمختار یا پسر عموی آن.
- ادعا می کند که مستقل نیست. یک سیستم تسلیحاتی بسازید که به نظر نمی رسد از ظرفیت های خودمختار برخوردار باشد. در این سیستم احتمالاً غیرخودمختار فضایی برای حذف استقلال مبتنی بر هوش مصنوعی بگذارید. در صورت نیاز، خودمختاری را وصل کنید و آماده رول هستید (تا آن زمان ظاهراً ممنوعیت را نقض نمی کردید).
- دیگر
در تلاش برای ممنوعیت کامل سیستمهای تسلیحاتی خود مختار، مشکلات زیادی وجود دارد. من به چند مورد دیگر از آنها خواهم پرداخت.
برخی از کارشناسان استدلال می کنند که ممنوعیت به ویژه مفید نیست و در عوض باید مقررات نظارتی وجود داشته باشد. ایده این است که این ابزارها مجاز خواهند بود اما به شدت کنترل می شوند. مجموعهای از استفادههای قانونی، همراه با راههای هدفگیری قانونی، انواع قابلیتهای قانونی، تناسب قانونی و مواردی از این دست ارائه شده است.
از نظر آنها ممنوعیت مستقیم مانند این است که سر خود را در ماسه بگذارید و وانمود کنید که فیل در اتاق وجود ندارد. اگرچه این مشاجره خون کسانی را به جوش میآورد که با این استدلال مخالفت میکنند که با ایجاد ممنوعیت میتوانید وسوسه دنبال کردن این نوع سیستمها را به طرز چشمگیری کاهش دهید. مطمئنا، برخی این ممنوعیت را به رخ می کشند، اما حداقل امیدواریم که بیشتر آنها این کار را نکنند. سپس می توانید توجه خود را بر روی تظاهرکنندگان متمرکز کنید و مجبور نباشید توجه خود را به همه تقسیم کنید.
دور و بر این بحث ها می رود.
یکی دیگر از نگرانیهایی که اغلب به آن اشاره میشود این است که حتی اگر خوبها به ممنوعیت پایبند باشند، بدها این کار را نمیکنند. این امر خوب را در وضعیت بدی قرار می دهد. بدها این نوع سیستمهای خودمختار تسلیحاتی را خواهند داشت و خوبها نه. هنگامی که چیزهایی آشکار می شوند که بدها آنها را دارند، برای رسیدن به خوبی ها خیلی دیر خواهد بود. به طور خلاصه، تنها کار زیرکانه این است که برای مبارزه با آتش با آتش آماده شوید.
مناقشه بازدارندگی کلاسیک نیز وجود دارد. اگر افراد خوب تصمیم بگیرند که سیستمهای خود مختار تسلیحاتی بسازند، میتوان از آن برای جلوگیری از ورود افراد بد به درگیری استفاده کرد. یا خوبها بهتر مسلح میشوند و بدیها را منصرف میکنند، یا خوبها وقتی آماده میشوند که شاید بدها آشکار کنند که در تمام مدت به طور مخفیانه آن سیستمها را ابداع کردهاند.
مقابله با این شمارنده ها این است که با ساختن سیستم های خودمختار تسلیحاتی، یک مسابقه تسلیحاتی به راه انداخته اید. طرف مقابل هم به دنبال همین خواهد بود. حتی اگر از نظر فناوری قادر به ایجاد مجدد چنین سیستمهایی نباشند، اکنون میتوانند نقشههای «خوبها» را بدزدند، جرئتهای فناوری پیشرفته را مهندسی معکوس کنند، یا هر چیزی را که به نظر میرسد آزمایششده و واقعی میبینند تقلید کنند. راهی برای انجام کار
آه، برخی متقابلاً، همه اینها ممکن است منجر به کاهش درگیری ها به شکل ظاهری متقابل شود. اگر طرف A بداند که طرف B آن سلاح های سیستم های خودمختار کشنده را دارد، و طرف B بداند که طرف A آنها را دارد، ممکن است محکم بنشیند و با هم برخورد نکند. این هاله متمایز از ارتعاشات تخریب متقابل تضمین شده (MAD) است.
و به همین ترتیب.
هوش مصنوعی در خودمختاری
بیایید مطمئن شویم که در مورد ماهیت هوش مصنوعی امروزی یکسان هستیم.
امروزه هیچ هوش مصنوعی وجود ندارد که حساس باشد. ما این را نداریم ما نمی دانیم که آیا هوش مصنوعی ممکن خواهد بود یا خیر. هیچ کس نمی تواند به درستی پیش بینی کند که آیا ما به هوش مصنوعی خواهیم رسید یا خیر، یا اینکه آیا هوش مصنوعی به طور معجزه آسایی به شکلی از ابرنواختر شناختی محاسباتی پدید خواهد آمد (که معمولاً به عنوان تکینگی شناخته می شود، پوشش من را در اینجا ببینید. پیوند اینجا).
نوع هوش مصنوعی که من روی آن تمرکز می کنم شامل هوش مصنوعی غیر حساسی است که امروز داریم. اگر بخواهیم به شدت در مورد آن حدس بزنیم با احساس هوش مصنوعی، این بحث می تواند در جهتی کاملاً متفاوت پیش رود. ظاهراً یک هوش مصنوعی با کیفیت انسانی خواهد بود. شما باید در نظر داشته باشید که هوش مصنوعی حسی معادل شناختی یک انسان است. علاوه بر این، از آنجایی که برخی گمانه زنی می کنند که ممکن است هوش مصنوعی فوق هوشمند داشته باشیم، می توان تصور کرد که چنین هوش مصنوعی می تواند در نهایت از انسان ها باهوش تر باشد (برای کاوش من در مورد هوش مصنوعی فوق هوشمند به عنوان یک احتمال، نگاه کنید به پوشش در اینجا).
بیایید همه چیز را روی زمین نگه داریم و هوش مصنوعی محاسباتی غیر حساس امروزی را در نظر بگیریم.
درک کنید که هوش مصنوعی امروزی قادر به «فکر کردن» به هیچ شکلی با تفکر انسان نیست. وقتی با الکسا یا سیری تعامل می کنید، ظرفیت های مکالمه ممکن است شبیه ظرفیت های انسانی به نظر برسد، اما واقعیت این است که محاسباتی است و فاقد شناخت انسانی است. آخرین دوره هوش مصنوعی از یادگیری ماشینی (ML) و یادگیری عمیق (DL) استفاده گسترده ای کرده است که از تطابق الگوی محاسباتی استفاده می کند. این منجر به سیستمهای هوش مصنوعی شده است که ظاهری شبیه به تمایلات انسان دارند. در همین حال، هیچ هوش مصنوعی امروزی وجود ندارد که شباهتی به عقل سلیم داشته باشد و هیچ یک از شگفتیهای شناختی تفکر قوی انسانی را نداشته باشد.
بسیار مراقب انسان سازی هوش مصنوعی امروزی باشید.
ML/DL نوعی تطبیق الگوی محاسباتی است. روش معمول این است که شما داده ها را در مورد یک کار تصمیم گیری جمع آوری می کنید. داده ها را به مدل های کامپیوتری ML/DL وارد می کنید. آن مدل ها به دنبال یافتن الگوهای ریاضی هستند. پس از یافتن چنین الگوهایی، در صورت یافتن، سیستم هوش مصنوعی در هنگام مواجهه با داده های جدید از آن الگوها استفاده خواهد کرد. پس از ارائه داده های جدید، الگوهای مبتنی بر داده های "قدیمی" یا تاریخی برای ارائه یک تصمیم فعلی استفاده می شود.
من فکر می کنم می توانید حدس بزنید که این به کجا می رود. اگر انسانهایی که بر اساس تصمیمگیریهای الگو گرفته شدهاند، سوگیریهای نامطلوب را در خود جای دادهاند، احتمال این وجود دارد که دادهها این را به روشهای ظریف اما قابل توجهی منعکس کنند. تطبیق الگوی محاسباتی یادگیری ماشینی یا یادگیری عمیق به سادگی سعی میکند تا دادهها را مطابق با ریاضی تقلید کند. هیچ شباهتی از عقل سلیم یا سایر جنبه های حساس مدل سازی ساخته شده با هوش مصنوعی به خودی خود وجود ندارد.
علاوه بر این، توسعه دهندگان هوش مصنوعی نیز ممکن است متوجه نباشند که چه اتفاقی در حال رخ دادن است. ریاضیات محرمانه در ML/DL ممکن است کشف سوگیری های پنهان در حال حاضر را دشوار کند. شما به حق امیدوارید و انتظار دارید که توسعهدهندگان هوش مصنوعی سوگیریهای بالقوه مدفون را آزمایش کنند، اگرچه این دشوارتر از آن چیزی است که به نظر میرسد. این احتمال وجود دارد که حتی با آزمایش نسبتاً گسترده، سوگیریهایی همچنان در مدلهای تطبیق الگوی ML/DL وجود داشته باشد.
میتوانید تا حدودی از ضربالمثل معروف یا بدنام زبالههای درون زبالهها استفاده کنید. مسئله این است که این بیشتر شبیه سوگیریهایی است که بهطور موذیانه بهعنوان سوگیریهایی که در هوش مصنوعی غوطهور میشوند، القا میشوند. الگوریتم تصمیمگیری (ADM) هوش مصنوعی به طور اصولی مملو از نابرابریها میشود.
خوب نیست.
با این پیشینه بنیادی افزوده شده، یک بار دیگر به موضوع سیستم های خودمختار و سلاح سازی می پردازیم. قبلاً دیدیم که هوش مصنوعی وارد جزء سیستم خودمختار می شود و همچنین می تواند وارد جزء تسلیحاتی شود. هوش مصنوعی امروزی حساس نیست. این ارزش تکرار را دارد و من این را برای بینش بیشتر در مورد این موارد برجسته می کنم.
بیایید چند سناریو را بررسی کنیم تا ببینیم که چگونه این یک ملاحظات حیاتی است. من به طور لحظه ای از جهت گیری زمان جنگ در مورد این موضوع خارج می شوم و نحوه نفوذ آن در بسیاری از محیط های اجتماعی دیگر را به نمایش می گذارم. بر این اساس خود را ثابت نگه دارید.
یک سیستم خودمختار مبتنی بر هوش مصنوعی مانند یک وسیله نقلیه خودمختار که باید بگوییم هیچ ربطی به سلاح ندارد، در یک مکان معمولی راه خود را باز می کند. یک انسان می آید تا از وسیله نقلیه خودران استفاده کند. این شخص به یک سلاح پیشگویی مسلح شده است. برای بحث در این سناریوی خاص فرض کنید که شخص چیزی نامطلوب در ذهن دارد. شخص وارد وسیله نقلیه خودران می شود (در هر صورت اسلحه خود را حمل می کند، مخفی یا پنهان).
وسیله نقلیه خودران به هر مقصدی که راکب درخواست کرده است حرکت می کند. در این مورد، هوش مصنوعی به سادگی به صورت برنامهریزیشده این مسافر را از یک مکان پیکاپ به مقصد تعیینشده حمل میکند، درست همانطور که برای دهها یا صدها سفر در هر روز انجام داده است.
اگر این یک راننده انسان و یک وسیله نقلیه انسانی بود، احتمالاً این احتمال وجود دارد که راننده انسان متوجه شود که مسافر مسلح است و به نظر می رسد که نیت ناخوشایندی دارد. راننده انسانی ممکن است از رانندگی وسیله نقلیه امتناع کند. یا راننده انسان ممکن است به ایستگاه پلیس برود. یا ممکن است راننده انسانی سعی کند مسافر مسلح را تحت سلطه خود درآورد (نمونه های گزارش شده وجود دارد) یا مسافر را از استفاده از سلاح خود منصرف کند. کاملاً پیچیده است و هر تعداد تنوع می تواند وجود داشته باشد. به سختی می توانید ادعا کنید که تنها یک پاسخ درست برای حل چنین مشکلی وجود دارد. متأسفانه، وضعیت آزاردهنده و آشکارا خطرناک است.
هوش مصنوعی در این مورد بعید است برای هر یک از آن نوع احتمالات برنامه ریزی شود. به طور خلاصه، مسافر مسلح ممکن است بتواند از سلاح خود استفاده کند و این کار را از داخل وسیله نقلیه خودران در طول مسیر رانندگی انجام دهد. سیستم رانندگی هوش مصنوعی به حرکت خود ادامه می دهد و وسیله نقلیه خودران به سمت تعیین شده مسافر حرکت می کند (با این فرض که مقصد در غیر این صورت خارج از محدوده در نظر گرفته نشده است).
بیشتر سیستمهای رانندگی هوش مصنوعی معاصر فقط از نظر محاسباتی روی جادهها تمرکز میکنند و نه بر تلاشهای سوارکار.
اوضاع می تواند بدتر از این هم شود.
فرض کنید شخصی می خواهد دسته ای از مواد غذایی را به مکانی که غذای اضافی برای نیازمندان می برد حمل کند. فرد درخواست یک وسیله نقلیه مستقل می کند و کیسه های مواد غذایی را در صندلی عقب خودرو قرار می دهد. آنها قصد ندارند برای سواری همراه شوند و صرفاً از وسیله نقلیه خودران برای تحویل کیسه های غذا برای آنها استفاده می کنند.
کاملاً خوب به نظر می رسد
تصور کنید که یک فرد شرور ترجیح می دهد به جای تصور صلح آمیزتر از کیسه های مواد غذایی، نوعی سلاح را در وسیله نقلیه خودران قرار دهد. فکر می کنم می توانید حدس بزنید چه اتفاقی ممکن است بیفتد. این نگرانیای است که من بارها در ستونهایم به آن توصیه کردهام و از قبل هشدار دادهام که باید زودتر با آن کنار بیاییم.
یکی از پاسخهای ارائه شده به این نوع سناریوها این است که شاید همه وسایل نقلیه خودران را میتوان طوری برنامهریزی کرد که از دوربینها و سایر حسگرهای خود برای آزمایش و تشخیص اینکه آیا یک مسافر بالقوه مسلح است یا خیر برنامهریزی کرد. شاید هوش مصنوعی برای انجام این کار برنامه ریزی شده باشد. یا هوش مصنوعی به صورت الکترونیکی و بی سر و صدا به اپراتور انسانی از راه دور هشدار می دهد که سپس از طریق دوربین ها به صورت بصری و در غیر این صورت مسافر را بررسی کرده و احتمالاً با او تعامل می کند. همه اینها بخشی از یک قوطی کرم های پیچیده و بالقوه غیرقابل حل است، به طوری که باعث ایجاد مشکلات شدید حریم خصوصی و انبوهی از نگرانی های بالقوه Ethical AI می شود. پوشش من را در پیوند اینجا.
یکی دیگر از گزینههای مشابه این است که هوش مصنوعی حاوی نوعی برنامهریزی اخلاقی تعبیهشده است که سعی میکند هوش مصنوعی را قادر به قضاوتهای اخلاقی یا اخلاقی کند که معمولاً برای تصمیمگیرندگان انسانی محفوظ است. من این انواع پیشبینیکنندههای اخلاق محاسباتی تعبیهشده با هوش مصنوعی را بررسی کردهام، ببینید پیوند اینجا و پیوند اینجا.
با بازگشت به یک سناریوی میدان نبرد، تصور کنید که یک سیستم تسلیحات خودمختار مرگبار در بالای یک منطقه جنگی در حال عبور است. هوش مصنوعی سیستم خودمختار را راه اندازی می کند. هوش مصنوعی در حال کار با سلاح ها در داخل هواپیما است. ما قبلاً این احتمال را تصور کرده بودیم که AI ممکن است برای اسکن حرکات به ظاهر خصمانه یا سایر شاخص های اهداف انسانی که به عنوان رزمندگان معتبر شناخته می شوند برنامه ریزی شود.
آیا همین هوش مصنوعی باید نوعی مؤلفه اخلاق مدار داشته باشد که تلاش کند محاسباتی در نظر بگیرد که انسان در حلقه چه کاری می تواند انجام دهد و به نوعی به جای داشتن یک انسان در حلقه عمل می کند؟
برخی می گویند بله، این را پیگیری کنیم. برخی با وحشت عقب می نشینند و می گویند یا غیرممکن است یا حرمت انسانیت را نقض می کند.
باز هم یک قوطی دیگر کرم.
نتیجه
برای کسانی از شما که به این موضوع علاقه مند هستند، چیزهای بیشتری قابل بحث است.
من به شما یک معمای آزاردهنده را میچشم.
ما معمولاً انتظار داریم که یک انسان در نهایت برای هر اتفاقی که در زمان جنگ رخ می دهد پاسخگو باشد. اگر هوش مصنوعی یک سیستم تسلیحاتی خودمختار را کنترل میکند یا یک سیستم خودگردان را کنترل میکند که احتمالاً به سلاح تبدیل شده است، و این سیستم در میدان جنگ کاری انجام میدهد که گمان میرود غیر وجدان باشد، چه کسی یا چه کسی باید در این مورد مقصر باشد؟
ممکن است استدلال کنید که هوش مصنوعی باید پاسخگو باشد. اما، اگر چنین است، دقیقاً به چه معناست؟ ما هنوز هوش مصنوعی امروزی را تجسم شخصیت حقوقی نمی دانیم، توضیح من را در اینجا ببینید پیوند اینجا. در مورد هوش مصنوعی، دم را به الاغ سنجاق نکنید. شاید اگر روزی هوش مصنوعی حساس شد، بتوانید این کار را انجام دهید. تا آن زمان، این مقدار کمی قابل دسترس است (به علاوه، هوش مصنوعی در معرض چه نوع مجازات یا عواقبی خواهد بود، به تحلیل من در پیوند اینجا و پیوند اینجا، مثلا).
اگر هوش مصنوعی مظنون پاسخگو نباشد، ممکن است به طور طبیعی بگوییم که هر انسان یا انسان هوش مصنوعی را ابداع کرده است، باید پاسخگو باشد. اگر هوش مصنوعی صرفاً یک سیستم خودمختار را اجرا میکرد و برخی از انسانها با آن همراه شدند که آن را با سلاحسازی همراه کردند، میتوانید این کار را انجام دهید؟ آیا دنبال توسعه دهندگان هوش مصنوعی می روید؟ یا کسانی که هوش مصنوعی را به کار گرفته اند؟ یا فقط بازیگر اسلحه ساز؟
من اطمینان دارم که شما این ایده را دریافت کنید که من فقط نوک کوه یخ را در بحث دلچسب خود لمس کرده ام.
در حال حاضر، اجازه دهید جلوتر برویم و این گفتمان را به پایان برسانیم. شاید به یاد بیاورید که جان لیلی در Euphues: The Anatomy of Wit در سال 1578 به طور به یاد ماندنی اظهار داشت که همه چیز در عشق و جنگ عادلانه است.
آیا او ظهور سیستمهای تسلیحاتی خودمختار و همچنین ظهور سیستمهای خودمختار را در ذهن داشت؟
ما مطمئناً باید فوراً این را در بالای ذهن خود قرار دهیم.
منبع: https://www.forbes.com/sites/lanceeliot/2022/07/25/ai-ethics-straggling-with-the-fiery-one-two-punch-of-both-ai-based-autonomous- سیستمهای-سلاحی-و-استثمار-سیستمهای-خودران-هوش-محور-که-شیطانی-سلاح شده/