شاید هفته گذشته در اخبار دیده باشید یا در رسانه های اجتماعی متوجه تعهد اعلام شده توسط برخی از سازندگان ربات در مورد اهداف خود برای جلوگیری از تسلیح ربات های همه منظوره با هوش مصنوعی شده باشید. من در یک لحظه شما را از طریق جزئیات راهنمایی خواهم کرد، بنابراین اگر متوجه موضوع نشده اید نگران نباشید.
واکنش به این اعلامیه سریع بوده و، شاید طبق معمول در جامعه قطبی شده ما، هم ستایش آمیز و هم گاهی به طرز تمسخرآمیزی انتقادی و یا کاملاً بدبینانه بوده است.
این داستان دو جهان است.
در یک دنیا، برخی می گویند که این دقیقاً همان چیزی است که ما به آن نیاز داریم مسئوليت توسعه دهندگان ربات هوش مصنوعی اعلام کنند.
خدا را شکر که در سمت راست موضوعی قرار گرفتید که به تدریج آشکارتر و نگران کننده تر می شود. آن رباتهای رقصنده بامزه نگرانکننده هستند، زیرا به راحتی میتوان آنها را برای حمل اسلحه و استفاده از آنها به بدترین روشها استفاده کرد (میتوانید خودتان با مراجعه به رسانههای اجتماعی این موضوع را بررسی کنید و ویدیوهای فراوانی وجود دارد که رباتهای رقصنده مجهز به مسلسل و مسلسل را به نمایش میگذارد. سایر تسلیحات).
روی دیگر این سکه می گوید که به اصطلاح تعهد چیزی بیش از یک ترفند بازاریابی یا روابط عمومی نیست (به عنوان حاشیه، آیا کسی با تفاوت بین تعهد و اهدا آشنا است؟). به هر حال، شک کنندگان توصیه می کنند که این یک سیگنال فضیلت افسارگسیخته در زمینه ربات های رقصنده است. می بینید، نارضایتی از این واقعیت که ربات های همه منظوره را می توان تسلیحاتی کرد، مطمئناً یک بررسی ارزشمند و جدی است، اگرچه برخی اصرار دارند که صرفاً ادعا کنند که سازنده این کار را انجام نمی دهد، احتمالاً یک وعده توخالی است.
در مجموع، کل این موضوع مجموعهای از ملاحظات اخلاقی هوش مصنوعی و قوانین هوش مصنوعی را مطرح میکند. ما با دقت موضوع را باز خواهیم کرد و خواهیم دید که چگونه این یک هجمه مضاعف از یک باتلاق هوش مصنوعی اخلاقی و قانونی است. برای پوشش مداوم و گسترده من از اخلاق هوش مصنوعی و قانون هوش مصنوعی، نگاه کنید به پیوند اینجا و پیوند اینجا، فقط به نام چند.
من همچنین در طول این بحث به تحلیل های قبلی خود در مورد خطرات تسلیحات هوش مصنوعی، مانند ارزیابی عمیق خود در پیوند اینجا. ممکن است بخواهید برای جزئیات بیشتر در پشت صحنه نگاهی به آن گفتمان بیندازید.
نامه سرگشاده ای که قوطی کرم را باز می کند
بیایید این تحلیل را با کاوش دقیق گام به گام در Open Letter که اخیراً توسط شش سازنده رباتهای پیشرفته نسبتاً مشهور منتشر شده است آغاز کنیم، یعنی Boston Dynamics، Clearpath Robotics، ANYbotics، Agility Robotics، Open Robotics و Unitree. به طور کلی، حدس میزنم که شما عمدتا رباتهای Boston Dynamics را دیدهاید، مانند رباتهایی که روی چهار دست و پا میچرخند. آنها به نظر میرسند که شبیه سگ هستند و ما از دیدن آنها در حال پرسه زدن لذت میبریم.
همانطور که قبلاً و مکرراً هشدار دادهام، استفاده از این رباتهای «رقصنده» بهعنوان وسیلهای برای متقاعد کردن عموم مردم به اینکه این رباتها زیبا و شایانستیز هستند، متأسفانه گمراهکننده است و به دامهای فراوان انسانسازی آنها منحرف میشود. ما شروع به فکر کردن به این قطعات سخت فلزی و پلاستیکی می کنیم که گویی معادل یک سگ وفادار نوازشگر هستند. تمایل ما برای پذیرش این رباتها بر اساس احساس کاذب ایمنی و اطمینان است. مطمئناً باید پولی به دست آورید و شانس انجام این کار با رژه در اطراف رباتهای رقصنده افزایش مییابد، اما متأسفانه این واقعیت واقعی که این روباتها روبات هستند و هوش مصنوعی کنترل رباتها را میتوان به اشتباه ابداع کرد، نادیده میگیرد یا به ظاهر پنهان میکند. یا به اشتباه برو
این پیامدهای هوش مصنوعی را در نظر بگیرید (برگرفته از مقاله من در مورد تسلیحات هوش مصنوعی، که در پیوند اینجا):
- هوش مصنوعی ممکن است با خطایی مواجه شود که باعث گمراهی آن شود
- ممکن است هوش مصنوعی غرق شود و بدون پاسخ قفل شود
- هوش مصنوعی ممکن است حاوی اشکالات توسعه دهنده باشد که باعث رفتار نامنظم می شود
- ممکن است هوش مصنوعی با ویروس بدکار کاشته شده خراب شود
- هوش مصنوعی ممکن است توسط هکرهای سایبری در زمان واقعی تصرف شود
- ممکن است هوش مصنوعی به دلیل پیچیدگی ها غیرقابل پیش بینی در نظر گرفته شود
- هوش مصنوعی ممکن است از نظر محاسباتی تصمیم "اشتباه" را بگیرد (نسبتا)
- غیره
اینها نکاتی در مورد هوش مصنوعی هستند که واقعاً در ابتدا برای انجام کار درست طراحی شده است.
علاوه بر این ملاحظات، شما باید سیستمهای هوش مصنوعی را که از ابتدا برای انجام کارهای بد ساخته شدهاند، بگنجانید. شما می توانید هوش مصنوعی داشته باشید که برای اهداف سودمند ساخته شده است، که اغلب به آن گفته می شود هوش مصنوعی برای خوب. شما همچنین می توانید هوش مصنوعی داشته باشید که عمداً برای اهداف بد ساخته شده است، به نام هوش مصنوعی برای بد. علاوه بر این، می توانید داشته باشید هوش مصنوعی برای خوب که فاسد شده یا دوباره به تبدیل شدن هوش مصنوعی برای بد.
در ضمن، هیچ کدام از اینها ربطی به هوش مصنوعی شدن هوش مصنوعی ندارد، که من به آن اشاره می کنم زیرا برخی مدام فریاد می زنند که هوش مصنوعی امروزی یا حساس است یا در آستانه حساس شدن است. اینطور نیست. من آن افسانهها را در تحلیل خود جدا میکنم پیوند اینجا.
بیایید مطمئن شویم که در مورد ماهیت هوش مصنوعی امروزی در یک صفحه هستیم.
امروزه هیچ هوش مصنوعی وجود ندارد که حساس باشد. ما این را نداریم ما نمی دانیم که آیا هوش مصنوعی ممکن خواهد بود یا خیر. هیچ کس نمی تواند به درستی پیش بینی کند که آیا ما به هوش مصنوعی خواهیم رسید یا خیر، یا اینکه آیا هوش مصنوعی به طور معجزه آسایی به شکلی از ابرنواختر شناختی محاسباتی پدید خواهد آمد (که معمولاً به عنوان تکینگی شناخته می شود، پوشش من را در اینجا ببینید. پیوند اینجا).
نوع هوش مصنوعی که من روی آن تمرکز می کنم شامل هوش مصنوعی غیر حساسی است که امروز داریم. اگر بخواهیم در مورد هوش مصنوعی حساس حدس و گمان بزنیم، این بحث می تواند در جهتی کاملاً متفاوت پیش رود. ظاهراً یک هوش مصنوعی با کیفیت انسانی خواهد بود. شما باید در نظر داشته باشید که هوش مصنوعی حسی معادل شناختی یک انسان است. علاوه بر این، از آنجایی که برخی حدس می زنند که ممکن است هوش مصنوعی فوق هوشمند داشته باشیم، می توان تصور کرد که چنین هوش مصنوعی می تواند در نهایت از انسان ها باهوش تر باشد (برای کاوش من در مورد هوش مصنوعی فوق هوشمند به عنوان یک امکان، نگاه کنید به پوشش در اینجا).
من قویاً پیشنهاد میکنم که همه چیز را ثابت نگه داریم و هوش مصنوعی محاسباتی غیر حساس امروزی را در نظر بگیریم.
درک کنید که هوش مصنوعی امروزی قادر به «فکر کردن» به هیچ شکلی با تفکر انسان نیست. وقتی با الکسا یا سیری تعامل می کنید، ظرفیت های مکالمه ممکن است شبیه ظرفیت های انسانی به نظر برسد، اما واقعیت این است که محاسباتی است و فاقد شناخت انسانی است. آخرین دوره هوش مصنوعی از یادگیری ماشینی (ML) و یادگیری عمیق (DL) استفاده گسترده ای کرده است که از تطابق الگوی محاسباتی استفاده می کند. این منجر به سیستمهای هوش مصنوعی شده است که ظاهری شبیه به تمایلات انسان دارند. در همین حال، هیچ هوش مصنوعی امروزی وجود ندارد که شباهتی به عقل سلیم داشته باشد و هیچ یک از شگفتیهای شناختی تفکر قوی انسانی را نداشته باشد.
بسیار مراقب انسان سازی هوش مصنوعی امروزی باشید.
ML/DL نوعی تطبیق الگوی محاسباتی است. روش معمول این است که شما داده ها را در مورد یک کار تصمیم گیری جمع آوری می کنید. داده ها را به مدل های کامپیوتری ML/DL وارد می کنید. آن مدل ها به دنبال یافتن الگوهای ریاضی هستند. پس از یافتن چنین الگوهایی، در صورت یافتن، سیستم هوش مصنوعی در هنگام مواجهه با داده های جدید از آن الگوها استفاده خواهد کرد. پس از ارائه داده های جدید، الگوهای مبتنی بر داده های "قدیمی" یا تاریخی برای ارائه یک تصمیم فعلی استفاده می شود.
من فکر می کنم می توانید حدس بزنید که این به کجا می رود. اگر انسانهایی که بر اساس تصمیمگیریهای الگو گرفته شدهاند، سوگیریهای نامطلوب را در خود جای دادهاند، احتمال این وجود دارد که دادهها این را به روشهای ظریف اما قابل توجهی منعکس کنند. تطبیق الگوی محاسباتی یادگیری ماشینی یا یادگیری عمیق به سادگی سعی میکند تا دادهها را مطابق با ریاضی تقلید کند. هیچ شباهتی از عقل سلیم یا سایر جنبه های حساس مدل سازی ساخته شده با هوش مصنوعی به خودی خود وجود ندارد.
علاوه بر این، توسعه دهندگان هوش مصنوعی نیز ممکن است متوجه نباشند که چه اتفاقی در حال رخ دادن است. ریاضیات محرمانه در ML/DL ممکن است کشف سوگیری های پنهان در حال حاضر را دشوار کند. شما به حق امیدوارید و انتظار دارید که توسعه دهندگان هوش مصنوعی سوگیری های بالقوه مدفون را آزمایش کنند، اگرچه این مشکل تر از آن چیزی است که به نظر می رسد. یک شانس قوی وجود دارد که حتی با آزمایش نسبتاً گسترده، سوگیریهایی همچنان در مدلهای تطبیق الگوی ML/DL وجود داشته باشد.
میتوانید تا حدودی از ضربالمثل معروف یا بدنام زبالههای درون زبالهها استفاده کنید. مسئله این است که این بیشتر شبیه سوگیریهایی است که بهطور موذیانه بهعنوان سوگیریهایی که در هوش مصنوعی غوطهور میشوند، القا میشوند. الگوریتم تصمیمگیری (ADM) هوش مصنوعی به طور اصولی مملو از نابرابریها میشود.
خوب نیست.
همه اینها پیامدهای قابل توجهی از اخلاق هوش مصنوعی دارند و دریچه ای مفید به درس های آموخته شده (حتی قبل از اینکه همه درس ها اتفاق بیفتند) هنگام تلاش برای قانون گذاری هوش مصنوعی ارائه می دهد.
علاوه بر به کارگیری اصول اخلاقی هوش مصنوعی به طور کلی، یک سوال مربوط به این موضوع وجود دارد که آیا ما باید قوانینی برای کنترل کاربردهای مختلف هوش مصنوعی داشته باشیم. قوانین جدیدی در سطوح فدرال، ایالتی و محلی وضع می شود که به محدوده و ماهیت چگونگی ابداع هوش مصنوعی مربوط می شود. تلاش برای تدوین و تصویب چنین قوانینی تدریجی است. اخلاق هوش مصنوعی حداقل به عنوان یک توقف در نظر گرفته شده عمل می کند و تقریباً مطمئناً تا حدی مستقیماً در آن قوانین جدید گنجانده می شود.
توجه داشته باشید که برخی قاطعانه استدلال می کنند که ما به قوانین جدیدی که هوش مصنوعی را پوشش می دهد نیازی نداریم و قوانین موجود ما کافی است. آنها پیشبینی میکنند که اگر برخی از این قوانین هوش مصنوعی را به اجرا بگذاریم، با مهار پیشرفتهای هوش مصنوعی که مزایای اجتماعی عظیمی را ارائه میدهد، غاز طلایی را خواهیم کشت.
در ستونهای قبلی، من تلاشهای ملی و بینالمللی مختلف برای ایجاد و وضع قوانین مربوط به هوش مصنوعی را پوشش دادهام. پیوند اینجا، مثلا. من همچنین اصول و رهنمودهای مختلف اخلاق هوش مصنوعی را که کشورهای مختلف شناسایی و پذیرفته اند پوشش داده ام، از جمله تلاش سازمان ملل متحد مانند مجموعه اخلاق هوش مصنوعی یونسکو که نزدیک به 200 کشور آن را پذیرفته اند. پیوند اینجا.
در اینجا یک لیست کلیدی مفید از معیارها یا ویژگی های هوش مصنوعی اخلاقی در رابطه با سیستم های هوش مصنوعی است که قبلاً از نزدیک بررسی کرده ام:
- شفافیت
- عدالت و انصاف
- عدم سوء استفاده
- مسئوليت
- حریم خصوصی
- سود رسانی
- آزادی و خودمختاری
- اعتماد
- پایداری
- کرامت
- اتحاد
این اصول اخلاقی هوش مصنوعی قرار است با جدیت توسط توسعه دهندگان هوش مصنوعی، همراه با آنهایی که تلاش های توسعه هوش مصنوعی را مدیریت می کنند، و حتی آنهایی که در نهایت سیستم های هوش مصنوعی را انجام می دهند، مورد استفاده قرار گیرد.
همه ذینفعان در طول چرخه عمر توسعه و استفاده هوش مصنوعی در محدوده رعایت هنجارهای تثبیت شده هوش مصنوعی اخلاقی در نظر گرفته می شوند. این نکته مهمی است زیرا فرض معمول این است که «فقط کدنویسها» یا کسانی که هوش مصنوعی را برنامهریزی میکنند، مشمول رعایت مفاهیم اخلاق هوش مصنوعی هستند. همانطور که قبلاً در اینجا تأکید شد، برای ابداع و بکارگیری هوش مصنوعی به یک روستا نیاز است، و برای آن کل دهکده باید به اصول اخلاقی هوش مصنوعی آشنا باشد و از آن پیروی کند.
اکنون که پایههای مفیدی برای ورود به نامه باز گذاشتهام، آماده فرو رفتن در آن هستیم.
عنوان رسمی نامه باز این است:
- "نامه ای سرگشاده به صنعت رباتیک و جوامع ما، ربات های همه منظوره نباید سلاح شوند” (طبق ارسال آنلاین).
تا کنون، خیلی خوب است.
عنوان تقریباً شبیه بستنی و پای سیب است. چگونه کسی می تواند این را به عنوان یک فراخوان قبلی برای جلوگیری از تسلیح ربات هوش مصنوعی رد کند؟
برای دیدن به ادامه مطلب بروید
ابتدا، به عنوان خوراکی برای بررسی، در اینجا پاراگراف افتتاحیه رسمی نامه باز است:
- ما برخی از شرکتهای پیشرو در جهان هستیم که به معرفی نسلهای جدید روباتیک پیشرفته موبایل به جامعه اختصاص یافتهایم. این نسلهای جدید رباتها نسبت به نسلهای قبلی در دسترستر، کارکرد آسانتر، مستقلتر، مقرونبهصرفهتر و سازگارتر هستند و میتوانند در مکانهایی که قبلاً برای فناوریهای خودکار یا کنترلشده از راه دور غیرقابل دسترس بودند، حرکت کنند. ما بر این باوریم که روباتهای متحرک پیشرفته به عنوان همکاران در صنعت و همراهان در خانههای ما، مزایای زیادی برای جامعه فراهم میکنند.
جنبه آفتابی ظهور این نوع ربات ها این است که ما می توانیم مزایای زیادی را برای ظهور پیش بینی کنیم. بدون شک در مورد آن. ممکن است یک ربات در خانه خود داشته باشید که بتواند آن فعالیت های جتسون مانند تمیز کردن خانه، شستن ظروف و سایر کارهای خانه را انجام دهد. ما روبات های پیشرفته ای برای استفاده در کارخانه ها و تاسیسات تولیدی خواهیم داشت. ربات ها به طور بالقوه می توانند در فضاهای تنگ مانند زمانی که ساختمان فرو می ریزد و جان انسان ها در خطر است بخزند یا مانور دهند. و غیره.
علاوه بر این، ممکن است پوشش چشمی انتقادی اخیر من از روز هوش مصنوعی تسلا که در آن برخی از روباتهای راهرو توسط ایلان ماسک بهعنوان آینده تسلا و جامعه به تصویر کشیده شدهاند، برایتان جالب باشد. پیوند اینجا.
بازگشت به موضوع در دست. وقتی به طور جدی درباره روباتهای رقصنده یا روباتهای راهرو بحث میکنیم، باید بهتدریج مبادلات یا کل ROI (بازده سرمایهگذاری) این استفاده از هوش مصنوعی را در نظر بگیریم. ما نباید به خود اجازه دهیم که بیش از حد شیفته مزایا شویم، زمانی که هزینه هایی نیز باید در نظر گرفته شود.
یک اسباب بازی جدید براق می تواند لبه های نسبتاً تیز داشته باشد.
همه اینها یک نکته مهم اما تا حدودی خاموش را برمیانگیزد که بخشی از دلیلی که اکنون مسئله سلاحسازی با هوش مصنوعی به وجود میآید به دلیل پیشرفت هوش مصنوعی به سمت فعالیتهای خودمختار است. ما معمولاً انتظار داشته ایم که سلاح ها عموماً توسط انسان کار می کنند. یک انسان تصمیم می گیرد که با سلاح شلیک کند یا درگیر شود. ما احتمالاً می توانیم آن انسان را مسئول اعمال خود بدانیم.
هوش مصنوعی که برای کار مستقل ابداع شده است یا می توان با فریب آن را انجام داد، ظاهراً انسان را از حلقه حذف می کند. سپس هوش مصنوعی به صورت الگوریتمی تصمیمات محاسباتی می گیرد که می تواند به کشتن یا آسیب رساندن به انسان منجر شود. علاوه بر نگرانی های آشکار در مورد عدم کنترل بر هوش مصنوعی، شما همچنین این نگرانی را دارید که ممکن است زمان سختی برای تعیین مسئولیت اقدامات هوش مصنوعی داشته باشیم. ما انسانی نداریم که محرک آشکار ما باشد.
من متوجه هستم که برخی معتقدند که ما باید به سادگی و مستقیماً هوش مصنوعی را مسئول اعمال خود بدانیم، گویی که هوش مصنوعی به احساس رسیده است یا در غیر این صورت دارای شخصیت حقوقی شده است (به پوشش من در مورد بحث های مربوط به هوش مصنوعی که شخصیت حقوقی را به دست آورده است، مراجعه کنید. پیوند اینجا). این فعلا کارساز نیست ما باید هوش مصنوعی را در انسانهایی که آن را ابداع کردهاند یا آنهایی که آن را به میدان آوردهاند، ردیابی کنیم. آنها بدون شک تلاش خواهند کرد تا از نظر قانونی از مسئولیت طفره بروند و سعی کنند ادعا کنند که هوش مصنوعی فراتر از چیزی است که آنها تصور می کردند. این یک مناقشه رو به رشد است که باید با آن مقابله کنیم (برای بینش در مورد مسائل بحث برانگیز مربوط به نوشته های قانون هوش مصنوعی من را ببینید).
سازمان ملل متحد (سازمان ملل متحد) از طریق کنوانسیون برخی سلاحهای متعارف (CCW) در ژنو، طبق گزارش رسمی منتشر شده در فضای مجازی (شامل ارجاع به قوانین بینالمللی بشردوستانه یا مقررات حقوق بینالملل حقوق بشر) یازده اصل غیر الزام آور راهنما در مورد سلاحهای خود مختار مرگبار ایجاد کرده است. ، شامل:
(الف) قوانین بینالمللی بشردوستانه به طور کامل در مورد همه سیستمهای تسلیحاتی، از جمله توسعه و استفاده بالقوه از سیستمهای تسلیحاتی خودمختار مرگبار، اعمال میشود.
(ب) مسئولیت انسان برای تصمیم گیری در مورد استفاده از سیستم های تسلیحاتی باید حفظ شود زیرا نمی توان مسئولیت را به ماشین ها منتقل کرد. این باید در کل چرخه حیات سیستم تسلیحاتی در نظر گرفته شود.
ج) تعامل انسان و ماشین، که ممکن است اشکال مختلفی داشته باشد و در مراحل مختلف چرخه حیات یک سلاح اجرا شود، باید اطمینان حاصل کند که استفاده بالقوه از سیستمهای تسلیحاتی مبتنی بر فناوریهای نوظهور در حوزه سیستمهای تسلیحاتی خود مختار مرگبار است. انطباق با قوانین بین المللی قابل اجرا، به ویژه IHL. در تعیین کیفیت و میزان تعامل انسان و ماشین، باید طیفی از عوامل از جمله زمینه عملیاتی، ویژگیها و قابلیتهای سیستم تسلیحاتی را در نظر گرفت.
(د) مسئولیت توسعه، استقرار و استفاده از هر سیستم تسلیحاتی نوظهور در چارچوب CCW باید مطابق با قوانین بینالمللی قابل اجرا تضمین شود، از جمله از طریق عملیات چنین سیستمهایی در یک زنجیره مسئول از فرماندهی و کنترل انسانی.
ث) مطابق با تعهدات دولتها بر اساس حقوق بین الملل، در مطالعه، توسعه، دستیابی یا اتخاذ یک سلاح جدید، ابزار یا روش جنگی، باید تعیین شود که آیا استفاده از آن، در برخی یا در همه شرایط، انجام می شود یا خیر. ممنوع شده توسط قوانین بین المللی؛
(و) هنگام توسعه یا دستیابی به سیستمهای تسلیحاتی جدید مبتنی بر فناوریهای نوظهور در زمینه سیستمهای تسلیحاتی مرگبار، امنیت فیزیکی، پادمانهای غیر فیزیکی مناسب (از جمله امنیت سایبری در برابر هک یا جعل داده)، خطر دستیابی به گروههای تروریستی. و خطر تکثیر باید در نظر گرفته شود.
(ز) ارزیابی ریسک و اقدامات کاهشی باید بخشی از چرخه طراحی، توسعه، آزمایش و استقرار فناوریهای نوظهور در هر سیستم تسلیحاتی باشد.
(ح) استفاده از فناوریهای نوظهور در زمینه سیستمهای تسلیحات خود مختار مرگبار در حفظ انطباق با IHL و سایر تعهدات حقوقی بینالمللی قابلاجرا باید مورد توجه قرار گیرد.
(i) در ایجاد اقدامات بالقوه سیاستی، فناوریهای نوظهور در حوزه سیستمهای تسلیحاتی خودمختار کشنده نباید انسانسازی شوند.
(j) بحثها و هرگونه اقدام سیاسی بالقوه اتخاذ شده در چارچوب CCW نباید مانع پیشرفت یا دسترسی به استفادههای صلحآمیز از فناوریهای خودمختار هوشمند شود.
(ک) CCW چارچوب مناسبی را برای رسیدگی به موضوع فناوریهای نوظهور در حوزه سیستمهای تسلیحاتی خود مختار مرگبار در چارچوب اهداف و مقاصد کنوانسیون ارائه میکند، که به دنبال ایجاد تعادل بین ضرورت نظامی و ملاحظات بشردوستانه است.
این قوانین و قوانین مختلف جنگ و درگیری های مسلحانه، یا IHL (قوانین بین المللی بشردوستانه) به عنوان یک راهنمای حیاتی و همیشه امیدوارکننده برای در نظر گرفتن آنچه که ممکن است در مورد ظهور سیستم های خودمختار که دارای سلاح هستند، انجام دهیم، عمل می کند. طراحی یا با روش های پس از واقعیت.
برخی می گویند که ما باید صراحتاً سیستم های خودگردان هوش مصنوعی را که قابل تسلیح هستند ممنوع کنیم. درست است، جهان باید پای خود را زمین بگذارد و قاطعانه بخواهد که سیستم های خودران هوش مصنوعی هرگز به سلاح تبدیل نشوند. ممنوعیت کامل قرار است اعمال شود. پایان داستان. نقطه، نقطه.
خوب، ما می توانیم از صمیم قلب آرزو کنیم که ممنوعیت سیستم های خودمختار تسلیحاتی مرگبار به طور دقیق و مطیع رعایت شود. مشکل این است که بسیاری از اتاق های تکان دادن به طرز حیله ای در هر یک از صادقانه ترین ممنوعیت ها یافت می شود. همانطور که می گویند، قوانین برای شکستن قرار دارند. میتوانید شرطبندی کنید که در جایی که همه چیز ضعیف است، ریفراف شکافها را برطرف میکند و سعی میکند راه خود را با چشمک زدن به قوانین دور بزند.
در اینجا برخی از خلاءهای بالقوه قابل بررسی هستند:
- ادعاهای غیر کشنده. سیستم های تسلیحاتی خودران غیر کشنده بسازید (به نظر می رسد اشکالی ندارد زیرا خارج از محدوده ممنوعیت است)، که پس از آن می توانید با کمی تغییر به سمت کشنده شدن حرکت کنید (فقط در آخرین لحظه فراتر از ممنوعیت خواهید بود).
- فقط ادعاهای سیستم خودمختار. این ممنوعیت را با ایجاد نکردن سیستمهای خودمختار متمرکز بر کشنده، حفظ کنید، در عین حال، در ابداع سیستمهای خودران روزمره که (هنوز) تسلیحاتی نشدهاند، اما میتوانید به اندازهای کمتر به آنها مجهز شوید، پیشرفت کنید.
- ادعاهای ادغام نشدن به عنوان یکی. سیستمهای خودمختار بسازید که اصلاً تسلیحاتی نیستند، و زمانی که زمانش فرا رسید، سلاحهای پیگیبک را به گونهای بسازید که میتوانید قویاً استدلال کنید که آنها دو عنصر مجزا هستند و بنابراین ادعا کنید که در چارچوب یک همه کاره قرار نمیگیرند. سیستم تسلیحاتی خودمختار یا پسر عموی آن.
- ادعا می کند که مستقل نیست. یک سیستم تسلیحاتی بسازید که به نظر نمی رسد از ظرفیت های خودمختار برخوردار باشد. در این سیستم احتمالاً غیرخودمختار فضایی برای حذف استقلال مبتنی بر هوش مصنوعی بگذارید. در صورت نیاز، خودمختاری را وصل کنید و آماده رول هستید (تا آن زمان ظاهراً ممنوعیت را نقض نمی کردید).
- دیگر
در تلاش برای ممنوعیت کامل سیستمهای تسلیحاتی خود مختار، مشکلات زیادی وجود دارد. من به چند مورد دیگر از آنها خواهم پرداخت.
برخی از کارشناسان استدلال می کنند که ممنوعیت به ویژه مفید نیست و در عوض باید مقررات نظارتی وجود داشته باشد. ایده این است که این ابزارها مجاز خواهند بود اما به شدت کنترل می شوند. مجموعهای از استفادههای قانونی، همراه با راههای هدفگیری قانونی، انواع قابلیتهای قانونی، تناسب قانونی و مواردی از این دست ارائه شده است.
از نظر آنها ممنوعیت مستقیم مانند این است که سر خود را در ماسه بگذارید و وانمود کنید که فیل در اتاق وجود ندارد. اگرچه این مشاجره خون کسانی را به جوش میآورد که با این استدلال مخالفت میکنند که با ایجاد ممنوعیت میتوانید وسوسه دنبال کردن این نوع سیستمها را به طرز چشمگیری کاهش دهید. مطمئنا، برخی این ممنوعیت را به رخ می کشند، اما حداقل امیدواریم که بیشتر آنها این کار را نکنند. سپس می توانید توجه خود را بر روی تظاهرکنندگان متمرکز کنید و مجبور نباشید توجه خود را به همه تقسیم کنید.
دور و بر این بحث ها می رود.
یکی دیگر از نگرانیهایی که اغلب به آن اشاره میشود این است که حتی اگر خوبان ممنوعیت را رعایت کنند، بدها این کار را نمیکنند. این امر خوب را در وضعیت بدی قرار می دهد. بدها این نوع سیستمهای خودمختار تسلیحاتی را خواهند داشت و خوبها نه. هنگامی که چیزهایی آشکار می شوند که بدها آنها را دارند، برای رسیدن به خوبی ها خیلی دیر خواهد بود. به طور خلاصه، تنها کار زیرکانه این است که برای مبارزه با آتش با آتش آماده شوید.
مناقشه بازدارندگی کلاسیک نیز وجود دارد. اگر افراد خوب تصمیم بگیرند که سیستمهای خود مختار تسلیحاتی بسازند، میتوان از آن برای جلوگیری از ورود افراد بد به درگیری استفاده کرد. یا خوبها بهتر مسلح میشوند و بدیها را منصرف میکنند، یا خوبها وقتی آماده میشوند که شاید بدها آشکار کنند که در تمام مدت به طور مخفیانه آن سیستمها را ابداع کردهاند.
مقابله با این شمارنده ها این است که با ساختن سیستم های خودمختار تسلیحاتی، یک مسابقه تسلیحاتی به راه انداخته اید. طرف مقابل هم به دنبال همین خواهد بود. حتی اگر از نظر فناوری قادر به ایجاد مجدد چنین سیستمهایی نباشند، اکنون میتوانند نقشههای «خوبها» را بدزدند، جرئتهای فناوری پیشرفته را مهندسی معکوس کنند، یا هر چیزی را که به نظر میرسد آزمایششده و واقعی میبینند تقلید کنند. راهی برای انجام کار
آه، برخی متقابلاً، همه اینها ممکن است منجر به کاهش درگیری ها به شکل ظاهری متقابل شود. اگر طرف A بداند که طرف B آن سلاح های سیستم های خودمختار کشنده را دارد، و طرف B بداند که طرف A آنها را دارد، ممکن است محکم بنشیند و با هم برخورد نکند. این هاله متمایز از ارتعاشات تخریب متقابل تضمین شده (MAD) است.
و به همین ترتیب.
نگاهی دقیق به پاراگراف دوم
ما قبلاً زمینه های زیادی را در اینجا پوشش داده ایم و تنها تا کنون پاراگراف اول یا آغازین نامه باز را در نظر گرفته ایم (در مجموع چهار پاراگراف وجود دارد).
وقت آن است که به پاراگراف دوم نگاهی بیندازیم، اینجا بروید:
- مانند هر فناوری جدیدی که قابلیتهای جدیدی را ارائه میکند، ظهور روباتهای متحرک پیشرفته امکان استفاده نادرست را فراهم میکند. افراد غیرقابل اعتماد می توانند از آنها برای تجاوز به حقوق مدنی یا تهدید، آسیب رساندن یا ارعاب دیگران استفاده کنند. یکی از زمینه های مورد توجه ویژه، تسلیحات است. ما معتقدیم که افزودن سلاح به رباتهایی که از راه دور یا بهطور مستقل کار میکنند، بهطور گسترده در دسترس عموم هستند و میتوانند به مکانهایی که قبلاً غیرقابل دسترس در آنها زندگی و کار میکنند، حرکت کنند، خطرات جدید آسیب و مسائل اخلاقی جدی را به همراه دارد. کاربردهای تسلیحاتی این رباتهای تازه توانمند به اعتماد عمومی به این فناوری آسیب میرساند، به گونهای که به مزایای فوقالعادهای که برای جامعه به ارمغان میآورد آسیب میرساند. به این دلایل، ما از تسلیح رباتهای همه منظوره با تحرک پیشرفته خود پشتیبانی نمیکنیم. برای کسانی از ما که در گذشته در مورد این موضوع صحبت کردهایم، و کسانی که برای اولین بار درگیر هستند، اکنون با توجه به نگرانی فزاینده عمومی در ماههای اخیر ناشی از تعداد کمی از مردم که آشکارا کارهای موقت خود را تبلیغ کردهاند، احساس فوریت میکنیم. تلاش برای تسلیح کردن روباتهای تجاری موجود» (طبق پست آنلاین).
با خواندن آن پاراگراف دوم، امیدوارم بتوانید ببینید که چگونه گفتار قبلی من در اینجا در مورد تسلیحات هوش مصنوعی مطرح می شود.
اجازه دهید چند نکته اضافی را بررسی کنیم.
یکی از ابهاماتی که در مورد جنبه خاص عبارتی وجود دارد که توسط برخی بدبین شده است این است که به نظر می رسد این روایت تأکید می کند که "افراد غیرقابل اعتماد" می توانند از این روبات های هوش مصنوعی سوء استفاده کنند. بله، در واقع، ممکن است این افراد بد یا بدکاران باشند که اقدامات شنیع را انجام دهند که از رباتهای هوش مصنوعی «سوءاستفاده» میکنند.
در همان زمان، همانطور که در ابتدای این بحث اشاره شد، ما باید روشن کنیم که خود هوش مصنوعی احتمالاً به دلیل اشکالات یا خطاهای جاسازی شده و سایر عوارض از این قبیل ممکن است دچار مشکل شود. نگرانی ابراز شده این است که تنها تاکید بر شانس افراد غیر قابل اعتماد این است که به نظر می رسد دیگر احتمالات نامطلوب را نادیده می گیرد. اگرچه اکثر شرکتها و فروشندگان هوش مصنوعی از اعتراف آن بیزارند، مشکلات سیستمهای هوش مصنوعی زیادی وجود دارد که میتواند ایمنی و قابلیت اطمینان سیستمهای مستقل را تضعیف کند. برای پوشش من از ایمنی هوش مصنوعی و نیاز به حفاظت های دقیق و قابل اثبات، نگاه کنید پیوند اینجا، به عنوان مثال.
نکته قابل توجه دیگری که در میان کسانی که نامه باز را مورد بررسی قرار داده اند، مستلزم این ادعا است که در نهایت ممکن است اعتماد عمومی مرتبط با ربات های هوش مصنوعی کاهش یابد.
از یک طرف، این یک ادعای معتبر است. اگر از رباتهای هوش مصنوعی برای انجام پیشنهادات شیطانی استفاده میشود، میتوانید شرط ببندید که عموم مردم کاملاً خشمگین خواهند شد. هنگامی که مردم متحیر شدند، می توانید شرط بندی کنید که قانونگذاران وارد میدان شده و به دنبال وضع قوانینی هستند که ربات های هوش مصنوعی و سازندگان رباتیک هوش مصنوعی را تحت فشار قرار دهند. این به نوبه خود می تواند صنعت رباتیک هوش مصنوعی را فلج کند، اگر قوانین همه جانبه باشند و تلاش های مربوط به مزایای رباتیک هوش مصنوعی را متوقف کند. به یک معنا، نوزاد ممکن است با آب حمام بیرون پرتاب شود (یک عبارت قدیمی، احتمالاً مستحق بازنشستگی).
سوال واضحی که مطرح میشود این است که آیا این ادعا در مورد جلوگیری از کاهش اعتماد عمومی به روباتهای هوش مصنوعی تا حدودی عقیدهای است که به نفع همه ماست (آیا میتواند هر دو باشد؟).
تو تصمیم بگیر.
اکنون به بخش مخصوصاً گوشتی نامه سرگشاده می رسیم:
- ما متعهد میشویم که از رباتهای همهمنظوره پیشرفته یا نرمافزاری که توسعه میدهیم که رباتیک پیشرفته را قادر میسازد، سلاح نخواهیم کرد و از دیگران برای انجام این کار حمایت نخواهیم کرد. در صورت امکان، ما برنامه های مورد نظر مشتریان خود را به دقت بررسی می کنیم تا از تسلیحات احتمالی جلوگیری کنیم. ما همچنین متعهد میشویم که توسعه ویژگیهای تکنولوژیکی را که میتواند این خطرات را کاهش داده یا کاهش دهد، بررسی کنیم. برای روشن بودن، ما با فناوریهای موجود که کشورها و سازمانهای دولتی آنها برای دفاع از خود و حمایت از قوانین خود استفاده میکنند، مشکلی نداریم.
ما می توانیم این را باز کنیم.
بشین و خودت رو آماده کن.
آیا برای چند قطبی شدن آتشین آماده اید؟
از طرفی، برخی به طور صریح اعلام می کنند که این سازندگان ربات هوش مصنوعی چنین تعهدی را خواهند داد. به نظر میرسد که این رباتسازان خوشبختانه به دنبال این هستند که رباتهای همه منظوره با تحرک پیشرفته خود را مسلح نکنند. علاوه بر این، نامه باز می گوید که آنها از دیگرانی که این کار را انجام می دهند حمایت نخواهند کرد.
منتقدان از خود میپرسند که آیا واژهسازی هوشمندانهای در جریان است؟
به عنوان مثال، "تحرک پیشرفته" از کجا شروع و به کجا ختم می شود؟ اگر یک سازنده ربات در حال طراحی یک سادهربات هوش مصنوعی متحرک به جای یک ربات پیشرفته (که یک قطعه نامشخص از اصطلاحات تخصصی فنی است)، آیا این ربات از محدوده آنچه که خواهد بود حذف می شود. نه مسلح شدن؟ بنابراین، ظاهراً اسلحه سازی ربات های هوش مصنوعی با تحرک ساده اشکالی ندارد، تا زمانی که آنها به اصطلاح نباشند. پیشرفته.
همین امر در مورد عبارات ربات های همه منظوره نیز صدق می کند. اگر یک ربات هوش مصنوعی به طور خاص برای ساخت سلاح ابداع شده باشد و بنابراین چنین نیست، باید بگوییم a همه منظوره ربات، آیا این یک محرومیت قابل قبول از محدوده است؟
شما ممکن است با این حرفها حرف بزنید و شدیداً استدلال کنید که این فقط یک نامه سرگشاده است و نه یک سند حقوقی پنجاه صفحهای که هر گوشه و کناری را مشخص میکند.
این ما را به ابهام ظاهراً کلان تر بیان شده توسط برخی می رساند. در اصل، «تعهد» به چه معناست؟
برخی می پرسند گوشت گاو کجاست؟
شرکتی که چنین تعهدی می دهد، ظاهراً این کار را بدون هیچ گونه سهم واقعی در بازی انجام می دهد. اگر مدیران ارشد هر شرکتی که برای این تعهد ثبت نام می کند، تصمیم بگیرد که دیگر به تعهد خود عمل نکند، چه اتفاقی برای آن شرکت می افتد؟ آیا مدیران به طور خلاصه کنسرو می شوند؟ آیا شرکت تعطیل می شود و به دلیل نقض تعهد عذرخواهی می کند؟ و غیره.
تا آنجا که می توان استنباط کرد، برای هر گونه تخلف از تعهد، مجازات یا مجازات خاصی وجود ندارد.
ممکن است استدلال کنید که احتمال آسیب به شهرت وجود دارد. یک شرکت متعهد ممکن است به خاطر تعهدی که دیگر به آن عمل نکرده است، در بازار سرگردان شود. البته، این همچنین فرض را بر این می گذارد که مردم به یاد داشته باشند که تعهد داده شده است. همچنین فرض میکند که نقض تعهد به نحوی شناسایی میشود (بهطور مشخص بعید به نظر میرسد که یک شرکت در صورت انجام این کار، همه چیز را اعلام کند). ناقض تعهد باید فراخوانده شود و با این حال چنین موضوعی ممکن است در سونامی جاری اخبار مربوط به سازندگان رباتیک هوش مصنوعی به سر و صدا تبدیل شود.
زاویه دیگری را که پیش آمده در نظر بگیرید.
یک شرکت متعهد توسط یک شرکت بزرگتر خریداری می شود. شرکت بزرگتر شروع به تبدیل ربات های همه منظوره با قابلیت حرکت پیشرفته به نسخه های مجهز به هوش مصنوعی می کند.
آیا این نقض تعهد است؟
شرکت بزرگتر ممکن است اصرار کند که این تخلف نیست زیرا آنها (شرکت بزرگتر) هرگز تعهد نداده اند. در همین حال، رباتهای هوش مصنوعی بیضرر که شرکت کوچکتر گرد هم آورده و ابداع کرده است، و این کار را با ظاهراً نوع دوستانهترین نیات انجام میدهد، تقریباً یک شبه به سلاح تبدیل میشوند.
به نوعی این تعهد را تضعیف می کند، اگرچه ممکن است بگویید که شرکت کوچکتر نمی دانست که روزی این اتفاق خواهد افتاد. آنها در آرزوی خود جدی بودند. این که شرکت خرید بزرگتر چه کاری را انجام دهد خارج از کنترل آنها بود.
برخی نیز می پرسند که آیا در این مورد مسئولیت قانونی وجود دارد؟
یک شرکت متعهد چند ماه دیگر تصمیم می گیرد که به تعهد خود عمل نکند. آنها تغییر عقیده داشته اند. آیا می توان از شرکت به دلیل انصراف از تعهد خود شکایت کرد؟ چه کسی شکایت می کند؟ مبنای طرح دعوا چه خواهد بود؟ انبوهی از مسائل حقوقی پیش می آید. همانطور که آنها می گویند، شما تقریباً می توانید از هر کسی شکایت کنید، اما اینکه آیا پیروز خواهید شد یا نه، موضوع کاملاً متفاوت است.
جور دیگری به این فکر کنید. یک شرکت متعهد فرصتی پیدا میکند تا یک معامله واقعاً بزرگ انجام دهد و یک دسته کامل از رباتهای همهمنظوره پیشرفته خود را به یک شرکت بزرگ بفروشد که مایل است برای تهیه رباتها از طریق دماغ هزینه کند. این یکی از آن معاملات خرید میلیون دلاری است که یک بار در زندگی انجام می شود.
شرکت رباتیک هوش مصنوعی چه باید بکند؟
اگر شرکت متعهد رباتیک هوش مصنوعی به صورت عمومی معامله شود، تقریباً مطمئناً قصد فروش را دارند (همان مورد را می توان در مورد یک شرکت خصوصی گفت، البته نه کاملاً چنین است). تصور کنید که شرکت متعهد نگران این است که خریدار سعی کند ربات ها را به سلاح تبدیل کند، هرچند فرض کنید چنین بحثی روی میز وجود ندارد. فقط شایعه شده که خریدار ممکن است این کار را انجام دهد.
بر این اساس، شرکت متعهد در مجوز خود قرار می دهد که ربات ها نباید مسلح شوند. خریدار با این زبان مخالفت می کند و از خرید فاصله می گیرد.
شرکت رباتیک هوش مصنوعی متعهد چه میزان سود را کنار گذاشته است؟
آیا نقطهای وجود دارد که در آن سود حاصل از گنجاندن الزامات محدودیت مجوز (یا شاید از نظر قانونی عبارت محدودیت برای اجازه دادن به اتاق تکان دادن و همچنان انجام معامله) بیشتر باشد؟ من فکر می کنم که شما می توانید مشکل موجود را ببینید. هزاران تن از چنین سناریوهایی به راحتی قابل تصور هستند. سوال این است که آیا این تعهد قرار است دندان داشته باشد؟ اگر چنین است، چه نوع دندان هایی؟
به طور خلاصه، همانطور که در ابتدای این بحث ذکر شد، برخی از این موضوع که این نوع تعهدات در حال انجام است، تقویت میشوند، در حالی که برخی دیگر دیدگاه ضعیفتری نسبت به اینکه آیا این تعهد آب را حفظ میکند یا خیر.
پیش می رویم.
گرفتن تعهد
پاراگراف چهارم و آخر نامه سرگشاده چنین می گوید:
- ما درک میکنیم که تعهد ما به تنهایی برای رسیدگی کامل به این خطرات کافی نیست و بنابراین از سیاستگذاران میخواهیم تا برای ترویج استفاده ایمن از این رباتها و منع سوء استفاده از آنها با ما همکاری کنند. ما همچنین از هر سازمان، توسعهدهنده، محقق و کاربر در جامعه روباتیک میخواهیم که تعهدات مشابهی مبنی بر عدم ساخت، مجوز، پشتیبانی یا فعال کردن اتصال سلاح به چنین روباتهایی را بدهند. ما متقاعد شدهایم که مزایای این فناوریها برای بشریت به شدت بیشتر از خطر استفاده نادرست است، و درباره آینده روشنی که در آن انسانها و روباتها در کنار هم برای مقابله با برخی از چالشهای جهان کار میکنند هیجانزده هستیم.
این بخش آخر نامه باز دارای چندین عنصر اضافی است که خشم را برانگیخته است.
برخی ادعا میکنند که فراخوانی از سیاستگذاران میتواند خوشبینانه یا نادرست باشد. ممکن است سیاستگذارانی را که در این موضوعات آگاه نیستند، بخواهید که قوانین و مقررات کلاسیک را برای قضاوت عجله انجام دهند و پیشروی رباتهای هوش مصنوعی را غصب کنند. با توجه به نکته ای که قبلا ذکر شد، شاید نوآوری که پیشرفت های رباتیک هوش مصنوعی را به جلو می برد، مختل شود یا بر روی آن لگدمال شود.
منتقدان می گویند بهتر است مطمئن باشید که می دانید چه چیزی می خواهید.
البته، استدلال مخالف این است که روایت به وضوح بیان میکند که سیاستگذاران باید با شرکتهای رباتیک هوش مصنوعی کار کنند تا دریابند که چگونه میتوان احتمالاً چنین قوانین و مقرراتی را عاقلانه وضع کرد. ضد استدلال این است که اگر سیاستگذاران به هوسهای آنها توجه کنند، ممکن است به نظر سازندگان رباتیک هوش مصنوعی نگاه کنند. مقابله با ضد استدلال این است که طبیعتاً کار با کسانی که در مورد فن آوری می دانند یک ضرورت است، در غیر این صورت نتیجه به طور بالقوه ضربه ای خواهد بود. و غیره.
شاید بر اساس شوخی، عده ای دل درد در این خط داشته باشند که از همه می خواهد تعهدات مشابهی بدهند که نگذارند. پیوستن تسلیحات برای ربات های همه منظوره با تحرک پیشرفته. کلمه کلیدی در آنجا کلمه است پیوستن. اگر کسی در حال ساخت یک ربات هوش مصنوعی است که دارای تسلیحات است یا به طور یکپارچه در آن جاسازی می کند، به نظر می رسد که از جمله بندی استفاده می کند. پیوستن چیزی اکنون می توانید آن را ببینید، کسی به شدت استدلال می کند که اسلحه متصل نیست، این کاملاً بخشی از ربات هوش مصنوعی است. آنها فریاد می زنند که از آن عبور کنید، ما در محدوده آن تعهد نیستیم، و حتی می توانستند در غیر این صورت بگویند که هستند.
این موضوع شکایت دیگری را در مورد عدم چسبندگی تعهد مطرح می کند.
آیا یک شرکت یا اصلاً هرکسی که میخواهد این تعهد را بدهد میتواند در هر زمانی که بخواهد و به هر دلیلی که میخواهد، خود را بیتعهد اعلام کند؟
ظاهرا همینطور است.
بحث های زیادی در مورد تعهد دادن و کشش آنها وجود دارد.
نتیجه
بله، ممکن است بگویید، این شرکتهایی که تلاش میکنند کار درست را انجام دهند، به دلیل تلاش برای انجام کار درست تحت فشار قرار میگیرند.
چه بر سر دنیای ما آمده است؟
هر کسی که چنین تعهدی می دهد باید از شک و تردید بهره مند شود، شما ممکن است مشتاقانه آن را حفظ کنید. آنها به عرصه عمومی می روند تا سهمی جسورانه و حیاتی داشته باشند. اگر ما شروع به تحقیر آنها به خاطر این کار کنیم، مطمئناً اوضاع بدتر خواهد شد. هیچ کس نمی خواهد چنین تعهدی بدهد. شرکت ها و دیگران حتی تلاش نمی کنند. آنها پنهان میشوند و به جامعه هشدار نمیدهند که آن رباتهای رقصنده عزیز میتوانند به طور خطرناکی به چه چیزی تبدیل شوند.
شکاکان اعلام می کنند که راه عاقل شدن جامعه مستلزم اقدامات دیگری است، مانند کنار گذاشتن عمل خیال انگیز نمایش ربات های هوش مصنوعی رقصنده. یا حداقل آن را به یک عمل متعادل تر تبدیل کنید. برای مثال، به جای تقلید صرفاً از سگهای وفادار به حیوانات خانگی، نشان دهید که چگونه رباتهای رقصنده میتوانند بیشتر شبیه گرگهای خشمگین وحشی باشند که میتوانند انسانها را با تردید تکه تکه کنند.
آنها التماس می کنند که این بیشتر از تعهدات مورد توجه قرار می گیرد.
تعهد بدون شک می تواند یک معماست.
همانطور که مهاتما گاندی به شیوایی بیان کرد: «هرچقدر هم که این تعهد صریح باشد، مردم متن را میچرخانند و مطابق با هدف خود میچرخانند».
شاید برای پایان دادن به یک یادداشت نشاطآور، توماس جفرسون در مورد تعهدات چنین گفت: «ما متقابلاً زندگی، ثروت و افتخار مقدس خود را به یکدیگر تعهد میدهیم».
وقتی صحبت از رباتهای هوش مصنوعی، استقلال، سلاحسازی و مواردی از این دست به میان میآید، در نهایت همه ما با هم در این زمینه خواهیم بود. عهد متقابل ما حداقل باید این باشد که این مسائل را سرلوحه خود نگه داریم، تلاش کنیم راه هایی برای کنار آمدن با این پیشرفت ها پیدا کنیم و به نحوی راه خود را برای تأمین آبرو، ثروت و زندگی خود پیدا کنیم.
آیا می توانیم به آن تعهد بدهیم؟
امیدوارم.
منبع: https://www.forbes.com/sites/lanceeliot/2022/10/09/ai-ethics-and-ai-law-asking-hard-questions-about-that-new-pedge-by-dancing- ربات سازان-می گویند-از-سلاح-آیی- جلوگیری می کنند/