اخلاق هوش مصنوعی و قانون هوش مصنوعی سوالات سختی درباره این تعهد جدید توسط سازندگان ربات رقصنده می پرسد که می گویند از ساخت سلاح با هوش مصنوعی جلوگیری می کنند

شاید هفته گذشته در اخبار دیده باشید یا در رسانه های اجتماعی متوجه تعهد اعلام شده توسط برخی از سازندگان ربات در مورد اهداف خود برای جلوگیری از تسلیح ربات های همه منظوره با هوش مصنوعی شده باشید. من در یک لحظه شما را از طریق جزئیات راهنمایی خواهم کرد، بنابراین اگر متوجه موضوع نشده اید نگران نباشید.

واکنش به این اعلامیه سریع بوده و، شاید طبق معمول در جامعه قطبی شده ما، هم ستایش آمیز و هم گاهی به طرز تمسخرآمیزی انتقادی و یا کاملاً بدبینانه بوده است.

این داستان دو جهان است.

در یک دنیا، برخی می گویند که این دقیقاً همان چیزی است که ما به آن نیاز داریم مسئوليت توسعه دهندگان ربات هوش مصنوعی اعلام کنند.

خدا را شکر که در سمت راست موضوعی قرار گرفتید که به تدریج آشکارتر و نگران کننده تر می شود. آن ربات‌های رقصنده بامزه نگران‌کننده هستند، زیرا به راحتی می‌توان آن‌ها را برای حمل اسلحه و استفاده از آن‌ها به بدترین روش‌ها استفاده کرد (می‌توانید خودتان با مراجعه به رسانه‌های اجتماعی این موضوع را بررسی کنید و ویدیوهای فراوانی وجود دارد که ربات‌های رقصنده مجهز به مسلسل و مسلسل را به نمایش می‌گذارد. سایر تسلیحات).

روی دیگر این سکه می گوید که به اصطلاح تعهد چیزی بیش از یک ترفند بازاریابی یا روابط عمومی نیست (به عنوان حاشیه، آیا کسی با تفاوت بین تعهد و اهدا آشنا است؟). به هر حال، شک کنندگان توصیه می کنند که این یک سیگنال فضیلت افسارگسیخته در زمینه ربات های رقصنده است. می بینید، نارضایتی از این واقعیت که ربات های همه منظوره را می توان تسلیحاتی کرد، مطمئناً یک بررسی ارزشمند و جدی است، اگرچه برخی اصرار دارند که صرفاً ادعا کنند که سازنده این کار را انجام نمی دهد، احتمالاً یک وعده توخالی است.

در مجموع، کل این موضوع مجموعه‌ای از ملاحظات اخلاقی هوش مصنوعی و قوانین هوش مصنوعی را مطرح می‌کند. ما با دقت موضوع را باز خواهیم کرد و خواهیم دید که چگونه این یک هجمه مضاعف از یک باتلاق هوش مصنوعی اخلاقی و قانونی است. برای پوشش مداوم و گسترده من از اخلاق هوش مصنوعی و قانون هوش مصنوعی، نگاه کنید به پیوند اینجا و پیوند اینجا، فقط به نام چند.

من همچنین در طول این بحث به تحلیل های قبلی خود در مورد خطرات تسلیحات هوش مصنوعی، مانند ارزیابی عمیق خود در پیوند اینجا. ممکن است بخواهید برای جزئیات بیشتر در پشت صحنه نگاهی به آن گفتمان بیندازید.

نامه سرگشاده ای که قوطی کرم را باز می کند

بیایید این تحلیل را با کاوش دقیق گام به گام در Open Letter که اخیراً توسط شش سازنده ربات‌های پیشرفته نسبتاً مشهور منتشر شده است آغاز کنیم، یعنی Boston Dynamics، Clearpath Robotics، ANYbotics، Agility Robotics، Open Robotics و Unitree. به طور کلی، حدس می‌زنم که شما عمدتا ربات‌های Boston Dynamics را دیده‌اید، مانند ربات‌هایی که روی چهار دست و پا می‌چرخند. آن‌ها به نظر می‌رسند که شبیه سگ هستند و ما از دیدن آن‌ها در حال پرسه زدن لذت می‌بریم.

همانطور که قبلاً و مکرراً هشدار داده‌ام، استفاده از این ربات‌های «رقصنده» به‌عنوان وسیله‌ای برای متقاعد کردن عموم مردم به اینکه این ربات‌ها زیبا و شایان‌ستیز هستند، متأسفانه گمراه‌کننده است و به دام‌های فراوان انسان‌سازی آن‌ها منحرف می‌شود. ما شروع به فکر کردن به این قطعات سخت فلزی و پلاستیکی می کنیم که گویی معادل یک سگ وفادار نوازشگر هستند. تمایل ما برای پذیرش این ربات‌ها بر اساس احساس کاذب ایمنی و اطمینان است. مطمئناً باید پولی به دست آورید و شانس انجام این کار با رژه در اطراف ربات‌های رقصنده افزایش می‌یابد، اما متأسفانه این واقعیت واقعی که این روبات‌ها روبات هستند و هوش مصنوعی کنترل ربات‌ها را می‌توان به اشتباه ابداع کرد، نادیده می‌گیرد یا به ظاهر پنهان می‌کند. یا به اشتباه برو

این پیامدهای هوش مصنوعی را در نظر بگیرید (برگرفته از مقاله من در مورد تسلیحات هوش مصنوعی، که در پیوند اینجا):

  • هوش مصنوعی ممکن است با خطایی مواجه شود که باعث گمراهی آن شود
  • ممکن است هوش مصنوعی غرق شود و بدون پاسخ قفل شود
  • هوش مصنوعی ممکن است حاوی اشکالات توسعه دهنده باشد که باعث رفتار نامنظم می شود
  • ممکن است هوش مصنوعی با ویروس بدکار کاشته شده خراب شود
  • هوش مصنوعی ممکن است توسط هکرهای سایبری در زمان واقعی تصرف شود
  • ممکن است هوش مصنوعی به دلیل پیچیدگی ها غیرقابل پیش بینی در نظر گرفته شود
  • هوش مصنوعی ممکن است از نظر محاسباتی تصمیم "اشتباه" را بگیرد (نسبتا)
  • غیره

اینها نکاتی در مورد هوش مصنوعی هستند که واقعاً در ابتدا برای انجام کار درست طراحی شده است.

علاوه بر این ملاحظات، شما باید سیستم‌های هوش مصنوعی را که از ابتدا برای انجام کارهای بد ساخته شده‌اند، بگنجانید. شما می توانید هوش مصنوعی داشته باشید که برای اهداف سودمند ساخته شده است، که اغلب به آن گفته می شود هوش مصنوعی برای خوب. شما همچنین می توانید هوش مصنوعی داشته باشید که عمداً برای اهداف بد ساخته شده است، به نام هوش مصنوعی برای بد. علاوه بر این، می توانید داشته باشید هوش مصنوعی برای خوب که فاسد شده یا دوباره به تبدیل شدن هوش مصنوعی برای بد.

در ضمن، هیچ کدام از اینها ربطی به هوش مصنوعی شدن هوش مصنوعی ندارد، که من به آن اشاره می کنم زیرا برخی مدام فریاد می زنند که هوش مصنوعی امروزی یا حساس است یا در آستانه حساس شدن است. اینطور نیست. من آن افسانه‌ها را در تحلیل خود جدا می‌کنم پیوند اینجا.

بیایید مطمئن شویم که در مورد ماهیت هوش مصنوعی امروزی در یک صفحه هستیم.

امروزه هیچ هوش مصنوعی وجود ندارد که حساس باشد. ما این را نداریم ما نمی دانیم که آیا هوش مصنوعی ممکن خواهد بود یا خیر. هیچ کس نمی تواند به درستی پیش بینی کند که آیا ما به هوش مصنوعی خواهیم رسید یا خیر، یا اینکه آیا هوش مصنوعی به طور معجزه آسایی به شکلی از ابرنواختر شناختی محاسباتی پدید خواهد آمد (که معمولاً به عنوان تکینگی شناخته می شود، پوشش من را در اینجا ببینید. پیوند اینجا).

نوع هوش مصنوعی که من روی آن تمرکز می کنم شامل هوش مصنوعی غیر حساسی است که امروز داریم. اگر بخواهیم در مورد هوش مصنوعی حساس حدس و گمان بزنیم، این بحث می تواند در جهتی کاملاً متفاوت پیش رود. ظاهراً یک هوش مصنوعی با کیفیت انسانی خواهد بود. شما باید در نظر داشته باشید که هوش مصنوعی حسی معادل شناختی یک انسان است. علاوه بر این، از آنجایی که برخی حدس می زنند که ممکن است هوش مصنوعی فوق هوشمند داشته باشیم، می توان تصور کرد که چنین هوش مصنوعی می تواند در نهایت از انسان ها باهوش تر باشد (برای کاوش من در مورد هوش مصنوعی فوق هوشمند به عنوان یک امکان، نگاه کنید به پوشش در اینجا).

من قویاً پیشنهاد می‌کنم که همه چیز را ثابت نگه داریم و هوش مصنوعی محاسباتی غیر حساس امروزی را در نظر بگیریم.

درک کنید که هوش مصنوعی امروزی قادر به «فکر کردن» به هیچ شکلی با تفکر انسان نیست. وقتی با الکسا یا سیری تعامل می کنید، ظرفیت های مکالمه ممکن است شبیه ظرفیت های انسانی به نظر برسد، اما واقعیت این است که محاسباتی است و فاقد شناخت انسانی است. آخرین دوره هوش مصنوعی از یادگیری ماشینی (ML) و یادگیری عمیق (DL) استفاده گسترده ای کرده است که از تطابق الگوی محاسباتی استفاده می کند. این منجر به سیستم‌های هوش مصنوعی شده است که ظاهری شبیه به تمایلات انسان دارند. در همین حال، هیچ هوش مصنوعی امروزی وجود ندارد که شباهتی به عقل سلیم داشته باشد و هیچ یک از شگفتی‌های شناختی تفکر قوی انسانی را نداشته باشد.

بسیار مراقب انسان سازی هوش مصنوعی امروزی باشید.

ML/DL نوعی تطبیق الگوی محاسباتی است. روش معمول این است که شما داده ها را در مورد یک کار تصمیم گیری جمع آوری می کنید. داده ها را به مدل های کامپیوتری ML/DL وارد می کنید. آن مدل ها به دنبال یافتن الگوهای ریاضی هستند. پس از یافتن چنین الگوهایی، در صورت یافتن، سیستم هوش مصنوعی در هنگام مواجهه با داده های جدید از آن الگوها استفاده خواهد کرد. پس از ارائه داده های جدید، الگوهای مبتنی بر داده های "قدیمی" یا تاریخی برای ارائه یک تصمیم فعلی استفاده می شود.

من فکر می کنم می توانید حدس بزنید که این به کجا می رود. اگر انسان‌هایی که بر اساس تصمیم‌گیری‌های الگو گرفته شده‌اند، سوگیری‌های نامطلوب را در خود جای داده‌اند، احتمال این وجود دارد که داده‌ها این را به روش‌های ظریف اما قابل توجهی منعکس کنند. تطبیق الگوی محاسباتی یادگیری ماشینی یا یادگیری عمیق به سادگی سعی می‌کند تا داده‌ها را مطابق با ریاضی تقلید کند. هیچ شباهتی از عقل سلیم یا سایر جنبه های حساس مدل سازی ساخته شده با هوش مصنوعی به خودی خود وجود ندارد.

علاوه بر این، توسعه دهندگان هوش مصنوعی نیز ممکن است متوجه نباشند که چه اتفاقی در حال رخ دادن است. ریاضیات محرمانه در ML/DL ممکن است کشف سوگیری های پنهان در حال حاضر را دشوار کند. شما به حق امیدوارید و انتظار دارید که توسعه دهندگان هوش مصنوعی سوگیری های بالقوه مدفون را آزمایش کنند، اگرچه این مشکل تر از آن چیزی است که به نظر می رسد. یک شانس قوی وجود دارد که حتی با آزمایش نسبتاً گسترده، سوگیری‌هایی همچنان در مدل‌های تطبیق الگوی ML/DL وجود داشته باشد.

می‌توانید تا حدودی از ضرب‌المثل معروف یا بدنام زباله‌های درون زباله‌ها استفاده کنید. مسئله این است که این بیشتر شبیه سوگیری‌هایی است که به‌طور موذیانه به‌عنوان سوگیری‌هایی که در هوش مصنوعی غوطه‌ور می‌شوند، القا می‌شوند. الگوریتم تصمیم‌گیری (ADM) هوش مصنوعی به طور اصولی مملو از نابرابری‌ها می‌شود.

خوب نیست.

همه اینها پیامدهای قابل توجهی از اخلاق هوش مصنوعی دارند و دریچه ای مفید به درس های آموخته شده (حتی قبل از اینکه همه درس ها اتفاق بیفتند) هنگام تلاش برای قانون گذاری هوش مصنوعی ارائه می دهد.

علاوه بر به کارگیری اصول اخلاقی هوش مصنوعی به طور کلی، یک سوال مربوط به این موضوع وجود دارد که آیا ما باید قوانینی برای کنترل کاربردهای مختلف هوش مصنوعی داشته باشیم. قوانین جدیدی در سطوح فدرال، ایالتی و محلی وضع می شود که به محدوده و ماهیت چگونگی ابداع هوش مصنوعی مربوط می شود. تلاش برای تدوین و تصویب چنین قوانینی تدریجی است. اخلاق هوش مصنوعی حداقل به عنوان یک توقف در نظر گرفته شده عمل می کند و تقریباً مطمئناً تا حدی مستقیماً در آن قوانین جدید گنجانده می شود.

توجه داشته باشید که برخی قاطعانه استدلال می کنند که ما به قوانین جدیدی که هوش مصنوعی را پوشش می دهد نیازی نداریم و قوانین موجود ما کافی است. آنها پیش‌بینی می‌کنند که اگر برخی از این قوانین هوش مصنوعی را به اجرا بگذاریم، با مهار پیشرفت‌های هوش مصنوعی که مزایای اجتماعی عظیمی را ارائه می‌دهد، غاز طلایی را خواهیم کشت.

در ستون‌های قبلی، من تلاش‌های ملی و بین‌المللی مختلف برای ایجاد و وضع قوانین مربوط به هوش مصنوعی را پوشش داده‌ام. پیوند اینجا، مثلا. من همچنین اصول و رهنمودهای مختلف اخلاق هوش مصنوعی را که کشورهای مختلف شناسایی و پذیرفته اند پوشش داده ام، از جمله تلاش سازمان ملل متحد مانند مجموعه اخلاق هوش مصنوعی یونسکو که نزدیک به 200 کشور آن را پذیرفته اند. پیوند اینجا.

در اینجا یک لیست کلیدی مفید از معیارها یا ویژگی های هوش مصنوعی اخلاقی در رابطه با سیستم های هوش مصنوعی است که قبلاً از نزدیک بررسی کرده ام:

  • شفافیت
  • عدالت و انصاف
  • عدم سوء استفاده
  • مسئوليت
  • حریم خصوصی
  • سود رسانی
  • آزادی و خودمختاری
  • اعتماد
  • پایداری
  • کرامت
  • اتحاد

این اصول اخلاقی هوش مصنوعی قرار است با جدیت توسط توسعه دهندگان هوش مصنوعی، همراه با آنهایی که تلاش های توسعه هوش مصنوعی را مدیریت می کنند، و حتی آنهایی که در نهایت سیستم های هوش مصنوعی را انجام می دهند، مورد استفاده قرار گیرد.

همه ذینفعان در طول چرخه عمر توسعه و استفاده هوش مصنوعی در محدوده رعایت هنجارهای تثبیت شده هوش مصنوعی اخلاقی در نظر گرفته می شوند. این نکته مهمی است زیرا فرض معمول این است که «فقط کدنویس‌ها» یا کسانی که هوش مصنوعی را برنامه‌ریزی می‌کنند، مشمول رعایت مفاهیم اخلاق هوش مصنوعی هستند. همانطور که قبلاً در اینجا تأکید شد، برای ابداع و بکارگیری هوش مصنوعی به یک روستا نیاز است، و برای آن کل دهکده باید به اصول اخلاقی هوش مصنوعی آشنا باشد و از آن پیروی کند.

اکنون که پایه‌های مفیدی برای ورود به نامه باز گذاشته‌ام، آماده فرو رفتن در آن هستیم.

عنوان رسمی نامه باز این است:

  • "نامه ای سرگشاده به صنعت رباتیک و جوامع ما، ربات های همه منظوره نباید سلاح شوند” (طبق ارسال آنلاین).

تا کنون، خیلی خوب است.

عنوان تقریباً شبیه بستنی و پای سیب است. چگونه کسی می تواند این را به عنوان یک فراخوان قبلی برای جلوگیری از تسلیح ربات هوش مصنوعی رد کند؟

برای دیدن به ادامه مطلب بروید

ابتدا، به عنوان خوراکی برای بررسی، در اینجا پاراگراف افتتاحیه رسمی نامه باز است:

  • ما برخی از شرکت‌های پیشرو در جهان هستیم که به معرفی نسل‌های جدید روباتیک پیشرفته موبایل به جامعه اختصاص یافته‌ایم. این نسل‌های جدید ربات‌ها نسبت به نسل‌های قبلی در دسترس‌تر، کارکرد آسان‌تر، مستقل‌تر، مقرون‌به‌صرفه‌تر و سازگارتر هستند و می‌توانند در مکان‌هایی که قبلاً برای فناوری‌های خودکار یا کنترل‌شده از راه دور غیرقابل دسترس بودند، حرکت کنند. ما بر این باوریم که روبات‌های متحرک پیشرفته به عنوان همکاران در صنعت و همراهان در خانه‌های ما، مزایای زیادی برای جامعه فراهم می‌کنند.

جنبه آفتابی ظهور این نوع ربات ها این است که ما می توانیم مزایای زیادی را برای ظهور پیش بینی کنیم. بدون شک در مورد آن. ممکن است یک ربات در خانه خود داشته باشید که بتواند آن فعالیت های جتسون مانند تمیز کردن خانه، شستن ظروف و سایر کارهای خانه را انجام دهد. ما روبات های پیشرفته ای برای استفاده در کارخانه ها و تاسیسات تولیدی خواهیم داشت. ربات ها به طور بالقوه می توانند در فضاهای تنگ مانند زمانی که ساختمان فرو می ریزد و جان انسان ها در خطر است بخزند یا مانور دهند. و غیره.

علاوه بر این، ممکن است پوشش چشمی انتقادی اخیر من از روز هوش مصنوعی تسلا که در آن برخی از روبات‌های راه‌رو توسط ایلان ماسک به‌عنوان آینده تسلا و جامعه به تصویر کشیده شده‌اند، برایتان جالب باشد. پیوند اینجا.

بازگشت به موضوع در دست. وقتی به طور جدی درباره روبات‌های رقصنده یا روبات‌های راه‌رو بحث می‌کنیم، باید به‌تدریج مبادلات یا کل ROI (بازده سرمایه‌گذاری) این استفاده از هوش مصنوعی را در نظر بگیریم. ما نباید به خود اجازه دهیم که بیش از حد شیفته مزایا شویم، زمانی که هزینه هایی نیز باید در نظر گرفته شود.

یک اسباب بازی جدید براق می تواند لبه های نسبتاً تیز داشته باشد.

همه این‌ها یک نکته مهم اما تا حدودی خاموش را برمی‌انگیزد که بخشی از دلیلی که اکنون مسئله سلاح‌سازی با هوش مصنوعی به وجود می‌آید به دلیل پیشرفت هوش مصنوعی به سمت فعالیت‌های خودمختار است. ما معمولاً انتظار داشته ایم که سلاح ها عموماً توسط انسان کار می کنند. یک انسان تصمیم می گیرد که با سلاح شلیک کند یا درگیر شود. ما احتمالاً می توانیم آن انسان را مسئول اعمال خود بدانیم.

هوش مصنوعی که برای کار مستقل ابداع شده است یا می توان با فریب آن را انجام داد، ظاهراً انسان را از حلقه حذف می کند. سپس هوش مصنوعی به صورت الگوریتمی تصمیمات محاسباتی می گیرد که می تواند به کشتن یا آسیب رساندن به انسان منجر شود. علاوه بر نگرانی های آشکار در مورد عدم کنترل بر هوش مصنوعی، شما همچنین این نگرانی را دارید که ممکن است زمان سختی برای تعیین مسئولیت اقدامات هوش مصنوعی داشته باشیم. ما انسانی نداریم که محرک آشکار ما باشد.

من متوجه هستم که برخی معتقدند که ما باید به سادگی و مستقیماً هوش مصنوعی را مسئول اعمال خود بدانیم، گویی که هوش مصنوعی به احساس رسیده است یا در غیر این صورت دارای شخصیت حقوقی شده است (به پوشش من در مورد بحث های مربوط به هوش مصنوعی که شخصیت حقوقی را به دست آورده است، مراجعه کنید. پیوند اینجا). این فعلا کارساز نیست ما باید هوش مصنوعی را در انسان‌هایی که آن را ابداع کرده‌اند یا آن‌هایی که آن را به میدان آورده‌اند، ردیابی کنیم. آنها بدون شک تلاش خواهند کرد تا از نظر قانونی از مسئولیت طفره بروند و سعی کنند ادعا کنند که هوش مصنوعی فراتر از چیزی است که آنها تصور می کردند. این یک مناقشه رو به رشد است که باید با آن مقابله کنیم (برای بینش در مورد مسائل بحث برانگیز مربوط به نوشته های قانون هوش مصنوعی من را ببینید).

سازمان ملل متحد (سازمان ملل متحد) از طریق کنوانسیون برخی سلاح‌های متعارف (CCW) در ژنو، طبق گزارش رسمی منتشر شده در فضای مجازی (شامل ارجاع به قوانین بین‌المللی بشردوستانه یا مقررات حقوق بین‌الملل حقوق بشر) یازده اصل غیر الزام آور راهنما در مورد سلاح‌های خود مختار مرگبار ایجاد کرده است. ، شامل:

(الف) قوانین بین‌المللی بشردوستانه به طور کامل در مورد همه سیستم‌های تسلیحاتی، از جمله توسعه و استفاده بالقوه از سیستم‌های تسلیحاتی خودمختار مرگبار، اعمال می‌شود.

(ب) مسئولیت انسان برای تصمیم گیری در مورد استفاده از سیستم های تسلیحاتی باید حفظ شود زیرا نمی توان مسئولیت را به ماشین ها منتقل کرد. این باید در کل چرخه حیات سیستم تسلیحاتی در نظر گرفته شود.

ج) تعامل انسان و ماشین، که ممکن است اشکال مختلفی داشته باشد و در مراحل مختلف چرخه حیات یک سلاح اجرا شود، باید اطمینان حاصل کند که استفاده بالقوه از سیستم‌های تسلیحاتی مبتنی بر فناوری‌های نوظهور در حوزه سیستم‌های تسلیحاتی خود مختار مرگبار است. انطباق با قوانین بین المللی قابل اجرا، به ویژه IHL. در تعیین کیفیت و میزان تعامل انسان و ماشین، باید طیفی از عوامل از جمله زمینه عملیاتی، ویژگی‌ها و قابلیت‌های سیستم تسلیحاتی را در نظر گرفت.

(د) مسئولیت توسعه، استقرار و استفاده از هر سیستم تسلیحاتی نوظهور در چارچوب CCW باید مطابق با قوانین بین‌المللی قابل اجرا تضمین شود، از جمله از طریق عملیات چنین سیستم‌هایی در یک زنجیره مسئول از فرماندهی و کنترل انسانی.

ث) مطابق با تعهدات دولتها بر اساس حقوق بین الملل، در مطالعه، توسعه، دستیابی یا اتخاذ یک سلاح جدید، ابزار یا روش جنگی، باید تعیین شود که آیا استفاده از آن، در برخی یا در همه شرایط، انجام می شود یا خیر. ممنوع شده توسط قوانین بین المللی؛

(و) هنگام توسعه یا دستیابی به سیستم‌های تسلیحاتی جدید مبتنی بر فناوری‌های نوظهور در زمینه سیستم‌های تسلیحاتی مرگبار، امنیت فیزیکی، پادمان‌های غیر فیزیکی مناسب (از جمله امنیت سایبری در برابر هک یا جعل داده)، خطر دستیابی به گروه‌های تروریستی. و خطر تکثیر باید در نظر گرفته شود.

(ز) ارزیابی ریسک و اقدامات کاهشی باید بخشی از چرخه طراحی، توسعه، آزمایش و استقرار فناوری‌های نوظهور در هر سیستم تسلیحاتی باشد.

(ح) استفاده از فناوری‌های نوظهور در زمینه سیستم‌های تسلیحات خود مختار مرگ‌بار در حفظ انطباق با IHL و سایر تعهدات حقوقی بین‌المللی قابل‌اجرا باید مورد توجه قرار گیرد.

(i) در ایجاد اقدامات بالقوه سیاستی، فناوری‌های نوظهور در حوزه سیستم‌های تسلیحاتی خودمختار کشنده نباید انسان‌سازی شوند.

(j) بحث‌ها و هرگونه اقدام سیاسی بالقوه اتخاذ شده در چارچوب CCW نباید مانع پیشرفت یا دسترسی به استفاده‌های صلح‌آمیز از فناوری‌های خودمختار هوشمند شود.

(ک) CCW چارچوب مناسبی را برای رسیدگی به موضوع فناوری‌های نوظهور در حوزه سیستم‌های تسلیحاتی خود مختار مرگبار در چارچوب اهداف و مقاصد کنوانسیون ارائه می‌کند، که به دنبال ایجاد تعادل بین ضرورت نظامی و ملاحظات بشردوستانه است.

این قوانین و قوانین مختلف جنگ و درگیری های مسلحانه، یا IHL (قوانین بین المللی بشردوستانه) به عنوان یک راهنمای حیاتی و همیشه امیدوارکننده برای در نظر گرفتن آنچه که ممکن است در مورد ظهور سیستم های خودمختار که دارای سلاح هستند، انجام دهیم، عمل می کند. طراحی یا با روش های پس از واقعیت.

برخی می گویند که ما باید صراحتاً سیستم های خودگردان هوش مصنوعی را که قابل تسلیح هستند ممنوع کنیم. درست است، جهان باید پای خود را زمین بگذارد و قاطعانه بخواهد که سیستم های خودران هوش مصنوعی هرگز به سلاح تبدیل نشوند. ممنوعیت کامل قرار است اعمال شود. پایان داستان. نقطه، نقطه.

خوب، ما می توانیم از صمیم قلب آرزو کنیم که ممنوعیت سیستم های خودمختار تسلیحاتی مرگبار به طور دقیق و مطیع رعایت شود. مشکل این است که بسیاری از اتاق های تکان دادن به طرز حیله ای در هر یک از صادقانه ترین ممنوعیت ها یافت می شود. همانطور که می گویند، قوانین برای شکستن قرار دارند. می‌توانید شرط‌بندی کنید که در جایی که همه چیز ضعیف است، ریفراف شکاف‌ها را برطرف می‌کند و سعی می‌کند راه خود را با چشمک زدن به قوانین دور بزند.

در اینجا برخی از خلاءهای بالقوه قابل بررسی هستند:

  • ادعاهای غیر کشنده. سیستم های تسلیحاتی خودران غیر کشنده بسازید (به نظر می رسد اشکالی ندارد زیرا خارج از محدوده ممنوعیت است)، که پس از آن می توانید با کمی تغییر به سمت کشنده شدن حرکت کنید (فقط در آخرین لحظه فراتر از ممنوعیت خواهید بود).
  • فقط ادعاهای سیستم خودمختار. این ممنوعیت را با ایجاد نکردن سیستم‌های خودمختار متمرکز بر کشنده، حفظ کنید، در عین حال، در ابداع سیستم‌های خودران روزمره که (هنوز) تسلیحاتی نشده‌اند، اما می‌توانید به اندازه‌ای کم‌تر به آن‌ها مجهز شوید، پیشرفت کنید.
  • ادعاهای ادغام نشدن به عنوان یکی. سیستم‌های خودمختار بسازید که اصلاً تسلیحاتی نیستند، و زمانی که زمانش فرا رسید، سلاح‌های پیگیبک را به گونه‌ای بسازید که می‌توانید قویاً استدلال کنید که آنها دو عنصر مجزا هستند و بنابراین ادعا کنید که در چارچوب یک همه کاره قرار نمی‌گیرند. سیستم تسلیحاتی خودمختار یا پسر عموی آن.
  • ادعا می کند که مستقل نیست. یک سیستم تسلیحاتی بسازید که به نظر نمی رسد از ظرفیت های خودمختار برخوردار باشد. در این سیستم احتمالاً غیرخودمختار فضایی برای حذف استقلال مبتنی بر هوش مصنوعی بگذارید. در صورت نیاز، خودمختاری را وصل کنید و آماده رول هستید (تا آن زمان ظاهراً ممنوعیت را نقض نمی کردید).
  • دیگر

در تلاش برای ممنوعیت کامل سیستم‌های تسلیحاتی خود مختار، مشکلات زیادی وجود دارد. من به چند مورد دیگر از آنها خواهم پرداخت.

برخی از کارشناسان استدلال می کنند که ممنوعیت به ویژه مفید نیست و در عوض باید مقررات نظارتی وجود داشته باشد. ایده این است که این ابزارها مجاز خواهند بود اما به شدت کنترل می شوند. مجموعه‌ای از استفاده‌های قانونی، همراه با راه‌های هدف‌گیری قانونی، انواع قابلیت‌های قانونی، تناسب قانونی و مواردی از این دست ارائه شده است.

از نظر آنها ممنوعیت مستقیم مانند این است که سر خود را در ماسه بگذارید و وانمود کنید که فیل در اتاق وجود ندارد. اگرچه این مشاجره خون کسانی را به جوش می‌آورد که با این استدلال مخالفت می‌کنند که با ایجاد ممنوعیت می‌توانید وسوسه دنبال کردن این نوع سیستم‌ها را به طرز چشمگیری کاهش دهید. مطمئنا، برخی این ممنوعیت را به رخ می کشند، اما حداقل امیدواریم که بیشتر آنها این کار را نکنند. سپس می توانید توجه خود را بر روی تظاهرکنندگان متمرکز کنید و مجبور نباشید توجه خود را به همه تقسیم کنید.

دور و بر این بحث ها می رود.

یکی دیگر از نگرانی‌هایی که اغلب به آن اشاره می‌شود این است که حتی اگر خوبان ممنوعیت را رعایت کنند، بدها این کار را نمی‌کنند. این امر خوب را در وضعیت بدی قرار می دهد. بدها این نوع سیستم‌های خودمختار تسلیحاتی را خواهند داشت و خوب‌ها نه. هنگامی که چیزهایی آشکار می شوند که بدها آنها را دارند، برای رسیدن به خوبی ها خیلی دیر خواهد بود. به طور خلاصه، تنها کار زیرکانه این است که برای مبارزه با آتش با آتش آماده شوید.

مناقشه بازدارندگی کلاسیک نیز وجود دارد. اگر افراد خوب تصمیم بگیرند که سیستم‌های خود مختار تسلیحاتی بسازند، می‌توان از آن برای جلوگیری از ورود افراد بد به درگیری استفاده کرد. یا خوب‌ها بهتر مسلح می‌شوند و بدی‌ها را منصرف می‌کنند، یا خوب‌ها وقتی آماده می‌شوند که شاید بدها آشکار کنند که در تمام مدت به طور مخفیانه آن سیستم‌ها را ابداع کرده‌اند.

مقابله با این شمارنده ها این است که با ساختن سیستم های خودمختار تسلیحاتی، یک مسابقه تسلیحاتی به راه انداخته اید. طرف مقابل هم به دنبال همین خواهد بود. حتی اگر از نظر فناوری قادر به ایجاد مجدد چنین سیستم‌هایی نباشند، اکنون می‌توانند نقشه‌های «خوب‌ها» را بدزدند، جرئت‌های فناوری پیشرفته را مهندسی معکوس کنند، یا هر چیزی را که به نظر می‌رسد آزمایش‌شده و واقعی می‌بینند تقلید کنند. راهی برای انجام کار

آه، برخی متقابلاً، همه اینها ممکن است منجر به کاهش درگیری ها به شکل ظاهری متقابل شود. اگر طرف A بداند که طرف B آن سلاح های سیستم های خودمختار کشنده را دارد، و طرف B بداند که طرف A آنها را دارد، ممکن است محکم بنشیند و با هم برخورد نکند. این هاله متمایز از ارتعاشات تخریب متقابل تضمین شده (MAD) است.

و به همین ترتیب.

نگاهی دقیق به پاراگراف دوم

ما قبلاً زمینه های زیادی را در اینجا پوشش داده ایم و تنها تا کنون پاراگراف اول یا آغازین نامه باز را در نظر گرفته ایم (در مجموع چهار پاراگراف وجود دارد).

وقت آن است که به پاراگراف دوم نگاهی بیندازیم، اینجا بروید:

  • مانند هر فناوری جدیدی که قابلیت‌های جدیدی را ارائه می‌کند، ظهور روبات‌های متحرک پیشرفته امکان استفاده نادرست را فراهم می‌کند. افراد غیرقابل اعتماد می توانند از آنها برای تجاوز به حقوق مدنی یا تهدید، آسیب رساندن یا ارعاب دیگران استفاده کنند. یکی از زمینه های مورد توجه ویژه، تسلیحات است. ما معتقدیم که افزودن سلاح به ربات‌هایی که از راه دور یا به‌طور مستقل کار می‌کنند، به‌طور گسترده در دسترس عموم هستند و می‌توانند به مکان‌هایی که قبلاً غیرقابل دسترس در آن‌ها زندگی و کار می‌کنند، حرکت کنند، خطرات جدید آسیب و مسائل اخلاقی جدی را به همراه دارد. کاربردهای تسلیحاتی این ربات‌های تازه توانمند به اعتماد عمومی به این فناوری آسیب می‌رساند، به گونه‌ای که به مزایای فوق‌العاده‌ای که برای جامعه به ارمغان می‌آورد آسیب می‌رساند. به این دلایل، ما از تسلیح ربات‌های همه منظوره با تحرک پیشرفته خود پشتیبانی نمی‌کنیم. برای کسانی از ما که در گذشته در مورد این موضوع صحبت کرده‌ایم، و کسانی که برای اولین بار درگیر هستند، اکنون با توجه به نگرانی فزاینده عمومی در ماه‌های اخیر ناشی از تعداد کمی از مردم که آشکارا کارهای موقت خود را تبلیغ کرده‌اند، احساس فوریت می‌کنیم. تلاش برای تسلیح کردن روبات‌های تجاری موجود» (طبق پست آنلاین).

با خواندن آن پاراگراف دوم، امیدوارم بتوانید ببینید که چگونه گفتار قبلی من در اینجا در مورد تسلیحات هوش مصنوعی مطرح می شود.

اجازه دهید چند نکته اضافی را بررسی کنیم.

یکی از ابهاماتی که در مورد جنبه خاص عبارتی وجود دارد که توسط برخی بدبین شده است این است که به نظر می رسد این روایت تأکید می کند که "افراد غیرقابل اعتماد" می توانند از این روبات های هوش مصنوعی سوء استفاده کنند. بله، در واقع، ممکن است این افراد بد یا بدکاران باشند که اقدامات شنیع را انجام دهند که از ربات‌های هوش مصنوعی «سوءاستفاده» می‌کنند.

در همان زمان، همانطور که در ابتدای این بحث اشاره شد، ما باید روشن کنیم که خود هوش مصنوعی احتمالاً به دلیل اشکالات یا خطاهای جاسازی شده و سایر عوارض از این قبیل ممکن است دچار مشکل شود. نگرانی ابراز شده این است که تنها تاکید بر شانس افراد غیر قابل اعتماد این است که به نظر می رسد دیگر احتمالات نامطلوب را نادیده می گیرد. اگرچه اکثر شرکت‌ها و فروشندگان هوش مصنوعی از اعتراف آن بیزارند، مشکلات سیستم‌های هوش مصنوعی زیادی وجود دارد که می‌تواند ایمنی و قابلیت اطمینان سیستم‌های مستقل را تضعیف کند. برای پوشش من از ایمنی هوش مصنوعی و نیاز به حفاظت های دقیق و قابل اثبات، نگاه کنید پیوند اینجا، به عنوان مثال.

نکته قابل توجه دیگری که در میان کسانی که نامه باز را مورد بررسی قرار داده اند، مستلزم این ادعا است که در نهایت ممکن است اعتماد عمومی مرتبط با ربات های هوش مصنوعی کاهش یابد.

از یک طرف، این یک ادعای معتبر است. اگر از ربات‌های هوش مصنوعی برای انجام پیشنهادات شیطانی استفاده می‌شود، می‌توانید شرط ببندید که عموم مردم کاملاً خشمگین خواهند شد. هنگامی که مردم متحیر شدند، می توانید شرط بندی کنید که قانونگذاران وارد میدان شده و به دنبال وضع قوانینی هستند که ربات های هوش مصنوعی و سازندگان رباتیک هوش مصنوعی را تحت فشار قرار دهند. این به نوبه خود می تواند صنعت رباتیک هوش مصنوعی را فلج کند، اگر قوانین همه جانبه باشند و تلاش های مربوط به مزایای رباتیک هوش مصنوعی را متوقف کند. به یک معنا، نوزاد ممکن است با آب حمام بیرون پرتاب شود (یک عبارت قدیمی، احتمالاً مستحق بازنشستگی).

سوال واضحی که مطرح می‌شود این است که آیا این ادعا در مورد جلوگیری از کاهش اعتماد عمومی به روبات‌های هوش مصنوعی تا حدودی عقیده‌ای است که به نفع همه ماست (آیا می‌تواند هر دو باشد؟).

تو تصمیم بگیر.

اکنون به بخش مخصوصاً گوشتی نامه سرگشاده می رسیم:

  • ما متعهد می‌شویم که از ربات‌های همه‌منظوره پیشرفته یا نرم‌افزاری که توسعه می‌دهیم که رباتیک پیشرفته را قادر می‌سازد، سلاح نخواهیم کرد و از دیگران برای انجام این کار حمایت نخواهیم کرد. در صورت امکان، ما برنامه های مورد نظر مشتریان خود را به دقت بررسی می کنیم تا از تسلیحات احتمالی جلوگیری کنیم. ما همچنین متعهد می‌شویم که توسعه ویژگی‌های تکنولوژیکی را که می‌تواند این خطرات را کاهش داده یا کاهش دهد، بررسی کنیم. برای روشن بودن، ما با فناوری‌های موجود که کشورها و سازمان‌های دولتی آنها برای دفاع از خود و حمایت از قوانین خود استفاده می‌کنند، مشکلی نداریم.

ما می توانیم این را باز کنیم.

بشین و خودت رو آماده کن.

آیا برای چند قطبی شدن آتشین آماده اید؟

از طرفی، برخی به طور صریح اعلام می کنند که این سازندگان ربات هوش مصنوعی چنین تعهدی را خواهند داد. به نظر می‌رسد که این ربات‌سازان خوشبختانه به دنبال این هستند که ربات‌های همه منظوره با تحرک پیشرفته خود را مسلح نکنند. علاوه بر این، نامه باز می گوید که آنها از دیگرانی که این کار را انجام می دهند حمایت نخواهند کرد.

منتقدان از خود می‌پرسند که آیا واژه‌سازی هوشمندانه‌ای در جریان است؟

به عنوان مثال، "تحرک پیشرفته" از کجا شروع و به کجا ختم می شود؟ اگر یک سازنده ربات در حال طراحی یک سادهربات هوش مصنوعی متحرک به جای یک ربات پیشرفته (که یک قطعه نامشخص از اصطلاحات تخصصی فنی است)، آیا این ربات از محدوده آنچه که خواهد بود حذف می شود. نه مسلح شدن؟ بنابراین، ظاهراً اسلحه سازی ربات های هوش مصنوعی با تحرک ساده اشکالی ندارد، تا زمانی که آنها به اصطلاح نباشند. پیشرفته.

همین امر در مورد عبارات ربات های همه منظوره نیز صدق می کند. اگر یک ربات هوش مصنوعی به طور خاص برای ساخت سلاح ابداع شده باشد و بنابراین چنین نیست، باید بگوییم a همه منظوره ربات، آیا این یک محرومیت قابل قبول از محدوده است؟

شما ممکن است با این حرف‌ها حرف بزنید و شدیداً استدلال کنید که این فقط یک نامه سرگشاده است و نه یک سند حقوقی پنجاه صفحه‌ای که هر گوشه و کناری را مشخص می‌کند.

این ما را به ابهام ظاهراً کلان تر بیان شده توسط برخی می رساند. در اصل، «تعهد» به چه معناست؟

برخی می پرسند گوشت گاو کجاست؟

شرکتی که چنین تعهدی می دهد، ظاهراً این کار را بدون هیچ گونه سهم واقعی در بازی انجام می دهد. اگر مدیران ارشد هر شرکتی که برای این تعهد ثبت نام می کند، تصمیم بگیرد که دیگر به تعهد خود عمل نکند، چه اتفاقی برای آن شرکت می افتد؟ آیا مدیران به طور خلاصه کنسرو می شوند؟ آیا شرکت تعطیل می شود و به دلیل نقض تعهد عذرخواهی می کند؟ و غیره.

تا آنجا که می توان استنباط کرد، برای هر گونه تخلف از تعهد، مجازات یا مجازات خاصی وجود ندارد.

ممکن است استدلال کنید که احتمال آسیب به شهرت وجود دارد. یک شرکت متعهد ممکن است به خاطر تعهدی که دیگر به آن عمل نکرده است، در بازار سرگردان شود. البته، این همچنین فرض را بر این می گذارد که مردم به یاد داشته باشند که تعهد داده شده است. همچنین فرض می‌کند که نقض تعهد به نحوی شناسایی می‌شود (به‌طور مشخص بعید به نظر می‌رسد که یک شرکت در صورت انجام این کار، همه چیز را اعلام کند). ناقض تعهد باید فراخوانده شود و با این حال چنین موضوعی ممکن است در سونامی جاری اخبار مربوط به سازندگان رباتیک هوش مصنوعی به سر و صدا تبدیل شود.

زاویه دیگری را که پیش آمده در نظر بگیرید.

یک شرکت متعهد توسط یک شرکت بزرگتر خریداری می شود. شرکت بزرگتر شروع به تبدیل ربات های همه منظوره با قابلیت حرکت پیشرفته به نسخه های مجهز به هوش مصنوعی می کند.

آیا این نقض تعهد است؟

شرکت بزرگتر ممکن است اصرار کند که این تخلف نیست زیرا آنها (شرکت بزرگتر) هرگز تعهد نداده اند. در همین حال، ربات‌های هوش مصنوعی بی‌ضرر که شرکت کوچک‌تر گرد هم آورده و ابداع کرده است، و این کار را با ظاهراً نوع دوستانه‌ترین نیات انجام می‌دهد، تقریباً یک شبه به سلاح تبدیل می‌شوند.

به نوعی این تعهد را تضعیف می کند، اگرچه ممکن است بگویید که شرکت کوچکتر نمی دانست که روزی این اتفاق خواهد افتاد. آنها در آرزوی خود جدی بودند. این که شرکت خرید بزرگتر چه کاری را انجام دهد خارج از کنترل آنها بود.

برخی نیز می پرسند که آیا در این مورد مسئولیت قانونی وجود دارد؟

یک شرکت متعهد چند ماه دیگر تصمیم می گیرد که به تعهد خود عمل نکند. آنها تغییر عقیده داشته اند. آیا می توان از شرکت به دلیل انصراف از تعهد خود شکایت کرد؟ چه کسی شکایت می کند؟ مبنای طرح دعوا چه خواهد بود؟ انبوهی از مسائل حقوقی پیش می آید. همانطور که آنها می گویند، شما تقریباً می توانید از هر کسی شکایت کنید، اما اینکه آیا پیروز خواهید شد یا نه، موضوع کاملاً متفاوت است.

جور دیگری به این فکر کنید. یک شرکت متعهد فرصتی پیدا می‌کند تا یک معامله واقعاً بزرگ انجام دهد و یک دسته کامل از ربات‌های همه‌منظوره پیشرفته خود را به یک شرکت بزرگ بفروشد که مایل است برای تهیه ربات‌ها از طریق دماغ هزینه کند. این یکی از آن معاملات خرید میلیون دلاری است که یک بار در زندگی انجام می شود.

شرکت رباتیک هوش مصنوعی چه باید بکند؟

اگر شرکت متعهد رباتیک هوش مصنوعی به صورت عمومی معامله شود، تقریباً مطمئناً قصد فروش را دارند (همان مورد را می توان در مورد یک شرکت خصوصی گفت، البته نه کاملاً چنین است). تصور کنید که شرکت متعهد نگران این است که خریدار سعی کند ربات ها را به سلاح تبدیل کند، هرچند فرض کنید چنین بحثی روی میز وجود ندارد. فقط شایعه شده که خریدار ممکن است این کار را انجام دهد.

بر این اساس، شرکت متعهد در مجوز خود قرار می دهد که ربات ها نباید مسلح شوند. خریدار با این زبان مخالفت می کند و از خرید فاصله می گیرد.

شرکت رباتیک هوش مصنوعی متعهد چه میزان سود را کنار گذاشته است؟

آیا نقطه‌ای وجود دارد که در آن سود حاصل از گنجاندن الزامات محدودیت مجوز (یا شاید از نظر قانونی عبارت محدودیت برای اجازه دادن به اتاق تکان دادن و همچنان انجام معامله) بیشتر باشد؟ من فکر می کنم که شما می توانید مشکل موجود را ببینید. هزاران تن از چنین سناریوهایی به راحتی قابل تصور هستند. سوال این است که آیا این تعهد قرار است دندان داشته باشد؟ اگر چنین است، چه نوع دندان هایی؟

به طور خلاصه، همانطور که در ابتدای این بحث ذکر شد، برخی از این موضوع که این نوع تعهدات در حال انجام است، تقویت می‌شوند، در حالی که برخی دیگر دیدگاه ضعیف‌تری نسبت به اینکه آیا این تعهد آب را حفظ می‌کند یا خیر.

پیش می رویم.

گرفتن تعهد

پاراگراف چهارم و آخر نامه سرگشاده چنین می گوید:

  • ما درک می‌کنیم که تعهد ما به تنهایی برای رسیدگی کامل به این خطرات کافی نیست و بنابراین از سیاست‌گذاران می‌خواهیم تا برای ترویج استفاده ایمن از این ربات‌ها و منع سوء استفاده از آنها با ما همکاری کنند. ما همچنین از هر سازمان، توسعه‌دهنده، محقق و کاربر در جامعه روباتیک می‌خواهیم که تعهدات مشابهی مبنی بر عدم ساخت، مجوز، پشتیبانی یا فعال کردن اتصال سلاح به چنین روبات‌هایی را بدهند. ما متقاعد شده‌ایم که مزایای این فناوری‌ها برای بشریت به شدت بیشتر از خطر استفاده نادرست است، و درباره آینده روشنی که در آن انسان‌ها و روبات‌ها در کنار هم برای مقابله با برخی از چالش‌های جهان کار می‌کنند هیجان‌زده هستیم.

این بخش آخر نامه باز دارای چندین عنصر اضافی است که خشم را برانگیخته است.

برخی ادعا می‌کنند که فراخوانی از سیاست‌گذاران می‌تواند خوش‌بینانه یا نادرست باشد. ممکن است سیاست‌گذارانی را که در این موضوعات آگاه نیستند، بخواهید که قوانین و مقررات کلاسیک را برای قضاوت عجله انجام دهند و پیشروی ربات‌های هوش مصنوعی را غصب کنند. با توجه به نکته ای که قبلا ذکر شد، شاید نوآوری که پیشرفت های رباتیک هوش مصنوعی را به جلو می برد، مختل شود یا بر روی آن لگدمال شود.

منتقدان می گویند بهتر است مطمئن باشید که می دانید چه چیزی می خواهید.

البته، استدلال مخالف این است که روایت به وضوح بیان می‌کند که سیاست‌گذاران باید با شرکت‌های رباتیک هوش مصنوعی کار کنند تا دریابند که چگونه می‌توان احتمالاً چنین قوانین و مقرراتی را عاقلانه وضع کرد. ضد استدلال این است که اگر سیاست‌گذاران به هوس‌های آن‌ها توجه کنند، ممکن است به نظر سازندگان رباتیک هوش مصنوعی نگاه کنند. مقابله با ضد استدلال این است که طبیعتاً کار با کسانی که در مورد فن آوری می دانند یک ضرورت است، در غیر این صورت نتیجه به طور بالقوه ضربه ای خواهد بود. و غیره.

شاید بر اساس شوخی، عده ای دل درد در این خط داشته باشند که از همه می خواهد تعهدات مشابهی بدهند که نگذارند. پیوستن تسلیحات برای ربات های همه منظوره با تحرک پیشرفته. کلمه کلیدی در آنجا کلمه است پیوستن. اگر کسی در حال ساخت یک ربات هوش مصنوعی است که دارای تسلیحات است یا به طور یکپارچه در آن جاسازی می کند، به نظر می رسد که از جمله بندی استفاده می کند. پیوستن چیزی اکنون می توانید آن را ببینید، کسی به شدت استدلال می کند که اسلحه متصل نیست، این کاملاً بخشی از ربات هوش مصنوعی است. آنها فریاد می زنند که از آن عبور کنید، ما در محدوده آن تعهد نیستیم، و حتی می توانستند در غیر این صورت بگویند که هستند.

این موضوع شکایت دیگری را در مورد عدم چسبندگی تعهد مطرح می کند.

آیا یک شرکت یا اصلاً هرکسی که می‌خواهد این تعهد را بدهد می‌تواند در هر زمانی که بخواهد و به هر دلیلی که می‌خواهد، خود را بی‌تعهد اعلام کند؟

ظاهرا همینطور است.

بحث های زیادی در مورد تعهد دادن و کشش آنها وجود دارد.

نتیجه

بله، ممکن است بگویید، این شرکت‌هایی که تلاش می‌کنند کار درست را انجام دهند، به دلیل تلاش برای انجام کار درست تحت فشار قرار می‌گیرند.

چه بر سر دنیای ما آمده است؟

هر کسی که چنین تعهدی می دهد باید از شک و تردید بهره مند شود، شما ممکن است مشتاقانه آن را حفظ کنید. آنها به عرصه عمومی می روند تا سهمی جسورانه و حیاتی داشته باشند. اگر ما شروع به تحقیر آنها به خاطر این کار کنیم، مطمئناً اوضاع بدتر خواهد شد. هیچ کس نمی خواهد چنین تعهدی بدهد. شرکت ها و دیگران حتی تلاش نمی کنند. آن‌ها پنهان می‌شوند و به جامعه هشدار نمی‌دهند که آن ربات‌های رقصنده عزیز می‌توانند به طور خطرناکی به چه چیزی تبدیل شوند.

شکاکان اعلام می کنند که راه عاقل شدن جامعه مستلزم اقدامات دیگری است، مانند کنار گذاشتن عمل خیال انگیز نمایش ربات های هوش مصنوعی رقصنده. یا حداقل آن را به یک عمل متعادل تر تبدیل کنید. برای مثال، به جای تقلید صرفاً از سگ‌های وفادار به حیوانات خانگی، نشان دهید که چگونه ربات‌های رقصنده می‌توانند بیشتر شبیه گرگ‌های خشمگین وحشی باشند که می‌توانند انسان‌ها را با تردید تکه تکه کنند.

آنها التماس می کنند که این بیشتر از تعهدات مورد توجه قرار می گیرد.

تعهد بدون شک می تواند یک معماست.

همانطور که مهاتما گاندی به شیوایی بیان کرد: «هرچقدر هم که این تعهد صریح باشد، مردم متن را می‌چرخانند و مطابق با هدف خود می‌چرخانند».

شاید برای پایان دادن به یک یادداشت نشاط‌آور، توماس جفرسون در مورد تعهدات چنین گفت: «ما متقابلاً زندگی، ثروت و افتخار مقدس خود را به یکدیگر تعهد می‌دهیم».

وقتی صحبت از ربات‌های هوش مصنوعی، استقلال، سلاح‌سازی و مواردی از این دست به میان می‌آید، در نهایت همه ما با هم در این زمینه خواهیم بود. عهد متقابل ما حداقل باید این باشد که این مسائل را سرلوحه خود نگه داریم، تلاش کنیم راه هایی برای کنار آمدن با این پیشرفت ها پیدا کنیم و به نحوی راه خود را برای تأمین آبرو، ثروت و زندگی خود پیدا کنیم.

آیا می توانیم به آن تعهد بدهیم؟

امیدوارم.

منبع: https://www.forbes.com/sites/lanceeliot/2022/10/09/ai-ethics-and-ai-law-asking-hard-questions-about-that-new-pedge-by-dancing- ربات سازان-می گویند-از-سلاح-آیی- جلوگیری می کنند/