بررسی اصول اخلاقی هوش مصنوعی در مورد شایستگی های اجباری قانونی وجوه تاوان برای اطمینان از مسئولیت پذیری برای عملکرد بد هوش مصنوعی

چه کسی سرزنش می کند؟

این ممکن است یک سوال ساده به نظر برسد، اگرچه در مورد کمدی معروف دو نفره افسانه ای ابوت و کاستلو درباره یک تیم بیسبال، "چه کسی" می تواند گیج کننده باشد. ممکن است به طور مبهم با آن آشنا باشید چه کسی اول است روال کمدی که آن ها به یکی از ماندگارترین صحنه های تمام دوران تبدیل کردند (هشدار اسپویل برای کسانی از شما که آن را نشنیده اند).

ابوت به کاستلو می گوید که چه کسی نفر اول است، چه چیزی در نفر دوم است و من نمی دانم سوم است. ترفند زیرکانه این است که اولین پایه به نام Who، زیرزمین دوم به نام What، و پایه سوم به نام I Don't Know نام دارد. البته، آن عبارات نیز معنای متعارف خود را دارند و بنابراین تلاش برای تفسیر آنچه ابوت می گوید می تواند کاملاً گیج کننده باشد. در واقع، کاستلو این سوال به ظاهر بی‌ضرر را می‌پرسد که چه کسی اول است، که پاسخ کاملاً مثبت است. اما این برای کاستلو منطقی نیست، زیرا او منتظر نامی بود و در عوض یک بله گیج کننده را به عنوان پاسخ دریافت کرد.

وقتی نوبت به ظهور هوش مصنوعی (AI) می‌رسد، یکی از آزاردهنده‌ترین سوالاتی که مدام از آن پرسیده می‌شود، مستلزم این است که چه کسی یا شاید چه چیزی در هنگام بیراهه رفتن هوش مصنوعی پاسخگو باشد.

من قبلاً در مورد مسئولیت کیفری برای زمانی که هوش مصنوعی منجر به اقدامات مجرمانه می شود یا انجام می دهد بحث کرده ام، پوشش من را در اینجا ببینید پیوند اینجا. همچنین موضوع پاسخگویی مدنی وجود دارد، مانند اینکه چه کسی یا چه چیزی ممکن است در زمانی که هوش مصنوعی شما را اشتباه کرده است، شکایت کنید، که موضوعی است که در اینجا به آن خواهم پرداخت. همه اینها ملاحظات اخلاقی هوش مصنوعی قابل توجهی دارند. برای پوشش مداوم و گسترده من از اخلاق هوش مصنوعی و هوش مصنوعی اخلاقی، رجوع کنید پیوند اینجا و پیوند اینجا، فقط به نام چند.

دستورات اخلاق هوش مصنوعی ما را وادار می کند که هوشیار بمانیم. فن‌آوران هوش مصنوعی ممکن است در مواقعی با فناوری، به‌ویژه بهینه‌سازی فناوری‌های پیشرفته، مشغول شوند. آنها لزوماً پیامدهای اجتماعی بزرگتر را در نظر نمی گیرند. داشتن یک ذهنیت اخلاقی هوش مصنوعی و انجام این کار به طور یکپارچه برای توسعه و میدان‌دهی هوش مصنوعی برای تولید هوش مصنوعی مناسب حیاتی است، از جمله (شاید شگفت‌انگیز یا طنزآمیز) ارزیابی نحوه پذیرش اخلاق هوش مصنوعی توسط شرکت‌ها.

علاوه بر به کارگیری اصول اخلاقی هوش مصنوعی به طور کلی، یک سوال مربوط به این موضوع وجود دارد که آیا ما باید قوانینی برای کنترل کاربردهای مختلف هوش مصنوعی داشته باشیم. قوانین جدیدی در سطوح فدرال، ایالتی و محلی وضع می شود که به محدوده و ماهیت چگونگی ابداع هوش مصنوعی مربوط می شود. تلاش برای تدوین و تصویب چنین قوانینی تدریجی است. اخلاق هوش مصنوعی حداقل به عنوان یک توقف در نظر گرفته شده عمل می کند و تقریباً مطمئناً تا حدی مستقیماً در آن قوانین جدید گنجانده می شود.

توجه داشته باشید که برخی قاطعانه استدلال می کنند که ما به قوانین جدیدی که هوش مصنوعی را پوشش می دهد نیازی نداریم و قوانین موجود ما کافی است. در واقع، آنها از قبل هشدار می‌دهند که اگر برخی از این قوانین هوش مصنوعی را به اجرا بگذاریم، با مهار پیشرفت‌های هوش مصنوعی که مزایای اجتماعی عظیمی را ارائه می‌دهد، غاز طلایی را خواهیم کشت.

بحث داغی که در حال وقوع است این است که آیا قوانین موجود می توانند به اندازه کافی به ظهور سیستم های هوش مصنوعی در سراسر جامعه رسیدگی کنند یا خیر. مسئولیت قانونی معمولاً مستلزم آن است که بتوانید دم خر را بچسبانید که چه کسی مسئول رفتار مضر است. در مورد هوش مصنوعی، ممکن است مسیر نسبتاً نامشخصی وجود داشته باشد که شخص یا افراد خاصی را به هوش مصنوعی مرتبط می‌کند که اقدام مضری انجام داده‌اند. هوش مصنوعی ممکن است تا حد زیادی برای منبع یا مخترع سازنده هوش مصنوعی غیرقابل ردیابی باشد.

ملاحظات دیگر این است که حتی اگر بتوان ریشه های هوش مصنوعی را در کسی ردیابی کرد، سوال این است که آیا آن شخص یا افراد ممکن است نتوانند به طور منطقی پیامد نامطلوبی را که در نهایت هوش مصنوعی ایجاد کرده است، پیش بینی کنند. محور پیش بینی پذیری یک عامل قابل توجه معمول در ارزیابی مسئولیت قانونی است.

ممکن است وسوسه شوید که فکر کنید به سادگی می توانید به دنبال خود هوش مصنوعی بروید و هوش مصنوعی را به عنوان طرف قانونی مسئول یا مسئول هر آسیبی که گفته می شود متحمل شده است نام ببرید. به طور کلی، دیدگاه حقوقی غالب این است که هوش مصنوعی هنوز به سطحی از شخصیت حقوقی نرسیده است. بنابراین، شما نمی توانید به طور دقیق به دنبال پرداخت هزینه های هوش مصنوعی باشید و باید انسان هایی را بیابید که در پشت صحنه کار می کردند (برای تحلیل من از شخصیت حقوقی برای هوش مصنوعی، نگاه کنید به پیوند اینجا).

در تمام این باتلاق‌های قانونی بالقوه، ایده‌ای مطرح می‌شود که به‌عنوان یک راه‌حل احتمالی، یا به صورت کوتاه‌مدت یا احتمالاً در بلندمدت مطرح می‌شود. ایده این است که شاید باید یک صندوق جبرانی ویژه ایجاد شود تا کمک مالی برای کسانی که توسط هوش مصنوعی آسیب دیده اند فراهم شود. اگر در غیر این صورت قادر به دریافت غرامت از AI نیستید، و نمی توانید افرادی را که احتمالاً باید پاسخگو باشند، شناسایی کنید، بهترین گزینه ممکن است استفاده از یک صندوق جبرانی باشد که هدف آن کمک به افرادی است که توسط هوش مصنوعی آسیب دیده اند.

چنین صندوقی شبیه نوعی از بیمه است، همانطور که در یک مقاله تحقیقاتی قابل تأمل بیان شده است: «این اساساً یک مکانیسم بیمه ای در برابر عدم قطعیت خواهد بود: یک چارچوب روشن و شفاف برای جبران سریع خسارت در مواردی که دعوای مسئولیت دارایی است. به دلیل ماهیت غیرقابل پیش‌بینی رفتار آسیب‌رسان، خود (نوع) آسیب یا هزینه‌های بیش از حد و/یا پیچیدگی روش، چشم‌انداز موفقیت نامشخص یا بدون چشم‌انداز موفقیت است» (مقاله اولیویا اردلی و گابور اردلی، «معمای مسئولیت هوش مصنوعی» و کار بر اساس سرمایه، مجله تحقیقات هوش مصنوعی، 2021).

صندوق جبرانی بخشی از یک طرح ضمانت هوش مصنوعی (AIGS) خواهد بود و با برخی تغییرات ملایم در قوانین موجود در مورد مسئولیت قانونی همراه خواهد بود. اگر مجموعه‌ای از تغییرات آشکار در رژیم‌های حقوقی موجود اعمال می‌شد، احتمالاً اجرای آن آسان‌تر خواهد بود و نیازی به نوع سختی از اضطراب حقوقی و اجتماعی ندارد. به گفته محققان: «این نشان‌دهنده اعتقاد ما است که - علی‌رغم جذابیت چنین راه‌حلی سریع - بی تغییر اعمال قوانین مسئولیت موجود در AI یا الف با انگیزه حمایتی توسل به مسئولیت اکید با هدف ایجاد مسئولیت به هر قیمتی، به سه دلیل پاسخ صحیحی نیست: اول، نادیده گرفتن این موضوع که این قوانین برای شرایط مختلف تنظیم شده اند و در نتیجه ممکن است برای هوش مصنوعی نامناسب باشند، آنها با اهداف متوازن و ظریف مغایرت دارند. سیستم مسئولیت قانونی دوم، آنها با اتخاذ یک رویکرد تنبیهی نابجا از نوآوری هوش مصنوعی جلوگیری می کنند. ثالثاً، توسل ناروا به مسئولیت اکید صرفاً مشکلات پیش‌بینی‌پذیری و تقصیر را به شیوه‌ای ناسازگار جزمی دور می‌زند تا اینکه آنها را اصلاح کند» (مطابق مقاله ذکر شده در بالا).

استدلال به نفع چنین وجوه جبرانی هوش مصنوعی عبارتند از:

  • نیاز به محاکمه های قانونی طولانی و پرهزینه برای مقابله با آسیب های ناشی از هوش مصنوعی را کاهش می دهد
  • به انسان‌ها اطمینان می‌دهد که می‌توانند از هوش مصنوعی استفاده کنند و در صورت آسیب دیدگی غرامت دریافت کنند
  • نوآوری هوش مصنوعی را با کاهش ابهامات قانونی پیش روی مبتکران هوش مصنوعی ترویج می کند
  • می تواند بسیار سریعتر از ایجاد تغییرات گسترده در قوانین موجود مورد استفاده قرار گیرد
  • یک درمان نسبتاً واضح ارائه می دهد که قابل اعتماد و به راحتی در دسترس است
  • دیگر

در همین حال، کسانی که با رویکرد وجوه جبرانی هوش مصنوعی مخالفند این را می گویند:

  • بیایید سازندگان هوش مصنوعی را بیش از حد از قلاب خارج کنیم و به آنها اجازه دهیم تا از مسئولیت پذیری خودداری کنند
  • سازندگان هوش مصنوعی را ترغیب می کند تا هوش مصنوعی تولید کنند که فاقد ایمنی وظیفه شناسانه و کنترل های مناسب باشد
  • ممکن است افراد را به ادعای نادرست آسیب‌های هوش مصنوعی تشویق کند تا بتوانند از بودجه استفاده کنند
  • نیاز واقعی به بازنگری قوانین ما برای حاکمیت کافی بر هوش مصنوعی را نادیده گرفته و تضعیف می کند
  • ممکن است به یک کابوس بوروکراتیک تبدیل شود که از بودجه غرق شود و از بودجه سوء استفاده کند
  • دیگر

همانطور که مشخص است، هم موافقان و هم مخالفان این مفهوم کاملاً بحث برانگیز وجود دارد.

به سختی می توانید به طور خلاصه صندوق جبرانی هوش مصنوعی را به عنوان یک رویکرد بالقوه برای نگرانی های فزاینده در مورد هوش مصنوعی که باعث آسیب می شود، رد کنید. راه حل پیشنهادی نیز یک اسلم دانک نیست.

یکی از دیدگاه ها این است که سازندگان هوش مصنوعی باید به عنوان بخشی از تلاش های خود در هنگام ابداع و انتشار هوش مصنوعی، پولی را در صندوق سرمایه گذاری کنند. این می تواند به عنوان نوعی هزینه یا مالیات تعبیر شود که آنها باید به عنوان بخشی از امکان انتشار هوش مصنوعی خود در جهان متحمل شوند. اما آیا این هزینه افزوده به طور بالقوه تلاش‌های استارت‌آپ‌هایی را که می‌خواهند مرزهای هوش مصنوعی امروزی را جابجا کنند، سرکوب می‌کند؟ و اجرای اطمینان از اینکه سازندگان هوش مصنوعی هزینه یا مالیات خود را پرداخت کرده اند چگونه انجام می شود؟

سوالات متعددی پیش می‌آیند که باید بررسی شوند:

  • صندوق جبرانی هوش مصنوعی در کدام کشورها بهتر عملی است؟
  • آیا می توان شکلی جهانی از وجوه جبرانی مرتبط با هوش مصنوعی ایجاد کرد؟
  • مکانیسم های دقیق و قابل اجرا مرتبط با چنین بودجه هایی چه خواهد بود؟
  • بودجه های جبرانی هوش مصنوعی (عمومی، خصوصی، خیریه) چگونه باید تامین شود؟
  • آیا این یک مبنای بیمه بدون تقصیر خواهد بود یا رویکرد دیگری اتخاذ می شود؟
  • غیره

قلمرویی که قبلاً ایده وجوه جبرانی هوش مصنوعی را در اطراف خود داشته است شامل سیستم‌های خودمختار مانند وسایل نقلیه خودران و خودروهای خودران است. برای پوشش من در مورد اتومبیل های خودران و سیستم های خودران هوش مصنوعی، نگاه کنید پیوند اینجا.

در اینجا طرحی از نحوه عملکرد این روش برای خودروهای خودران مبتنی بر هوش مصنوعی آورده شده است.

فرض کنید یک ماشین خودران با یک دوچرخه سوار تصادف می کند. دوچرخه سوار آسیب دیده است. دوچرخه سوار ممکن است با تعقیب خودروساز خودروی خودران به دنبال جبران قانونی باشد. یا ممکن است شرکت فناوری خودران که سیستم رانندگی هوش مصنوعی را ساخته است، هدف بگیرند. اگر خودروی خودران به عنوان ناوگان اداره می شود، راه قانونی دیگر تعقیب اپراتور ناوگان است. تلاش برای شکایت از هوش مصنوعی در این مقطع گزینه ای نیست زیرا شخصیت حقوقی هوش مصنوعی هنوز مشخص نشده است.

به‌جای اقدام قانونی علیه هر یک از آن طرف‌ها، راه‌حل دیگر ارائه درخواست یا ادعای یک صندوق جبرانی مناسب هوش مصنوعی است. صندوق باید فرآیندهای مربوط به بررسی ادعا را رسمی کند و سپس تعیین کند که در صورت ارائه هرگونه پرداخت غرامتی به مدعی چه اقدامی انجام شود. ممکن است یک فرآیند تجدیدنظر وجود داشته باشد که به مدعیانی کمک کند که معتقدند صندوق به اشتباه آنها را رد کرده یا به اندازه کافی توسط صندوق جبران نشده است.

در تئوری، صندوق جبرانی هوش مصنوعی مسیر بسیار سریع‌تری برای جبران خسارت وارده خواهد بود. می توانید تصور کنید که یک دعوای قضایی چقدر پرزحمت است، به موجب آن شرکت هایی که مورد شکایت قرار می گیرند ممکن است سعی کنند پرونده را طولانی کنند.

وکلای دادگستری ممکن است تاکید کنند که صندوق جبرانی هوش مصنوعی می‌تواند به سایر طرف‌ها مانند سازندگان هوش مصنوعی اجازه دهد که ظاهراً از هرگونه مجازات واضحی برای رها کردن خودروی خودران خود در جاده‌های عمومی که منجر به ضربه زدن به دوچرخه‌سوار شده است، اجتناب کنند. چه چیز دیگری ممکن است آن شرکت ها «بی دقت» انجام دهند؟ بدون شبح شمشیر قانونی که بالای سر آن‌ها آویزان است، می‌توانیم روزانه با هوش مصنوعی مواجه شویم که مملو از ظرفیت‌های خطرناک است.

بحث ها را دور و بر بچرخانید.

نتیجه

اخلاق هوش مصنوعی به ما یادآوری می کند که همیشه باید پیامدهای اخلاقی و قانونی هوش مصنوعی را در نظر بگیریم. در این مورد از صندوق های جبرانی هوش مصنوعی، ایده پیشنهادی یک مجموعه بیمه مانند از وجوه برای جبران خسارت هایی که توسط هوش مصنوعی آسیب دیده اند، جذاب به نظر می رسد. وجوه ظاهراً در آنجا منتظر خواهند بود، آماده بهره برداری از آن و ارائه سریع ترین غرامت ممکن است.

معاوضه در مورد اینکه آیا این ممکن است دریچه هایی را برای ساختن هوش مصنوعی که کنترل های ایمنی کمتر و کمتری داشته باشد باز کند، یک نگرانی دلهره آور و بسیار واقعی است. ما احتمالاً نیازی به افزودن سوخت به آتشی که شاید تا حدودی در حال وقوع است نداریم.

آیا هنوز هم می‌توانیم سازندگان هوش مصنوعی را مجبور به ابداع هوش مصنوعی اخلاقی مناسب و ایجاد همزمان این صندوق‌های جبرانی هوش مصنوعی کنیم؟

برخی می گویند که بله، ما می توانیم. با تنظیم مجدد قوانین موجود برای همسویی با وجوه جبرانی هوش مصنوعی، کسانی که توسط هوش مصنوعی آسیب می بینند به طور بالقوه مسیری دوگانه برای دریافت غرامت عادلانه خود خواهند داشت.

چه کسی اول است؟

بله، این همان کسی است که (مانند همه ما) در اولین اخطار است که باید در مورد استفاده بالقوه از وجوه جبرانی هوش مصنوعی فکر کنیم و قوانین موجود را حتی اگر اندک باشد، اصلاح کنیم، و ابزاری برای مقابله با هجوم هوش مصنوعی خوب و هجومی فراهم کنیم. هوش مصنوعی بد

هیچ سردرگمی در مورد آن ملاحظات حیاتی وجود ندارد.

منبع: https://www.forbes.com/sites/lanceeliot/2022/08/10/ai-ethics-mulling-over-the-merits-of-legally-mandating-tonement-funds-to-ensure-ai- مسئوليت/