اخلاق هوش مصنوعی و قانون هوش مصنوعی می‌گوید کاشت استدلال قانونی در هوش مصنوعی می‌تواند هوشمندانه به همسویی با ارزش انسانی برسد

در ستون امروز، من می‌خواهم تعداد بی‌شماری از موضوعات به ظاهر متفاوت مرتبط با هوش مصنوعی را در یک پارچه زیبا بافته کنم.

آیا شما آماده هستید؟

تصور کنید که از یک برنامه مجهز به هوش مصنوعی استفاده می کنید که در حین انجام یک نوع کار مهم به شما کمک می کند. شاید موضوع مالی باشد یا ممکن است به سلامتی مربوط باشد. ماهیت این است که شما به هوش مصنوعی وابسته هستید تا کار درست را انجام دهید و به روشی مطمئن و سالم انجام دهید.

فرض کنید هوش مصنوعی به قلمرو غیراخلاقی منحرف شود.

شاید متوجه نشوید که هوش مصنوعی این کار را انجام می دهد.

به عنوان مثال، هوش مصنوعی می‌تواند بر عوامل تبعیض‌آمیز بالقوه پنهان مانند نژاد یا جنسیت تکیه کند، اگرچه ممکن است هیچ وسیله قابل قبولی برای تشخیص استفاده نامطلوب نداشته باشید. در اینجا شما به تنهایی از طریق یک هوش مصنوعی که یا از همان ابتدا به روشی مشکل ساز ابداع شده است یا توانسته است به سمت خطرات اخلاقی مرزی و مضحک سوق پیدا کند (من در مورد آن بیشتر خواهم گفت این در یک لحظه).

در مورد هوش مصنوعی که تصمیم می گیرد مسیری غیراخلاقی را طی کند، چه کاری می توانید انجام دهید یا چه کاری می توانید انجام دهید؟

علاوه بر تلاش برای ساختن هوش مصنوعی از قبل به گونه ای که این نوع اقدامات موذیانه را انجام ندهد، قبلاً نیز به تفصیل توضیح داده ام که علاقه فزاینده ای برای جاسازی یک بررسی اخلاق هوش مصنوعی جزء در باتلاق رو به رشد غرب وحشی در غیر این صورت سیستم های هوش مصنوعی هر چیزی می رود که به بازار پرتاب می شوند. ایده این است که برای جلوگیری از یک برنامه مبتنی بر هوش مصنوعی از خارج شدن از ابعاد اخلاقی، می‌توانیم از هوش مصنوعی اضافی برای بررسی و تعادل استفاده کنیم. این هوش مصنوعی افزوده شده ممکن است خارج از برنامه هدفمند هوش مصنوعی باشد یا می تواند جزئی باشد که مستقیماً در هوش مصنوعی تعبیه شده یا کاشته شده است که می خواهیم آن را مجدداً بررسی کنیم.

همانطور که قبلاً گفته ام، ببینید پیوند اینجا: «روندی که اخیراً در حال ظهور است شامل تلاش برای ایجاد حفاظ‌های اخلاقی در هوش مصنوعی است که وقتی بقیه سیستم هوش مصنوعی شروع به فراتر رفتن از مرزهای اخلاقی از پیش تعیین‌شده می‌کنند، جذب خواهد شد. به یک معنا، هدف این است که از خود هوش مصنوعی استفاده کنیم تا خود را از انحراف اخلاقی دور نگه داریم. می‌توانید بگویید که هدف ما این است که هوش مصنوعی خودش را التیام بخشد» (لنس الیوت، «ساخت هوش مصنوعی اخلاقی که هوش مصنوعی غیراخلاقی را رصد می‌کند و سعی می‌کند هوش مصنوعی بد را از عمل کردن بازدارد،» فوربس، 28 مارس 2022).

همچنین ممکن است کتاب من در مورد آن مورد علاقه شما باشد ربات های نگهبان هوش مصنوعی، که گاهی به عنوان فرشتگان نگهبان نامیده می شود، که زیربنای فنی این چک کننده های دوگانه تعبیه شده با هوش مصنوعی پیشرفته را پوشش می دهد. پیوند اینجا.

نکته اصلی این است که خوشبختانه بیکن شما ممکن است با استفاده از یک عنصر تعبیه‌شده برای بررسی دوبار اخلاقیات هوش مصنوعی که ابداع شده و در یک برنامه هوش مصنوعی که شما استفاده می‌کنید، ذخیره شود. اما آیا این یک نگهبان کافی خواهد بود تا واقعاً مطمئن شود که هوش مصنوعی شما را کاملاً سفت و سخت نمی کند و حتی در زمینه های مضر هشری جرأت نمی کند؟

ببینید، برنامه هوش مصنوعی می تواند ظاهراً عملکرد خوبی داشته باشد غیر قانونی عمل می کند

این یک چیز است که هوش مصنوعی داشته باشیم که به یک منطقه خاکستری از آنچه ما رفتارهای اخلاقی یا غیراخلاقی می دانیم وارد می شود. یک رفتار به همان اندازه نگران‌کننده و احتمالاً بدتر شدن نگرانی مستلزم هوش مصنوعی است که فقط از کوسه می‌پرد و به تاریکی نامرغوب اعمال غیرقانونی آشکار فرو می‌رود.

هوش مصنوعی غیرقانونی بد است. اجازه دادن به هوش مصنوعی غیرقانونی بدون مراقبت، بد است. برخی از محققان حقوقی آشکارا نگران هستند که ظهور و فراگیر شدن هوش مصنوعی به تدریج و به طرز وحشتناکی ظاهر ما را از هوش مصنوعی تضعیف کند. حاکمیت قانون، تحلیل من را در پیوند اینجا.

یک لحظه صبر کنید، شاید بگویید.

ممکن است وسوسه شوید که فکر کنید توسعه دهندگان هوش مصنوعی این کار را می کنند هرگز هوش مصنوعی خود را طوری برنامه ریزی کنید که خلاف قانون عمل کند. غیر قابل تصور. فقط شرورهای شرور این کار را انجام می دهند (که به هر حال، به خاطر داشته باشید که کسانی هستند که عمداً از هوش مصنوعی برای اهداف شیطانی ابداع و استفاده می کنند، منطقه ای رو به رشد برای مجرمان و سایرین که مایل به استفاده از هوش مصنوعی برای فعالیت های شرور هستند).

متأسفیم، اما این تصور واهی است که فرض کنیم همه توسعه دهندگان هوش مصنوعی غیر شرور باید کاملاً مطمئن شوند که هوش مصنوعی آنها کاملاً قانونمند است. ممکن است هوش مصنوعی خود تنظیم شود و به سمت فعالیت غیرقانونی سرگردان شود. البته، این پتانسیل نیز وجود دارد که توسعه‌دهندگان هوش مصنوعی یا می‌خواستند که هوش مصنوعی به صورت غیرقانونی عمل کند یا از اینکه در هنگام ساخت هوش مصنوعی از چه چیزی غیرقانونی در مقابل اعمال قانونی است آگاه نبودند (بله، این کاملاً ممکن است، یعنی اینکه تیم هوش مصنوعی تمام فن‌آوری سردرگم می‌تواند نسبت به توهین‌های قانونی هوش مصنوعی خود بی‌اطلاع باشد، که قابل توجیه نیست و در عین حال با فرکانس هشداردهنده‌ای اتفاق می‌افتد.

در این باره چه میتوان کرد؟

یک بار دیگر، علاوه بر تلاش برای اطمینان از اینکه AI خارج از دروازه آهنی و قانونی است، یک رویکرد اضافی برای به دست آوردن بخار شامل تعبیه یا کاشت یک جزء هوش مصنوعی است که برای بقیه برنامه هوش مصنوعی بررسی مضاعف قانونی انجام می دهد. این هوش مصنوعی افزوده شده که آرام و اغلب بی خبر می نشیند، بقیه هوش مصنوعی را رصد می کند تا تشخیص دهد که آیا هوش مصنوعی قرار است سرکشی کند یا حداقل از محدودیت های اعمال شده قانونی یا نظارتی عبور کند.

ما اکنون دو نوع بررسی دوبار هوش مصنوعی داریم که به طور بالقوه در یک برنامه هوش مصنوعی تعبیه شده است:

  • بررسی دوبار اخلاق هوش مصنوعی: در زمان واقعی، این مؤلفه یا افزودنی هوش مصنوعی بقیه هوش مصنوعی را از نظر رفتارهای اخلاقی و غیراخلاقی که هوش مصنوعی نشان می دهد ارزیابی می کند.
  • بررسی دوگانه حقوقی هوش مصنوعی: در زمان واقعی، این مؤلفه یا افزودنی هوش مصنوعی بقیه هوش مصنوعی را برای اطمینان از ماندن در چارچوب های قانونی و برای شناسایی فعالیت های غیرقانونی در حال ظهور توسط هوش مصنوعی ارزیابی می کند.

برای روشن شدن، اینها مفاهیم نسبتاً جدیدی هستند و به این ترتیب هوش مصنوعی که امروز استفاده می کنید ممکن است در هر یک از این شرایط فعلی باشد:

  • هوش مصنوعی که اصلاً چک‌کننده‌های دوگانه ندارد
  • هوش مصنوعی که دارای چک‌کننده دوگانه اخلاق هوش مصنوعی است اما چک‌کننده‌های دوگانه دیگری ندارد
  • هوش مصنوعی که دارای چک‌کننده دوگانه قانونی هوش مصنوعی است، اما چک‌کننده‌های دوگانه دیگری ندارد
  • هوش مصنوعی که هم دارای دوبررسی کننده اخلاق هوش مصنوعی و هم چک کننده دوگانه AI Legal است
  • دیگر

برخی از جنبه‌های بسیار دشوار وجود دارد که هر دو بررسی دوگانه اخلاق هوش مصنوعی و بررسی دوگانه قانونی هوش مصنوعی در یک برنامه هوش مصنوعی به عنوان برادر و خواهر فامیل در کنار هم کار می‌کنند. این نوعی از دوگانگی است که می‌تواند سخت‌تر از آنچه تصور می‌کنید هماهنگ شود (من فکر می‌کنم همه ما می‌دانیم که برادران و خواهران می‌توانند محکم‌ترین پیوندها را داشته باشند، اگرچه می‌توانند مانند دیکنزها گهگاهی با هم بجنگند و شدیداً مخالفت کنند. دیدگاه ها).

من به طور طولانی در مورد این نوع سخت صحبت کرده ام دوگانگی: "یک دوگانگی نادیده گرفته شده در هوش مصنوعی برای خیر اجتماعی رخ می دهد که شامل فقدان نقش عاملیت اخلاقی مصنوعی و استدلال قانونی مصنوعی در سیستم های هوش مصنوعی پیشرفته است. تلاش‌های محققان هوش مصنوعی و توسعه‌دهندگان هوش مصنوعی بر چگونگی ساخت و تعبیه عوامل اخلاقی مصنوعی برای هدایت تصمیم‌گیری اخلاقی زمانی که یک سیستم هوش مصنوعی در این زمینه فعالیت می‌کند تمرکز کرده است، اما همچنین بر روی و استفاده از قابلیت‌های استدلال قانونی مصنوعی تمرکز نکرده است. که به همان اندازه برای نتایج قوی اخلاقی و قانونی ضروری است» (لنس الیوت، «دوگانگی نادیده گرفته شده آژانس اخلاقی مصنوعی و استدلال قانونی مصنوعی در هوش مصنوعی برای خیر اجتماعی»، کنفرانس سالانه CRCS دانشگاه هاروارد، 2020، مرکز تحقیقات و محاسبات هاروارد)

اگر می‌خواهید در مورد اینکه چرا ممکن است بین یک چک‌کننده دوگانه اخلاق هوش مصنوعی و یک چک‌کننده دوگانه حقوقی هوش مصنوعی تنش وجود داشته باشد، فکر کنید، ممکن است این نقل قول قابل توجه از ارزش مفهومی خم‌کننده را بیابید: «قانون ممکن است اعمال خاصی را مجاز کند. هر چند آن عمل غیراخلاقی باشد; و قانون ممکن است یک عمل را ممنوع کند، حتی اگر آن عمل از نظر اخلاقی مجاز یا حتی اخلاقاً لازم باشد.» (شلی کاگان، حدود اخلاق، 1998).

بیایید کمی تمرکز خود را تغییر دهیم و ببینیم که چگونه این چکرزهای دوگانه به یک موضوع بسیار دقیق هوش مصنوعی دیگر، یعنی هوش مصنوعی مسئول یا یک ملاحظه هماهنگ از همسویی ارزش های انسانی و هوش مصنوعی.

تصور کلی این است که ما هوش مصنوعی می خواهیم که از ارزش های انسانی مناسب و مطلوب پیروی کند. برخی به این عنوان اشاره می کنند هوش مصنوعی مسئول. دیگران به همین ترتیب بحث می کنند هوش مصنوعی پاسخگو, هوش مصنوعی قابل اعتمادو تراز هوش مصنوعی، که همه آنها به یک اصل اساسی اشاره دارند. برای بحث من در مورد این مسائل مهم، نگاه کنید به پیوند اینجا و پیوند اینجا، فقط به نام چند.

چگونه می توانیم هوش مصنوعی را با ارزش های انسانی هماهنگ کنیم؟

همانطور که قبلاً پیشنهاد شد، امیدواریم توسعه‌دهندگان هوش مصنوعی از توسعه هوش مصنوعی آگاه باشند که به هوش مصنوعی پایبند باشد. متأسفانه، طبق دلایلی که قبلاً توضیح داده شد، آنها ممکن است نباشند. علاوه بر این، آنها ممکن است سعی کنند این کار را انجام دهند، اما با این وجود هوش مصنوعی در نهایت به خود تنظیمی فراتر از قلمرو برجسته رفتارهای اخلاقی یا احتمالاً به آب های غیرقانونی می رسد.

بسیار خوب، پس باید چکرزهای دوتایی شیک و کاربردی خود را به عنوان وسیله ای برای حمایت از این خطرات و قرار گرفتن در معرض در نظر بگیریم. استفاده از یک چک‌کننده دوگانه اخلاق هوش مصنوعی می‌تواند به همسو کردن هوش مصنوعی با ارزش‌های انسانی کمک کند. به طور مشابه، استفاده از یک بررسی دوگانه قانونی هوش مصنوعی می تواند به طور اساسی به همسویی هوش مصنوعی با ارزش های انسانی کمک کند.

بنابراین، یک ابزار حیاتی و هنوز شناخته نشده برای دستیابی به هوش مصنوعی مسئول، هوش مصنوعی قابل اعتماد، هوش مصنوعی پاسخگو، همسویی هوش مصنوعی و غیره، شامل استفاده از چک‌کننده‌های دوگانه هوش مصنوعی مانند چک‌کننده دوگانه اخلاق هوش مصنوعی و یک چک‌کننده دوگانه قانونی هوش مصنوعی که به‌طور خستگی‌ناپذیر به عنوان یک بررسی مضاعف روی هوش مصنوعی که در آن تعبیه شده است، کار می‌کند.

در این بحث، می‌خواهم جزئیات بیشتری در مورد ماهیت و ساختارهای چک‌کننده‌های دوگانه قانونی هوش مصنوعی که ممکن است در هوش مصنوعی تعبیه شده باشند را توضیح دهم. برای انجام این کار، ممکن است مفید باشد که پیشینه دیگری در مورد موضوع کلی با شما به اشتراک بگذاریم هوش مصنوعی و قانون.

برای بررسی بی‌معنای چگونگی آمیختگی هوش مصنوعی و قانون با یکدیگر، به بحث من در اینجا مراجعه کنید. پیوند اینجا. در نگاه دقیق من به هوش مصنوعی و قانون در کنار هم، من این مفهوم ساده را از دو راه اصلی برای ارتباط متقابل هوش مصنوعی و قانون ارائه می‌دهم:

  • (1) قانون اعمال شده در AI: تدوین، تصویب و اجرای قوانینی که در مورد تنظیم یا حاکمیت هوش مصنوعی در جامعه ما اعمال می شود.
  • (2) هوش مصنوعی کاربردی در قانون: فناوری هوش مصنوعی ابداع شده و در قانون اعمال شده است، از جمله استدلال حقوقی مبتنی بر هوش مصنوعی (AILR) که به برنامه‌های فناوری پیشرفته LegalTech تزریق شده است تا وظایف وکالت را به‌طور مستقل یا نیمه مستقل انجام دهد.

اولین دیدگاه فهرست شده شامل در نظر گرفتن این است که چگونه قوانین موجود و جدید بر هوش مصنوعی حاکم است. دیدگاه دوم فهرست شده مربوط به اعمال هوش مصنوعی در قانون است.

این دسته اخیر معمولاً شامل استفاده از استدلال حقوقی مبتنی بر هوش مصنوعی (AILR) در ابزارهای آنلاین مختلف است که توسط وکلا استفاده می شود. به عنوان مثال، هوش مصنوعی ممکن است بخشی از بسته مدیریت چرخه عمر قرارداد (CLM) باشد که با شناسایی زبان قراردادی که برای تهیه پیش‌نویس قراردادهای جدید مفید است یا ممکن است قراردادهایی را شناسایی کند که از نظر قانونی دارای زبانی است که امکان بروز حوادث ناگوار یا خلأهای قانونی را فراهم می‌کند، به وکلا کمک می‌کند. (برای نگاه من به به اصطلاح «بوی قانون» که با هوش مصنوعی قابل تشخیص است، نگاه کنید پیوند اینجا).

ما ناگزیر خواهیم بود که هوش مصنوعی را برای قانونی اعمال کنیم که برای استفاده عموم در دسترس است و نیازی به حضور وکیل نیست. در حال حاضر، در نتیجه محدودیت‌های مختلف، از جمله UPL (قانون عملی غیرمجاز)، در دسترس قرار دادن برنامه‌های مشاوره حقوقی مبتنی بر هوش مصنوعی موضوعی پیچیده و بحث‌برانگیز است، بحث من را در اینجا ببینید. پیوند اینجا.

من این مقدمه در مورد هوش مصنوعی و قانون را مطرح کردم تا به این نکته اشاره کنم که یکی دیگر از استفاده های ابزاری از هوش مصنوعی که در قانون اعمال می شود، ایجاد بررسی های دوگانه قانونی هوش مصنوعی است.

بله، همان نوع مهارت فناورانه ای که در اعمال هوش مصنوعی در قانون وجود دارد، می تواند با استفاده از هوش مصنوعی به عنوان یک چک کننده قانونی هوش مصنوعی تعبیه شده یا کاشته شده، به عنوان یک وظیفه مضاعف عمل کند. چک‌کننده دوگانه حقوقی هوش مصنوعی مؤلفه‌ای است که باید به جنبه‌های قانونی اشراف داشته باشد. هنگامی که بقیه برنامه هوش مصنوعی در حال انجام اقدامات مختلف هستند، بررسی‌کننده حقوقی هوش مصنوعی می‌سنجید که آیا برنامه هوش مصنوعی این کار را قانونی و در چارچوب محدودیت‌های قانونی انجام می‌دهد یا خیر.

یک مؤلفه بررسی دوگانه قانونی هوش مصنوعی لزوماً نیازی به پوشش کامل همه چیزهایی که در مورد قانون وجود دارد را ندارد. بسته به ماهیت برنامه هوش مصنوعی در مورد هدف و اقدامات کلی هوش مصنوعی، بررسی مضاعف حقوقی هوش مصنوعی می تواند از نظر تخصص حقوقی بسیار محدودتر باشد.

من یک چارچوب مفید برای نشان دادن اینکه چگونه هوش مصنوعی در حوزه قانونی در یک سری ظرفیت‌های خودمختار، شناخته شده به عنوان سطوح خودمختاری (LoA) است، شناسایی کرده‌ام. برای بررسی کلی به من مراجعه کنید فوربس پست ستونی در 21 نوامبر 2022، "پرونده قانع کننده جامع و بی معنی برای اینکه چرا وکلا باید درباره هوش مصنوعی و قانون بدانند" در پیوند اینجاو برای یک تصویر فنی دقیق به مقاله تحقیقاتی عمیق من در مقاله مراجعه کنید مجله حقوق محاسباتی MIT در 7 دسامبر 2021، نگاه کنید به پیوند اینجا.

این چارچوب پنج سطح هوش مصنوعی را که در تلاش‌های قانونی استفاده می‌شود، روشن می‌کند:

  • سطح 0: بدون اتوماسیون برای کارهای حقوقی مبتنی بر هوش مصنوعی
  • سطح 1: اتوماسیون کمک ساده برای کارهای حقوقی مبتنی بر هوش مصنوعی
  • سطح 2: خودکارسازی کمک پیشرفته برای کارهای حقوقی مبتنی بر هوش مصنوعی
  • سطح 3: اتوماسیون نیمه مستقل برای کارهای حقوقی مبتنی بر هوش مصنوعی
  • سطح 4: دامنه مستقل برای کارهای حقوقی مبتنی بر هوش مصنوعی
  • سطح 5: کاملاً مستقل برای کارهای حقوقی مبتنی بر هوش مصنوعی

من در اینجا به طور مختصر آنها را شرح می دهم.

سطح 0 سطح بدون اتوماسیون در نظر گرفته می شود. استدلال حقوقی و وظایف قانونی از طریق روش‌های دستی انجام می‌شود و عمدتاً از طریق رویکردهای مبتنی بر کاغذ انجام می‌شود.

سطح 1 شامل اتوماسیون کمک ساده برای استدلال قانونی هوش مصنوعی است. نمونه هایی از این دسته عبارتند از: استفاده از پردازش کلمات روزمره مبتنی بر رایانه، استفاده از صفحات گسترده رایانه ای روزمره، دسترسی به اسناد قانونی آنلاین که به صورت الکترونیکی ذخیره و بازیابی می شوند و غیره.

سطح 2 شامل اتوماسیون کمک پیشرفته برای استدلال قانونی هوش مصنوعی است. نمونه‌هایی از این دسته عبارتند از استفاده از پردازش زبان طبیعی ابتدایی به سبک پرس و جو (NLP)، عناصر ساده‌سازی یادگیری ماشین (ML)، ابزارهای تحلیل آماری برای پیش‌بینی موارد قانونی و غیره.

سطح 3 شامل اتوماسیون نیمه مستقل برای استدلال قانونی هوش مصنوعی است. نمونه‌هایی از این دسته عبارتند از استفاده از سیستم‌های مبتنی بر دانش پیشرفته (KBS) برای استدلال قانونی، استفاده از یادگیری ماشینی و یادگیری عمیق (ML/DL) برای استدلال قانونی، NLP پیشرفته و غیره.

سطح 4 شامل سیستم‌های مبتنی بر کامپیوتر مستقل دامنه برای استدلال قانونی هوش مصنوعی است. این سطح از مفهوم مفهومی دامنه‌های طراحی عملیاتی (ODD) استفاده مجدد می‌کند، همانطور که برای خودروهای خودران استفاده می‌شود، اما در حوزه قانونی اعمال می‌شود. حوزه‌های حقوقی ممکن است بر اساس حوزه‌های کاربردی، مانند قانون خانواده، قانون املاک، قانون ورشکستگی، قانون محیط زیست، قانون مالیات و غیره طبقه‌بندی شوند.

سطح 5 شامل سیستم های کاملاً مستقل مبتنی بر رایانه برای استدلال قانونی هوش مصنوعی است. به یک معنا، سطح 5 ابرمجموعه سطح 4 از نظر دربرگرفتن تمام حوزه های قانونی ممکن است. لطفا توجه داشته باشید که این یک سفارش بسیار بلند است.

هنگام بحث در مورد خودروهای خودران و وسایل نقلیه خودران، می توانید این سطوح خودمختاری را همتراز با کاربردهای مشابه تصور کنید (همچنین بر اساس استاندارد رسمی SAE، به پوشش من در پیوند اینجا). ما هنوز خودروهای خودران سطح 5 SAE نداریم. ما در حال ورود به خودروهای خودران سطح 4 SAE هستیم. بیشتر خودروهای معمولی در سطح 2 SAE هستند، در حالی که برخی از خودروهای جدیدتر به سمت سطح 3 SAE حرکت می کنند.

در حوزه حقوقی، ما هنوز AILR سطح 5 نداریم. ما در حال لمس برخی از سطح 4 هستیم، هرچند در ODD های بسیار باریک. سطح 3 شروع به دیدن نور روز می کند، در حالی که تکیه گاه اصلی AILR امروز در درجه اول در سطح 2 است.

یک مقاله تحقیقاتی اخیر در مورد هوش مصنوعی که در قانون اعمال می‌شود، نوعی گونه‌سازی را مطرح کرده است که به عنوان شناخته می‌شود قانون اطلاع رسانی کد. این محقق بیان می کند: «یکی از اهداف اولیه قانون اطلاع رسانی کد دستور کار این است که هوش مصنوعی را آموزش دهیم تا از روح قانون پیروی کند.» (جان جی. نای، «قانون از کد: رویکرد انفورماتیک حقوقی برای همسویی هوش مصنوعی با انسان»، مجله فناوری و مالکیت فکری شمال غربی، جلد 20، در دست انتشار). برخی ملاحظات اساسی وجود دارد که قانون اطلاع رسانی کد مانترا مطرح می شود و من شما را از طریق چندین مورد از آن دستورات کلیدی راهنمایی می کنم.

قبل از پرداختن به موضوع، ابتدا می‌خواهم پایه‌های اساسی را در مورد هوش مصنوعی و به‌ویژه اخلاق هوش مصنوعی و قانون هوش مصنوعی ایجاد کنم تا مطمئن شویم که بحث از نظر زمینه‌ای معقول خواهد بود.

افزایش آگاهی از هوش مصنوعی اخلاقی و همچنین قانون هوش مصنوعی

دوره اخیر هوش مصنوعی در ابتدا به عنوان یک موجود تلقی می شد هوش مصنوعی برای خوب، به این معنی که ما می توانیم از هوش مصنوعی برای بهبود بشریت استفاده کنیم. روی پاشنه های هوش مصنوعی برای خوب متوجه شدیم که ما نیز در آن غوطه ور هستیم هوش مصنوعی برای بد. این شامل هوش مصنوعی می‌شود که ابداع شده یا خود تغییر داده و تبعیض‌آمیز است و انتخاب‌های محاسباتی را با تعصبات ناروا آغشته می‌کند. گاهی اوقات هوش مصنوعی به این شکل ساخته می شود، در حالی که در موارد دیگر به آن قلمرو نامطلوب منحرف می شود.

من می‌خواهم کاملاً مطمئن شوم که ما در مورد ماهیت هوش مصنوعی امروزی همسو هستیم.

امروزه هیچ هوش مصنوعی وجود ندارد که حساس باشد. ما این را نداریم ما نمی دانیم که آیا هوش مصنوعی ممکن خواهد بود یا خیر. هیچ کس نمی تواند به درستی پیش بینی کند که آیا ما به هوش مصنوعی خواهیم رسید یا خیر، یا اینکه آیا هوش مصنوعی به طور معجزه آسایی به شکلی از ابرنواختر شناختی محاسباتی پدید خواهد آمد (که معمولاً به عنوان تکینگی شناخته می شود، پوشش من را در اینجا ببینید. پیوند اینجا).

نوع هوش مصنوعی که من روی آن تمرکز می کنم شامل هوش مصنوعی غیر حساسی است که امروز داریم. اگر بخواهیم در مورد هوش مصنوعی حساس حدس و گمان بزنیم، این بحث می تواند در جهتی کاملاً متفاوت پیش رود. ظاهراً یک هوش مصنوعی با کیفیت انسانی خواهد بود. شما باید در نظر داشته باشید که هوش مصنوعی حسی معادل شناختی یک انسان است. علاوه بر این، از آنجایی که برخی حدس می زنند که ممکن است هوش مصنوعی فوق هوشمند داشته باشیم، می توان تصور کرد که چنین هوش مصنوعی می تواند در نهایت از انسان ها باهوش تر باشد (برای کاوش من در مورد هوش مصنوعی فوق هوشمند به عنوان یک امکان، نگاه کنید به پوشش در اینجا).

من قویاً پیشنهاد می‌کنم که همه چیز را ثابت نگه داریم و هوش مصنوعی محاسباتی غیر حساس امروزی را در نظر بگیریم.

درک کنید که هوش مصنوعی امروزی قادر به «فکر کردن» به هیچ شکلی با تفکر انسان نیست. وقتی با الکسا یا سیری تعامل می کنید، ظرفیت های مکالمه ممکن است شبیه ظرفیت های انسانی به نظر برسد، اما واقعیت این است که محاسباتی است و فاقد شناخت انسانی است. آخرین دوره هوش مصنوعی از یادگیری ماشینی (ML) و یادگیری عمیق (DL) استفاده گسترده ای کرده است که از تطابق الگوی محاسباتی استفاده می کند. این منجر به سیستم‌های هوش مصنوعی شده است که ظاهری شبیه به تمایلات انسان دارند. در همین حال، هیچ هوش مصنوعی امروزی وجود ندارد که شباهتی به عقل سلیم داشته باشد و هیچ یک از شگفتی‌های شناختی تفکر قوی انسانی را نداشته باشد.

بسیار مراقب انسان سازی هوش مصنوعی امروزی باشید.

ML/DL نوعی تطبیق الگوی محاسباتی است. روش معمول این است که شما داده ها را در مورد یک کار تصمیم گیری جمع آوری می کنید. داده ها را به مدل های کامپیوتری ML/DL وارد می کنید. آن مدل ها به دنبال یافتن الگوهای ریاضی هستند. پس از یافتن چنین الگوهایی، در صورت یافتن، سیستم هوش مصنوعی در هنگام مواجهه با داده های جدید از آن الگوها استفاده خواهد کرد. پس از ارائه داده های جدید، الگوهای مبتنی بر داده های "قدیمی" یا تاریخی برای ارائه یک تصمیم فعلی استفاده می شود.

من فکر می کنم می توانید حدس بزنید که این به کجا می رود. اگر انسان‌هایی که بر اساس تصمیم‌گیری‌های الگو گرفته شده‌اند، سوگیری‌های نامطلوب را در خود جای داده‌اند، احتمال این وجود دارد که داده‌ها این را به روش‌های ظریف اما قابل توجهی منعکس کنند. تطبیق الگوی محاسباتی یادگیری ماشینی یا یادگیری عمیق به سادگی سعی می‌کند تا داده‌ها را مطابق با ریاضی تقلید کند. هیچ شباهتی از عقل سلیم یا سایر جنبه های حساس مدل سازی ساخته شده با هوش مصنوعی به خودی خود وجود ندارد.

علاوه بر این، توسعه دهندگان هوش مصنوعی نیز ممکن است متوجه نباشند که چه اتفاقی در حال رخ دادن است. ریاضیات محرمانه در ML/DL ممکن است کشف سوگیری های پنهان در حال حاضر را دشوار کند. شما به حق امیدوارید و انتظار دارید که توسعه دهندگان هوش مصنوعی سوگیری های بالقوه مدفون را آزمایش کنند، اگرچه این مشکل تر از آن چیزی است که به نظر می رسد. یک شانس قوی وجود دارد که حتی با آزمایش نسبتاً گسترده، سوگیری‌هایی همچنان در مدل‌های تطبیق الگوی ML/DL وجود داشته باشد.

می‌توانید تا حدودی از ضرب‌المثل معروف یا بدنام زباله‌های درون زباله‌ها استفاده کنید. مسئله این است که این بیشتر شبیه سوگیری‌هایی است که به‌طور موذیانه به‌عنوان سوگیری‌هایی که در هوش مصنوعی غوطه‌ور می‌شوند، القا می‌شوند. الگوریتم تصمیم‌گیری (ADM) هوش مصنوعی به طور اصولی مملو از نابرابری‌ها می‌شود.

خوب نیست.

همه اینها پیامدهای قابل توجهی از اخلاق هوش مصنوعی دارند و دریچه ای مفید به درس های آموخته شده (حتی قبل از اینکه همه درس ها اتفاق بیفتند) هنگام تلاش برای قانون گذاری هوش مصنوعی ارائه می دهد.

علاوه بر به کارگیری اصول اخلاقی هوش مصنوعی به طور کلی، یک سوال مربوط به این موضوع وجود دارد که آیا ما باید قوانینی برای کنترل کاربردهای مختلف هوش مصنوعی داشته باشیم. قوانین جدیدی در سطوح فدرال، ایالتی و محلی وضع می شود که به محدوده و ماهیت چگونگی ابداع هوش مصنوعی مربوط می شود. تلاش برای تدوین و تصویب چنین قوانینی تدریجی است. اخلاق هوش مصنوعی حداقل به عنوان یک توقف در نظر گرفته شده عمل می کند و تقریباً مطمئناً تا حدی مستقیماً در آن قوانین جدید گنجانده می شود.

توجه داشته باشید که برخی قاطعانه استدلال می کنند که ما به قوانین جدیدی که هوش مصنوعی را پوشش می دهد نیازی نداریم و قوانین موجود ما کافی است. آنها پیش‌بینی می‌کنند که اگر برخی از این قوانین هوش مصنوعی را به اجرا بگذاریم، با مهار پیشرفت‌های هوش مصنوعی که مزایای اجتماعی عظیمی را ارائه می‌دهد، غاز طلایی را خواهیم کشت.

در ستون‌های قبلی، من تلاش‌های ملی و بین‌المللی مختلف برای ایجاد و وضع قوانین مربوط به هوش مصنوعی را پوشش داده‌ام. پیوند اینجا، مثلا. من همچنین اصول و رهنمودهای مختلف اخلاق هوش مصنوعی را که کشورهای مختلف شناسایی و پذیرفته اند پوشش داده ام، از جمله تلاش سازمان ملل متحد مانند مجموعه اخلاق هوش مصنوعی یونسکو که نزدیک به 200 کشور آن را پذیرفته اند. پیوند اینجا.

در اینجا یک لیست کلیدی مفید از معیارها یا ویژگی های هوش مصنوعی اخلاقی در رابطه با سیستم های هوش مصنوعی است که قبلاً از نزدیک بررسی کرده ام:

  • شفافیت
  • عدالت و انصاف
  • عدم سوء استفاده
  • مسئوليت
  • حریم خصوصی
  • سود رسانی
  • آزادی و خودمختاری
  • اعتماد
  • پایداری
  • کرامت
  • اتحاد

این اصول اخلاقی هوش مصنوعی قرار است با جدیت توسط توسعه دهندگان هوش مصنوعی، همراه با آنهایی که تلاش های توسعه هوش مصنوعی را مدیریت می کنند، و حتی آنهایی که در نهایت سیستم های هوش مصنوعی را انجام می دهند، مورد استفاده قرار گیرد.

همه ذینفعان در طول چرخه عمر توسعه و استفاده هوش مصنوعی در محدوده رعایت هنجارهای تثبیت شده هوش مصنوعی اخلاقی در نظر گرفته می شوند. این نکته مهمی است زیرا فرض معمول این است که «فقط کدنویس‌ها» یا کسانی که هوش مصنوعی را برنامه‌ریزی می‌کنند، مشمول رعایت مفاهیم اخلاق هوش مصنوعی هستند. همانطور که قبلاً در اینجا تأکید شد، برای ابداع و بکارگیری هوش مصنوعی به یک روستا نیاز است، و برای آن کل دهکده باید به اصول اخلاقی هوش مصنوعی آشنا باشد و از آن پیروی کند.

من هم اخیرا بررسی کردم منشور حقوق هوش مصنوعی که عنوان رسمی سند رسمی دولت ایالات متحده با عنوان "طرح اولیه منشور حقوق هوش مصنوعی: ساخت سیستم های خودکار برای مردم آمریکا کار می کند" است که نتیجه تلاش یک ساله دفتر سیاست علم و فناوری (OSTP) است. ). OSTP یک نهاد فدرال است که به رئیس جمهور آمریکا و دفتر اجرایی ایالات متحده در مورد جنبه های مختلف فنی، علمی و مهندسی با اهمیت ملی مشاوره می دهد. از این نظر، می توان گفت که این منشور حقوق هوش مصنوعی، سندی است که توسط کاخ سفید موجود ایالات متحده تایید شده است.

در منشور حقوق هوش مصنوعی، پنج دسته اصلی وجود دارد:

  • سیستم های ایمن و موثر
  • حفاظت از تبعیض الگوریتمی
  • حریم خصوصی داده ها
  • تذکر و توضیح
  • جایگزین های انسانی، توجه، و بازگشت

من آن احکام را به دقت بررسی کرده ام، ببینید پیوند اینجا.

اکنون که من پایه مفیدی را روی این موضوعات مرتبط با اخلاق هوش مصنوعی و قانون هوش مصنوعی گذاشته‌ام، آماده‌ایم تا به موضوع پر سر و صدا بررسی‌های دوگانه قانونی هوش مصنوعی و قلمرو AI بپردازیم. قانون اطلاع رسانی کد.

بررسی‌کننده‌های دوگانه قانونی هوش مصنوعی برای همسویی ارزش انسانی در هوش مصنوعی تعبیه شده است

من گاهی به آن اشاره می کنم AI Legal Double-Checkers از طریق مخفف AI-LDC. این برای کسانی که با مخفف آن آشنایی ندارند کمی آزاردهنده است. به این ترتیب، من از این مخفف خاص در این بحث استفاده نمی‌کنم، اما می‌خواهم آن را به عنوان سرآغاز برای شما ذکر کنم.

برای بازگشایی برخی از پیچیدگی‌های چک‌کننده‌های حقوقی هوش مصنوعی، اجازه دهید به این نکات اصلی بپردازیم:

  • استفاده از چک‌کننده‌های دوگانه حقوقی هوش مصنوعی به عنوان مکانیزم همسویی ارزش‌های هوش مصنوعی
  • هوش مصنوعی گسترده‌تر به همین ترتیب به بررسی‌های دوگانه قانونی هوش مصنوعی قوی‌تری نیاز دارد
  • چک‌کننده‌های حقوقی هوش مصنوعی قانون را وضع می‌کنند و به ویژه قانون وضع نمی‌کنند (احتمالاً)
  • تعادل ظریف بین هوش مصنوعی تجسم حقوقی قانون به عنوان قوانین در مقابل استانداردها
  • نیاز به اثبات پودینگ در مورد رعایت هوش مصنوعی از قانون

به دلیل محدودیت فضا، فعلاً فقط آن پنج نکته را پوشش می‌دهم، اگرچه لطفاً برای پوشش بیشتر در ستون من که ملاحظات اضافی و به همان اندازه قابل توجه در مورد این موضوعات به سرعت در حال تحول و رو به جلو را پوشش می‌دهد، مراقب باشید.

همین حالا، کمربند ایمنی خود را ببندید و برای یک سفر نیروبخش آماده شوید.

  • استفاده از چک‌کننده‌های دوگانه حقوقی هوش مصنوعی به عنوان مکانیزم همسویی ارزش‌های هوش مصنوعی

راه های متعددی برای تلاش برای دستیابی به همسویی هماهنگ بین هوش مصنوعی و ارزش های انسانی وجود دارد.

همانطور که قبلا ذکر شد، ما می‌توانیم قوانین اخلاقی هوش مصنوعی را تولید و منتشر کنیم و به دنبال این باشیم که توسعه‌دهندگان هوش مصنوعی و کسانی که هوش مصنوعی را در اختیار دارند و کار می‌کنند تا از این اصول پیروی کنند. متأسفانه، این به تنهایی کار را انجام نمی دهد. شما طراحانی دارید که به ناچار پیام را دریافت نمی کنند. شما افراد متخلفی دارید که هوش مصنوعی اخلاقی را به رخ می کشند و تلاش می کنند تا اصول تجویز شده تا حدودی سست و نامناسب را دور بزنند. و غیره.

استفاده از رویکردهای «قانون نرم» که مستلزم اخلاق هوش مصنوعی است، باید تقریباً به طور اجتناب ناپذیری با راه‌های «قانون سخت» مانند تصویب قوانین و مقرراتی همراه شود که سیگنال بزرگی را به همه کسانی که هوش مصنوعی را ایجاد یا استفاده می‌کنند ارسال می‌کند. اگر عاقلانه از هوش مصنوعی استفاده نکنید، بازوی دراز قانون ممکن است به شما کمک کند. صدای به صدا در آمدن درهای زندان می تواند توجه تند را به خود جلب کند.

با این حال، یک مشکل بزرگ این است که گاهی اوقات درب انبار اسب ها را به بیرون راه داده است. یک هوش مصنوعی که فعال می شود به طور بالقوه همه نوع اعمال غیرقانونی را تولید می کند و این کار را تا زمانی که نه تنها دستگیر شود، بلکه همچنین زمانی که برخی از اعمال در نهایت برای جلوگیری از جریان اقدامات غیرقانونی اقدام کند، ادامه خواهد داد. همه اینها ممکن است زمان ببرد. در همین حال، انسان ها به هر شکلی آسیب می بینند.

در این حمله، بررسی دوگانه حقوقی هوش مصنوعی وارد می‌شود.

با اقامت در یک برنامه هوش مصنوعی، چک‌کننده حقوقی هوش مصنوعی می‌تواند فوراً تشخیص دهد که چه زمانی به نظر می‌رسد هوش مصنوعی با قانون مخالف است. بررسی دوگانه قانونی AI ممکن است هوش مصنوعی را در مسیر خود متوقف کند. یا این مؤلفه ممکن است انسان ها را در مورد فعالیت های غیرقانونی تشخیص داده شده آگاه کند و این کار را به موقع انجام دهد که می تواند ناظران را به اقدامات اصلاحی فوری سوق دهد. همچنین گزارش رسمی در نظر گرفته شده ای وجود دارد که این مؤلفه می تواند ایجاد کند و ظاهری ملموس از یک مسیر حسابرسی را برای اهداف کدگذاری اقدامات نامطلوب هوش مصنوعی ارائه می دهد.

گفته می شود که قوانین ما شکلی از ترکیب چند عاملی هستند، به طوری که قوانین به ناچار آمیزه ای از آنچه جامعه به عنوان تعادل بین دیدگاه های احتمالی متضاد در مورد رفتارهای اجتماعی مناسب و نامناسب قرار داده است، هستند. بنابراین یک بررسی دوگانه حقوقی هوش مصنوعی بر اساس قوانین ما این ترکیب را در بر می گیرد.

قابل ذکر است، این چیزی بیش از برنامه‌نویسی فهرستی از قوانین قانونی قطعی است. قوانین معمولاً انعطاف پذیرتر هستند و به جای تعیین دقیق ترین قوانین میکروسکوپی، در جهت استانداردهای فراگیر تلاش می کنند. پیچیدگی ها فراوان است.

با بازگشت به مقاله تحقیقاتی ذکر شده قبلی، در اینجا نحوه بررسی این ملاحظات در مورد پیگیری همسویی هوش مصنوعی نیز آمده است: "قانون، فلسفه کاربردی همسویی چند عاملی، به طور منحصر به فردی این معیارها را برآورده می کند. همسویی مشکل است زیرا ما نمی توانیم ex ante قوانینی را مشخص کنید که به طور کامل و قابل اثبات رفتار هوش مصنوعی خوب را هدایت می کند. به همین ترتیب، طرفین یک قرارداد حقوقی نمی‌توانند همه موارد احتمالی روابط خود را پیش‌بینی کنند و قانونگذاران نمی‌توانند شرایط خاصی را که تحت آن قوانین آنها اعمال می‌شود، پیش‌بینی کنند. به همین دلیل است که بسیاری از قوانین مجموعه ای از معیارها هستند» (همان).

تجسم قانون در یک بررسی دوگانه قانونی هوش مصنوعی بسیار چالش برانگیزتر از آن چیزی است که در ابتدا ممکن است تصور کنید.

همانطور که هوش مصنوعی پیشرفت می کند، ما باید بر این اساس از چنین پیشرفت هایی استفاده کنیم. معلوم شد آنچه برای غاز خوب است برای غاز نیز خوب است. آنهایی از ما که طبق قانون در هوش مصنوعی پیشرفت می‌کنند، روی هوش مصنوعی فشار می‌آورند و بدون شک پیشرفت‌های جدیدی را ایجاد می‌کنند که در نهایت می‌تواند به طور کلی به پیشرفت هوش مصنوعی کمک کند.

  • هوش مصنوعی گسترده‌تر به همین ترتیب به بررسی‌های دوگانه قانونی هوش مصنوعی قوی‌تری نیاز دارد

یک بازی موش و گربه با این موضوع روبرو می شود.

این احتمال وجود دارد که با پیشرفت بیشتر هوش مصنوعی، هر مؤلفه بررسی دوگانه قانونی AI مسائل را سخت‌تر و سخت‌تر پیدا کند. به عنوان مثال، یک برنامه هوش مصنوعی که مورد بررسی قرار می گیرد ممکن است راه های فوق العاده ابداعی جدیدی برای پنهان کردن اقدامات غیرقانونی که هوش مصنوعی انجام می دهد ابداع کند. حتی اگر هوش مصنوعی مسیری پنهانی را طی نکند، پیچیدگی کلی هوش مصنوعی به تنهایی می‌تواند مانعی دلهره‌آور برای ارزیابی دوبار بررسی قانونی هوش مصنوعی باشد.

در اینجا چگونگی این امر به ویژه قابل توجه است.

فرض کنید یک توسعه‌دهنده هوش مصنوعی یا شرکتی که از هوش مصنوعی استفاده می‌کند، اعلام کند که یک چک‌کننده قانونی هوش مصنوعی وجود دارد که در برنامه مبتنی بر هوش مصنوعی تعبیه شده است. وایلا، به نظر می رسد که آنها اکنون دست های خود را از نگرانی های بیشتر شسته اند. چک کننده دوگانه AI Legal از همه چیز مراقبت خواهد کرد.

نه خیلی

بررسی دوگانه حقوقی هوش مصنوعی ممکن است برای ماهیت برنامه هوش مصنوعی درگیر ناکافی باشد. همچنین این احتمال وجود دارد که چک‌کننده دوگانه AI Legal قدیمی شود، شاید با آخرین قوانین مربوط به برنامه هوش مصنوعی به‌روزرسانی نشود. دلایل زیادی را می توان پیش بینی کرد که چرا صرف حضور یک چک کننده دوگانه قانونی هوش مصنوعی یک گلوله نقره ای نخواهد بود.

این بینش‌ها را در تحقیقات ذکر شده قبلی در نظر بگیرید: «با پیشرفت‌های پیشرفته در زمینه هوش مصنوعی، می‌توانیم به طور مکرر نوارهای بالاتری از قابلیت‌های درک قانونی نشان داده شده تعیین کنیم. اگر توسعه‌دهنده‌ای ادعا می‌کند که سیستمش قابلیت‌های پیشرفته‌ای در انجام وظایف دارد، باید درک حقوقی پیشرفته و توانایی‌های قانونی و استدلالی هوش مصنوعی را نشان دهد، که عملاً هیچ سقفی از مشکل در هنگام در نظر گرفتن قوانین و مقررات در طول زمان، سابقه و صلاحیت ندارد. ” (همان).

  • چک‌کننده‌های حقوقی هوش مصنوعی قانون را وضع می‌کنند و به ویژه قانون وضع نمی‌کنند (احتمالاً)

من مطمئن هستم که برخی از شما از ایده داشتن این چک‌کننده‌های قانونی هوش مصنوعی متحیر هستید.

یکی از نگرانی‌هایی که اغلب مطرح می‌شود این است که ظاهراً به هوش مصنوعی اجازه می‌دهیم قوانین ما را برای ما تعیین کند. خدای خوب، ممکن است فکر کنید، بخشی از اتوماسیون بر بشریت غلبه خواهد کرد. آن چک‌کننده‌های دوگانه هوش مصنوعی تعبیه‌شده، پادشاهان پیش‌فرض قوانین ما خواهند شد. هر کاری که احتمالاً انجام دهند همان چیزی خواهد بود که قانون به نظر می رسد.

انسان ها توسط هوش مصنوعی اداره خواهند شد.

و این چک‌کننده‌های قانونی هوش مصنوعی مسیر لغزنده‌ای هستند که ما را به آنجا می‌رسانند.

یک استدلال متقابل این است که چنین صحبت هایی موضوع تئوری های توطئه است. شما به طرز وحشیانه ای فرض می کنید و خود را درگیر می کنید. واقعیت این است که این چک‌کننده‌های حقوقی هوش مصنوعی هوشیار نیستند، قرار نیست سیاره زمین را تصرف کنند و هیاهو درباره خطر وجودی آنها آشکارا مضحک و به شدت اغراق‌آمیز است.

در مجموع، با حفظ حالتی آرام و منطقی، باید توجه داشته باشیم که بررسی‌های مضاعف حقوقی هوش مصنوعی در خدمت انعکاس مناسب قانون هستند و نه از روی طراحی و نه تصادفاً به نوعی پیش‌فرض در قلمروی مورد احترام. قانون با کنار گذاشتن برون یابی احساسات، مطمئناً می توانیم موافق باشیم که یک نگرانی واقعی و مبرم وجود دارد که بررسی دوگانه حقوقی هوش مصنوعی ممکن است در نهایت ماهیت واقعی یک قانون مشخص را نادرست معرفی کند.

به نوبه خود، شما می توانید ادعا کنید که بنابراین آن قانون خاص «تعریف شده نادرست» اساساً از نو ساخته می شود زیرا دیگر به درستی به آنچه در قانون واقعی مورد نظر بود دلالت نمی کند. من مطمئن هستم که شما صادقانه می توانید ببینید که چگونه این یک ملاحظات ظریف اما گویا است. در هر مقطع زمانی، بررسی‌کننده حقوقی هوش مصنوعی می‌تواند به صورت مجازی با ایجاد یا باید بگوییم «توهم» قوانین جدید را صرفاً از طریق اینکه چگونه مؤلفه هوش مصنوعی قانون را همانطور که در اصل بیان شده یا در هوش مصنوعی تعبیر می‌کند (برای پوشش من) تفسیر می‌کند. از هوش مصنوعی به اصطلاح توهم، نگاه کنید به پیوند اینجا).

مراقبت در این مورد باید به شدت اعمال شود.

در مورد این موضوع، مطالعه تحقیقاتی فوق‌الذکر این تفکر موازی را از لحاظ تلاش برای جلوگیری از عبور از آن خط مقدس ارائه می‌کند: «هدف ما این نیست که هوش مصنوعی مشروعیت وضع قانون، ایجاد سابقه قانونی یا اجرای قانون را داشته باشد. در واقع، این رویکرد ما را تضعیف می‌کند (و ما باید تلاش زیادی برای جلوگیری از آن انجام دهیم). در عوض، بلندپروازانه‌ترین هدف کد اطلاع‌رسانی قانون، کدگذاری محاسباتی و تعمیم‌پذیری مفاهیم و استانداردهای قانونی موجود در عملکرد AI معتبر است.» (ibid).

  • تعادل ظریف بین هوش مصنوعی تجسم حقوقی قانون به عنوان قوانین در مقابل استانداردها

قوانین به هم ریخته است

تقریباً برای هر قانون در مورد کتابها، احتمالاً تفسیرهای زیادی در مورد آنچه قانون در عمل واقعی تصریح می کند وجود دارد. در اصطلاح در زمینه هوش مصنوعی، ما به قوانین به عنوان مبهم بودن معنایی اشاره می کنیم. این همان چیزی است که توسعه هوش مصنوعی را که در قانون اعمال می شود به چالشی هیجان انگیز و همزمان آزاردهنده تبدیل می کند. برخلاف آمار دقیقی که ممکن است برای برنامه‌های کاربردی هوش مصنوعی مبتنی بر مالی مشاهده کنید، میل به تجسم قوانین ما در هوش مصنوعی مستلزم برخورد با سونامی از ابهامات معنایی است.

در کتاب بنیادم درباره مبانی استدلال حقوقی هوش مصنوعی (AILR)، من بحث می‌کنم که چگونه تلاش‌های قبلی برای تدوین قوانین صرفاً در مجموعه‌ای از قوانین محدود، ما را تا آنجایی که می‌خواهیم در حوزه حقوقی پیش ببریم، نبرده است. پیوند اینجا). AILR امروزی باید شامل یکپارچگی بین استفاده از قوانین و آنچه می توان استانداردهای فراگیر نامید که قانون نشان می دهد.

این تعادل مهم را می‌توان به این شکل بیان کرد: «در عمل، بیشتر مقررات قانونی در طیفی بین قاعده محض و استاندارد ناب قرار می‌گیرند و نظریه حقوقی می‌تواند به تخمین ترکیب درست «قاعده بودن» و «استاندارد بودن» کمک کند. هنگام تعیین اهداف سیستم های هوش مصنوعی» (همان).

  • نیاز به اثبات پودینگ در مورد رعایت هوش مصنوعی از قانون

خواستن چیزی با داشتن چیزی متفاوت است.

این خرده خرد زمانی به دست می‌آید که اظهار می‌کنیم اگرچه ممکن است بخواهیم چک‌کننده‌های حقوقی هوش مصنوعی داشته باشیم، اما به وفور باید مطمئن شویم که آنها کار می‌کنند و به درستی کار می‌کنند. توجه داشته باشید که این یک مانع سخت و طاقت فرسا دیگر است. من قبلاً آخرین پیشرفت‌ها و چالش‌ها در تأیید و اعتبارسنجی هوش مصنوعی را پوشش داده‌ام، ببینید پیوند اینجا.

همانطور که در مقاله تحقیقاتی ذکر شده است: «برای رفع این شکاف، قبل از اینکه مدل‌های هوش مصنوعی در ظرفیت‌های فزاینده عاملی، به عنوان مثال، وسایل نقلیه کاملاً خودمختار در جاده‌های اصلی مستقر شوند، طرف مستقر باید درک سیستم از اهداف انسانی، سیاست‌ها و استانداردهای قانونی را نشان دهد. یک روش اعتبار سنجی می تواند «درک» هوش مصنوعی از «معنای» مفاهیم حقوقی را نشان دهد» (همان).

نتیجه

من از شما می‌خواهم که به من در این تلاش نجیب برای ساخت و ارائه چک‌کننده‌های قانونی هوش مصنوعی بپیوندید. ما به توجه و منابع بیشتری نیاز داریم که برای این کار با فضیلت اختصاص داده شود.

همانطور که قبلاً ذکر شد، این وظیفه مضاعف را برای دستیابی به استدلال حقوقی هوش مصنوعی (AILR) فراهم می کند که می تواند برای کمک به وکلا و به طور بالقوه به طور مستقیم توسط عموم استفاده شود. در واقع، برخی به شدت استدلال می‌کنند که تنها ابزار قابل دوام برای رسیدن به حس کامل‌تر دسترسی به عدالت (A2J) از طریق ایجاد هوش مصنوعی است که ظرفیت‌های قانونی را در بر می‌گیرد و همه می‌توانند به آن دسترسی داشته باشند.

یک نکته پایانی سریع در حال حاضر.

بحث تا کنون تاکید کرده است که AI Legal double-checker تعبیه شده یا در هوش مصنوعی تعبیه شده است. این در واقع تمرکز اصلی کسانی است که در حال تحقیق و انجام این قلمرو نوظهور هستند.

در اینجا یک سوال ارزش بررسی دارد.

کلاه فکری خود را بگذارید.

چرا از چک‌کننده‌های دوگانه AI Legal در همه نرم‌افزارها استفاده نمی‌کنید؟

اصل ماجرا این است که به جای استفاده انحصاری از بررسی دوگانه قانونی هوش مصنوعی در هوش مصنوعی، شاید باید دیدگاه خود را گسترش دهیم. انواع نرم افزارها می توانند از نظر قانونی به بیراهه بروند. مسلماً هوش مصنوعی به دلیل روش‌هایی که معمولاً از هوش مصنوعی استفاده می‌شود، مانند ارائه تصمیم‌های آزاردهنده‌ای که بر انسان‌ها در زندگی روزمره تأثیر می‌گذارد، بیشترین توجه را به خود جلب کرده است. اگرچه می‌توانید به راحتی بپذیرید که بسیاری از سیستم‌های غیر AI وجود دارند که همین کار را می‌کنند.

در اصل، ما نباید به هیچ نرم افزاری اجازه ندهیم که برای اجتناب از قانون یا جلوگیری از آن، امکان استفاده رایگان داشته باشد.

قبلاً به یاد بیاورید که من به دو دسته ترکیب هوش مصنوعی و قانون اشاره کردم. ما در اینجا بر استفاده از AI همانطور که در قانون اعمال می شود تمرکز کرده ایم. روی دیگر سکه اعمال قانون برای هوش مصنوعی است. فرض کنید ما قوانینی را وضع می کنیم که به استفاده از چک های دوگانه قانونی AI نیاز دارد.

این ممکن است در ابتدا به سیستم های هوش مصنوعی محدود شود، به ویژه آنهایی که به عنوان پرخطر رتبه بندی می شوند. به تدریج، همان الزام بررسی دوگانه قانونی AI می تواند به نرم افزارهای غیر AI نیز تعمیم یابد. باز هم، بدون سواری رایگان.

در حالی که شما به آن توجه بالا توجه می کنید، من به عنوان یک تیزر پایانی چیزها را ادویه می کنم. اگر می‌خواهیم به بررسی‌های دوگانه قانونی هوش مصنوعی نیاز داشته باشیم، ممکن است در مورد بررسی‌های دوگانه اخلاق هوش مصنوعی نیز همین کار را انجام دهیم. استفاده از چک کننده دوگانه AI Legal تنها نیمی از داستان است و ما نمی توانیم نگرانی های اخلاقی AI را نیز نادیده بگیریم یا فراموش کنیم.

من این گفتمان شادی آور را با یکی از نقل قول های مورد علاقه خود به پایان می برم. طبق سخنان حکیمانه ارل وارن، حقوقدان مشهوری که به عنوان رئیس دادگستری ایالات متحده خدمت می کرد: "در زندگی متمدن، قانون در دریایی از اخلاق شناور است."

اگر می‌خواهیم سرمان را بالاتر از دریاهای سنگین احتمالی در برابر هوش مصنوعی ترش و سیستم‌های غیر هوش مصنوعی که امنیت ما را به خطر می‌اندازند، از آن چک‌کننده‌های دوگانه قانونی هوش مصنوعی و اخلاقیات هوش مصنوعی به شدت استفاده کنیم. .

آنها ممکن است جلیقه نجات بشریت باشند.

منبع: https://www.forbes.com/sites/lanceeliot/2022/12/01/implanting-legal-reasoning-into-ai-could-smartly-attain-human-value-alignment-says-ai-ethics- و-آی-قانون/