در ستون امروز، من میخواهم تعداد بیشماری از موضوعات به ظاهر متفاوت مرتبط با هوش مصنوعی را در یک پارچه زیبا بافته کنم.
آیا شما آماده هستید؟
تصور کنید که از یک برنامه مجهز به هوش مصنوعی استفاده می کنید که در حین انجام یک نوع کار مهم به شما کمک می کند. شاید موضوع مالی باشد یا ممکن است به سلامتی مربوط باشد. ماهیت این است که شما به هوش مصنوعی وابسته هستید تا کار درست را انجام دهید و به روشی مطمئن و سالم انجام دهید.
فرض کنید هوش مصنوعی به قلمرو غیراخلاقی منحرف شود.
شاید متوجه نشوید که هوش مصنوعی این کار را انجام می دهد.
به عنوان مثال، هوش مصنوعی میتواند بر عوامل تبعیضآمیز بالقوه پنهان مانند نژاد یا جنسیت تکیه کند، اگرچه ممکن است هیچ وسیله قابل قبولی برای تشخیص استفاده نامطلوب نداشته باشید. در اینجا شما به تنهایی از طریق یک هوش مصنوعی که یا از همان ابتدا به روشی مشکل ساز ابداع شده است یا توانسته است به سمت خطرات اخلاقی مرزی و مضحک سوق پیدا کند (من در مورد آن بیشتر خواهم گفت این در یک لحظه).
در مورد هوش مصنوعی که تصمیم می گیرد مسیری غیراخلاقی را طی کند، چه کاری می توانید انجام دهید یا چه کاری می توانید انجام دهید؟
علاوه بر تلاش برای ساختن هوش مصنوعی از قبل به گونه ای که این نوع اقدامات موذیانه را انجام ندهد، قبلاً نیز به تفصیل توضیح داده ام که علاقه فزاینده ای برای جاسازی یک بررسی اخلاق هوش مصنوعی جزء در باتلاق رو به رشد غرب وحشی در غیر این صورت سیستم های هوش مصنوعی هر چیزی می رود که به بازار پرتاب می شوند. ایده این است که برای جلوگیری از یک برنامه مبتنی بر هوش مصنوعی از خارج شدن از ابعاد اخلاقی، میتوانیم از هوش مصنوعی اضافی برای بررسی و تعادل استفاده کنیم. این هوش مصنوعی افزوده شده ممکن است خارج از برنامه هدفمند هوش مصنوعی باشد یا می تواند جزئی باشد که مستقیماً در هوش مصنوعی تعبیه شده یا کاشته شده است که می خواهیم آن را مجدداً بررسی کنیم.
همانطور که قبلاً گفته ام، ببینید پیوند اینجا: «روندی که اخیراً در حال ظهور است شامل تلاش برای ایجاد حفاظهای اخلاقی در هوش مصنوعی است که وقتی بقیه سیستم هوش مصنوعی شروع به فراتر رفتن از مرزهای اخلاقی از پیش تعیینشده میکنند، جذب خواهد شد. به یک معنا، هدف این است که از خود هوش مصنوعی استفاده کنیم تا خود را از انحراف اخلاقی دور نگه داریم. میتوانید بگویید که هدف ما این است که هوش مصنوعی خودش را التیام بخشد» (لنس الیوت، «ساخت هوش مصنوعی اخلاقی که هوش مصنوعی غیراخلاقی را رصد میکند و سعی میکند هوش مصنوعی بد را از عمل کردن بازدارد،» فوربس، 28 مارس 2022).
همچنین ممکن است کتاب من در مورد آن مورد علاقه شما باشد ربات های نگهبان هوش مصنوعی، که گاهی به عنوان فرشتگان نگهبان نامیده می شود، که زیربنای فنی این چک کننده های دوگانه تعبیه شده با هوش مصنوعی پیشرفته را پوشش می دهد. پیوند اینجا.
نکته اصلی این است که خوشبختانه بیکن شما ممکن است با استفاده از یک عنصر تعبیهشده برای بررسی دوبار اخلاقیات هوش مصنوعی که ابداع شده و در یک برنامه هوش مصنوعی که شما استفاده میکنید، ذخیره شود. اما آیا این یک نگهبان کافی خواهد بود تا واقعاً مطمئن شود که هوش مصنوعی شما را کاملاً سفت و سخت نمی کند و حتی در زمینه های مضر هشری جرأت نمی کند؟
ببینید، برنامه هوش مصنوعی می تواند ظاهراً عملکرد خوبی داشته باشد غیر قانونی عمل می کند
این یک چیز است که هوش مصنوعی داشته باشیم که به یک منطقه خاکستری از آنچه ما رفتارهای اخلاقی یا غیراخلاقی می دانیم وارد می شود. یک رفتار به همان اندازه نگرانکننده و احتمالاً بدتر شدن نگرانی مستلزم هوش مصنوعی است که فقط از کوسه میپرد و به تاریکی نامرغوب اعمال غیرقانونی آشکار فرو میرود.
هوش مصنوعی غیرقانونی بد است. اجازه دادن به هوش مصنوعی غیرقانونی بدون مراقبت، بد است. برخی از محققان حقوقی آشکارا نگران هستند که ظهور و فراگیر شدن هوش مصنوعی به تدریج و به طرز وحشتناکی ظاهر ما را از هوش مصنوعی تضعیف کند. حاکمیت قانون، تحلیل من را در پیوند اینجا.
یک لحظه صبر کنید، شاید بگویید.
ممکن است وسوسه شوید که فکر کنید توسعه دهندگان هوش مصنوعی این کار را می کنند هرگز هوش مصنوعی خود را طوری برنامه ریزی کنید که خلاف قانون عمل کند. غیر قابل تصور. فقط شرورهای شرور این کار را انجام می دهند (که به هر حال، به خاطر داشته باشید که کسانی هستند که عمداً از هوش مصنوعی برای اهداف شیطانی ابداع و استفاده می کنند، منطقه ای رو به رشد برای مجرمان و سایرین که مایل به استفاده از هوش مصنوعی برای فعالیت های شرور هستند).
متأسفیم، اما این تصور واهی است که فرض کنیم همه توسعه دهندگان هوش مصنوعی غیر شرور باید کاملاً مطمئن شوند که هوش مصنوعی آنها کاملاً قانونمند است. ممکن است هوش مصنوعی خود تنظیم شود و به سمت فعالیت غیرقانونی سرگردان شود. البته، این پتانسیل نیز وجود دارد که توسعهدهندگان هوش مصنوعی یا میخواستند که هوش مصنوعی به صورت غیرقانونی عمل کند یا از اینکه در هنگام ساخت هوش مصنوعی از چه چیزی غیرقانونی در مقابل اعمال قانونی است آگاه نبودند (بله، این کاملاً ممکن است، یعنی اینکه تیم هوش مصنوعی تمام فنآوری سردرگم میتواند نسبت به توهینهای قانونی هوش مصنوعی خود بیاطلاع باشد، که قابل توجیه نیست و در عین حال با فرکانس هشداردهندهای اتفاق میافتد.
در این باره چه میتوان کرد؟
یک بار دیگر، علاوه بر تلاش برای اطمینان از اینکه AI خارج از دروازه آهنی و قانونی است، یک رویکرد اضافی برای به دست آوردن بخار شامل تعبیه یا کاشت یک جزء هوش مصنوعی است که برای بقیه برنامه هوش مصنوعی بررسی مضاعف قانونی انجام می دهد. این هوش مصنوعی افزوده شده که آرام و اغلب بی خبر می نشیند، بقیه هوش مصنوعی را رصد می کند تا تشخیص دهد که آیا هوش مصنوعی قرار است سرکشی کند یا حداقل از محدودیت های اعمال شده قانونی یا نظارتی عبور کند.
ما اکنون دو نوع بررسی دوبار هوش مصنوعی داریم که به طور بالقوه در یک برنامه هوش مصنوعی تعبیه شده است:
- بررسی دوبار اخلاق هوش مصنوعی: در زمان واقعی، این مؤلفه یا افزودنی هوش مصنوعی بقیه هوش مصنوعی را از نظر رفتارهای اخلاقی و غیراخلاقی که هوش مصنوعی نشان می دهد ارزیابی می کند.
- بررسی دوگانه حقوقی هوش مصنوعی: در زمان واقعی، این مؤلفه یا افزودنی هوش مصنوعی بقیه هوش مصنوعی را برای اطمینان از ماندن در چارچوب های قانونی و برای شناسایی فعالیت های غیرقانونی در حال ظهور توسط هوش مصنوعی ارزیابی می کند.
برای روشن شدن، اینها مفاهیم نسبتاً جدیدی هستند و به این ترتیب هوش مصنوعی که امروز استفاده می کنید ممکن است در هر یک از این شرایط فعلی باشد:
- هوش مصنوعی که اصلاً چککنندههای دوگانه ندارد
- هوش مصنوعی که دارای چککننده دوگانه اخلاق هوش مصنوعی است اما چککنندههای دوگانه دیگری ندارد
- هوش مصنوعی که دارای چککننده دوگانه قانونی هوش مصنوعی است، اما چککنندههای دوگانه دیگری ندارد
- هوش مصنوعی که هم دارای دوبررسی کننده اخلاق هوش مصنوعی و هم چک کننده دوگانه AI Legal است
- دیگر
برخی از جنبههای بسیار دشوار وجود دارد که هر دو بررسی دوگانه اخلاق هوش مصنوعی و بررسی دوگانه قانونی هوش مصنوعی در یک برنامه هوش مصنوعی به عنوان برادر و خواهر فامیل در کنار هم کار میکنند. این نوعی از دوگانگی است که میتواند سختتر از آنچه تصور میکنید هماهنگ شود (من فکر میکنم همه ما میدانیم که برادران و خواهران میتوانند محکمترین پیوندها را داشته باشند، اگرچه میتوانند مانند دیکنزها گهگاهی با هم بجنگند و شدیداً مخالفت کنند. دیدگاه ها).
من به طور طولانی در مورد این نوع سخت صحبت کرده ام دوگانگی: "یک دوگانگی نادیده گرفته شده در هوش مصنوعی برای خیر اجتماعی رخ می دهد که شامل فقدان نقش عاملیت اخلاقی مصنوعی و استدلال قانونی مصنوعی در سیستم های هوش مصنوعی پیشرفته است. تلاشهای محققان هوش مصنوعی و توسعهدهندگان هوش مصنوعی بر چگونگی ساخت و تعبیه عوامل اخلاقی مصنوعی برای هدایت تصمیمگیری اخلاقی زمانی که یک سیستم هوش مصنوعی در این زمینه فعالیت میکند تمرکز کرده است، اما همچنین بر روی و استفاده از قابلیتهای استدلال قانونی مصنوعی تمرکز نکرده است. که به همان اندازه برای نتایج قوی اخلاقی و قانونی ضروری است» (لنس الیوت، «دوگانگی نادیده گرفته شده آژانس اخلاقی مصنوعی و استدلال قانونی مصنوعی در هوش مصنوعی برای خیر اجتماعی»، کنفرانس سالانه CRCS دانشگاه هاروارد، 2020، مرکز تحقیقات و محاسبات هاروارد)
اگر میخواهید در مورد اینکه چرا ممکن است بین یک چککننده دوگانه اخلاق هوش مصنوعی و یک چککننده دوگانه حقوقی هوش مصنوعی تنش وجود داشته باشد، فکر کنید، ممکن است این نقل قول قابل توجه از ارزش مفهومی خمکننده را بیابید: «قانون ممکن است اعمال خاصی را مجاز کند. هر چند آن عمل غیراخلاقی باشد; و قانون ممکن است یک عمل را ممنوع کند، حتی اگر آن عمل از نظر اخلاقی مجاز یا حتی اخلاقاً لازم باشد.» (شلی کاگان، حدود اخلاق، 1998).
بیایید کمی تمرکز خود را تغییر دهیم و ببینیم که چگونه این چکرزهای دوگانه به یک موضوع بسیار دقیق هوش مصنوعی دیگر، یعنی هوش مصنوعی مسئول یا یک ملاحظه هماهنگ از همسویی ارزش های انسانی و هوش مصنوعی.
تصور کلی این است که ما هوش مصنوعی می خواهیم که از ارزش های انسانی مناسب و مطلوب پیروی کند. برخی به این عنوان اشاره می کنند هوش مصنوعی مسئول. دیگران به همین ترتیب بحث می کنند هوش مصنوعی پاسخگو, هوش مصنوعی قابل اعتمادو تراز هوش مصنوعی، که همه آنها به یک اصل اساسی اشاره دارند. برای بحث من در مورد این مسائل مهم، نگاه کنید به پیوند اینجا و پیوند اینجا، فقط به نام چند.
چگونه می توانیم هوش مصنوعی را با ارزش های انسانی هماهنگ کنیم؟
همانطور که قبلاً پیشنهاد شد، امیدواریم توسعهدهندگان هوش مصنوعی از توسعه هوش مصنوعی آگاه باشند که به هوش مصنوعی پایبند باشد. متأسفانه، طبق دلایلی که قبلاً توضیح داده شد، آنها ممکن است نباشند. علاوه بر این، آنها ممکن است سعی کنند این کار را انجام دهند، اما با این وجود هوش مصنوعی در نهایت به خود تنظیمی فراتر از قلمرو برجسته رفتارهای اخلاقی یا احتمالاً به آب های غیرقانونی می رسد.
بسیار خوب، پس باید چکرزهای دوتایی شیک و کاربردی خود را به عنوان وسیله ای برای حمایت از این خطرات و قرار گرفتن در معرض در نظر بگیریم. استفاده از یک چککننده دوگانه اخلاق هوش مصنوعی میتواند به همسو کردن هوش مصنوعی با ارزشهای انسانی کمک کند. به طور مشابه، استفاده از یک بررسی دوگانه قانونی هوش مصنوعی می تواند به طور اساسی به همسویی هوش مصنوعی با ارزش های انسانی کمک کند.
بنابراین، یک ابزار حیاتی و هنوز شناخته نشده برای دستیابی به هوش مصنوعی مسئول، هوش مصنوعی قابل اعتماد، هوش مصنوعی پاسخگو، همسویی هوش مصنوعی و غیره، شامل استفاده از چککنندههای دوگانه هوش مصنوعی مانند چککننده دوگانه اخلاق هوش مصنوعی و یک چککننده دوگانه قانونی هوش مصنوعی که بهطور خستگیناپذیر به عنوان یک بررسی مضاعف روی هوش مصنوعی که در آن تعبیه شده است، کار میکند.
در این بحث، میخواهم جزئیات بیشتری در مورد ماهیت و ساختارهای چککنندههای دوگانه قانونی هوش مصنوعی که ممکن است در هوش مصنوعی تعبیه شده باشند را توضیح دهم. برای انجام این کار، ممکن است مفید باشد که پیشینه دیگری در مورد موضوع کلی با شما به اشتراک بگذاریم هوش مصنوعی و قانون.
برای بررسی بیمعنای چگونگی آمیختگی هوش مصنوعی و قانون با یکدیگر، به بحث من در اینجا مراجعه کنید. پیوند اینجا. در نگاه دقیق من به هوش مصنوعی و قانون در کنار هم، من این مفهوم ساده را از دو راه اصلی برای ارتباط متقابل هوش مصنوعی و قانون ارائه میدهم:
- (1) قانون اعمال شده در AI: تدوین، تصویب و اجرای قوانینی که در مورد تنظیم یا حاکمیت هوش مصنوعی در جامعه ما اعمال می شود.
- (2) هوش مصنوعی کاربردی در قانون: فناوری هوش مصنوعی ابداع شده و در قانون اعمال شده است، از جمله استدلال حقوقی مبتنی بر هوش مصنوعی (AILR) که به برنامههای فناوری پیشرفته LegalTech تزریق شده است تا وظایف وکالت را بهطور مستقل یا نیمه مستقل انجام دهد.
اولین دیدگاه فهرست شده شامل در نظر گرفتن این است که چگونه قوانین موجود و جدید بر هوش مصنوعی حاکم است. دیدگاه دوم فهرست شده مربوط به اعمال هوش مصنوعی در قانون است.
این دسته اخیر معمولاً شامل استفاده از استدلال حقوقی مبتنی بر هوش مصنوعی (AILR) در ابزارهای آنلاین مختلف است که توسط وکلا استفاده می شود. به عنوان مثال، هوش مصنوعی ممکن است بخشی از بسته مدیریت چرخه عمر قرارداد (CLM) باشد که با شناسایی زبان قراردادی که برای تهیه پیشنویس قراردادهای جدید مفید است یا ممکن است قراردادهایی را شناسایی کند که از نظر قانونی دارای زبانی است که امکان بروز حوادث ناگوار یا خلأهای قانونی را فراهم میکند، به وکلا کمک میکند. (برای نگاه من به به اصطلاح «بوی قانون» که با هوش مصنوعی قابل تشخیص است، نگاه کنید پیوند اینجا).
ما ناگزیر خواهیم بود که هوش مصنوعی را برای قانونی اعمال کنیم که برای استفاده عموم در دسترس است و نیازی به حضور وکیل نیست. در حال حاضر، در نتیجه محدودیتهای مختلف، از جمله UPL (قانون عملی غیرمجاز)، در دسترس قرار دادن برنامههای مشاوره حقوقی مبتنی بر هوش مصنوعی موضوعی پیچیده و بحثبرانگیز است، بحث من را در اینجا ببینید. پیوند اینجا.
من این مقدمه در مورد هوش مصنوعی و قانون را مطرح کردم تا به این نکته اشاره کنم که یکی دیگر از استفاده های ابزاری از هوش مصنوعی که در قانون اعمال می شود، ایجاد بررسی های دوگانه قانونی هوش مصنوعی است.
بله، همان نوع مهارت فناورانه ای که در اعمال هوش مصنوعی در قانون وجود دارد، می تواند با استفاده از هوش مصنوعی به عنوان یک چک کننده قانونی هوش مصنوعی تعبیه شده یا کاشته شده، به عنوان یک وظیفه مضاعف عمل کند. چککننده دوگانه حقوقی هوش مصنوعی مؤلفهای است که باید به جنبههای قانونی اشراف داشته باشد. هنگامی که بقیه برنامه هوش مصنوعی در حال انجام اقدامات مختلف هستند، بررسیکننده حقوقی هوش مصنوعی میسنجید که آیا برنامه هوش مصنوعی این کار را قانونی و در چارچوب محدودیتهای قانونی انجام میدهد یا خیر.
یک مؤلفه بررسی دوگانه قانونی هوش مصنوعی لزوماً نیازی به پوشش کامل همه چیزهایی که در مورد قانون وجود دارد را ندارد. بسته به ماهیت برنامه هوش مصنوعی در مورد هدف و اقدامات کلی هوش مصنوعی، بررسی مضاعف حقوقی هوش مصنوعی می تواند از نظر تخصص حقوقی بسیار محدودتر باشد.
من یک چارچوب مفید برای نشان دادن اینکه چگونه هوش مصنوعی در حوزه قانونی در یک سری ظرفیتهای خودمختار، شناخته شده به عنوان سطوح خودمختاری (LoA) است، شناسایی کردهام. برای بررسی کلی به من مراجعه کنید فوربس پست ستونی در 21 نوامبر 2022، "پرونده قانع کننده جامع و بی معنی برای اینکه چرا وکلا باید درباره هوش مصنوعی و قانون بدانند" در پیوند اینجاو برای یک تصویر فنی دقیق به مقاله تحقیقاتی عمیق من در مقاله مراجعه کنید مجله حقوق محاسباتی MIT در 7 دسامبر 2021، نگاه کنید به پیوند اینجا.
این چارچوب پنج سطح هوش مصنوعی را که در تلاشهای قانونی استفاده میشود، روشن میکند:
- سطح 0: بدون اتوماسیون برای کارهای حقوقی مبتنی بر هوش مصنوعی
- سطح 1: اتوماسیون کمک ساده برای کارهای حقوقی مبتنی بر هوش مصنوعی
- سطح 2: خودکارسازی کمک پیشرفته برای کارهای حقوقی مبتنی بر هوش مصنوعی
- سطح 3: اتوماسیون نیمه مستقل برای کارهای حقوقی مبتنی بر هوش مصنوعی
- سطح 4: دامنه مستقل برای کارهای حقوقی مبتنی بر هوش مصنوعی
- سطح 5: کاملاً مستقل برای کارهای حقوقی مبتنی بر هوش مصنوعی
من در اینجا به طور مختصر آنها را شرح می دهم.
سطح 0 سطح بدون اتوماسیون در نظر گرفته می شود. استدلال حقوقی و وظایف قانونی از طریق روشهای دستی انجام میشود و عمدتاً از طریق رویکردهای مبتنی بر کاغذ انجام میشود.
سطح 1 شامل اتوماسیون کمک ساده برای استدلال قانونی هوش مصنوعی است. نمونه هایی از این دسته عبارتند از: استفاده از پردازش کلمات روزمره مبتنی بر رایانه، استفاده از صفحات گسترده رایانه ای روزمره، دسترسی به اسناد قانونی آنلاین که به صورت الکترونیکی ذخیره و بازیابی می شوند و غیره.
سطح 2 شامل اتوماسیون کمک پیشرفته برای استدلال قانونی هوش مصنوعی است. نمونههایی از این دسته عبارتند از استفاده از پردازش زبان طبیعی ابتدایی به سبک پرس و جو (NLP)، عناصر سادهسازی یادگیری ماشین (ML)، ابزارهای تحلیل آماری برای پیشبینی موارد قانونی و غیره.
سطح 3 شامل اتوماسیون نیمه مستقل برای استدلال قانونی هوش مصنوعی است. نمونههایی از این دسته عبارتند از استفاده از سیستمهای مبتنی بر دانش پیشرفته (KBS) برای استدلال قانونی، استفاده از یادگیری ماشینی و یادگیری عمیق (ML/DL) برای استدلال قانونی، NLP پیشرفته و غیره.
سطح 4 شامل سیستمهای مبتنی بر کامپیوتر مستقل دامنه برای استدلال قانونی هوش مصنوعی است. این سطح از مفهوم مفهومی دامنههای طراحی عملیاتی (ODD) استفاده مجدد میکند، همانطور که برای خودروهای خودران استفاده میشود، اما در حوزه قانونی اعمال میشود. حوزههای حقوقی ممکن است بر اساس حوزههای کاربردی، مانند قانون خانواده، قانون املاک، قانون ورشکستگی، قانون محیط زیست، قانون مالیات و غیره طبقهبندی شوند.
سطح 5 شامل سیستم های کاملاً مستقل مبتنی بر رایانه برای استدلال قانونی هوش مصنوعی است. به یک معنا، سطح 5 ابرمجموعه سطح 4 از نظر دربرگرفتن تمام حوزه های قانونی ممکن است. لطفا توجه داشته باشید که این یک سفارش بسیار بلند است.
هنگام بحث در مورد خودروهای خودران و وسایل نقلیه خودران، می توانید این سطوح خودمختاری را همتراز با کاربردهای مشابه تصور کنید (همچنین بر اساس استاندارد رسمی SAE، به پوشش من در پیوند اینجا). ما هنوز خودروهای خودران سطح 5 SAE نداریم. ما در حال ورود به خودروهای خودران سطح 4 SAE هستیم. بیشتر خودروهای معمولی در سطح 2 SAE هستند، در حالی که برخی از خودروهای جدیدتر به سمت سطح 3 SAE حرکت می کنند.
در حوزه حقوقی، ما هنوز AILR سطح 5 نداریم. ما در حال لمس برخی از سطح 4 هستیم، هرچند در ODD های بسیار باریک. سطح 3 شروع به دیدن نور روز می کند، در حالی که تکیه گاه اصلی AILR امروز در درجه اول در سطح 2 است.
یک مقاله تحقیقاتی اخیر در مورد هوش مصنوعی که در قانون اعمال میشود، نوعی گونهسازی را مطرح کرده است که به عنوان شناخته میشود قانون اطلاع رسانی کد. این محقق بیان می کند: «یکی از اهداف اولیه قانون اطلاع رسانی کد دستور کار این است که هوش مصنوعی را آموزش دهیم تا از روح قانون پیروی کند.» (جان جی. نای، «قانون از کد: رویکرد انفورماتیک حقوقی برای همسویی هوش مصنوعی با انسان»، مجله فناوری و مالکیت فکری شمال غربی، جلد 20، در دست انتشار). برخی ملاحظات اساسی وجود دارد که قانون اطلاع رسانی کد مانترا مطرح می شود و من شما را از طریق چندین مورد از آن دستورات کلیدی راهنمایی می کنم.
قبل از پرداختن به موضوع، ابتدا میخواهم پایههای اساسی را در مورد هوش مصنوعی و بهویژه اخلاق هوش مصنوعی و قانون هوش مصنوعی ایجاد کنم تا مطمئن شویم که بحث از نظر زمینهای معقول خواهد بود.
افزایش آگاهی از هوش مصنوعی اخلاقی و همچنین قانون هوش مصنوعی
دوره اخیر هوش مصنوعی در ابتدا به عنوان یک موجود تلقی می شد هوش مصنوعی برای خوب، به این معنی که ما می توانیم از هوش مصنوعی برای بهبود بشریت استفاده کنیم. روی پاشنه های هوش مصنوعی برای خوب متوجه شدیم که ما نیز در آن غوطه ور هستیم هوش مصنوعی برای بد. این شامل هوش مصنوعی میشود که ابداع شده یا خود تغییر داده و تبعیضآمیز است و انتخابهای محاسباتی را با تعصبات ناروا آغشته میکند. گاهی اوقات هوش مصنوعی به این شکل ساخته می شود، در حالی که در موارد دیگر به آن قلمرو نامطلوب منحرف می شود.
من میخواهم کاملاً مطمئن شوم که ما در مورد ماهیت هوش مصنوعی امروزی همسو هستیم.
امروزه هیچ هوش مصنوعی وجود ندارد که حساس باشد. ما این را نداریم ما نمی دانیم که آیا هوش مصنوعی ممکن خواهد بود یا خیر. هیچ کس نمی تواند به درستی پیش بینی کند که آیا ما به هوش مصنوعی خواهیم رسید یا خیر، یا اینکه آیا هوش مصنوعی به طور معجزه آسایی به شکلی از ابرنواختر شناختی محاسباتی پدید خواهد آمد (که معمولاً به عنوان تکینگی شناخته می شود، پوشش من را در اینجا ببینید. پیوند اینجا).
نوع هوش مصنوعی که من روی آن تمرکز می کنم شامل هوش مصنوعی غیر حساسی است که امروز داریم. اگر بخواهیم در مورد هوش مصنوعی حساس حدس و گمان بزنیم، این بحث می تواند در جهتی کاملاً متفاوت پیش رود. ظاهراً یک هوش مصنوعی با کیفیت انسانی خواهد بود. شما باید در نظر داشته باشید که هوش مصنوعی حسی معادل شناختی یک انسان است. علاوه بر این، از آنجایی که برخی حدس می زنند که ممکن است هوش مصنوعی فوق هوشمند داشته باشیم، می توان تصور کرد که چنین هوش مصنوعی می تواند در نهایت از انسان ها باهوش تر باشد (برای کاوش من در مورد هوش مصنوعی فوق هوشمند به عنوان یک امکان، نگاه کنید به پوشش در اینجا).
من قویاً پیشنهاد میکنم که همه چیز را ثابت نگه داریم و هوش مصنوعی محاسباتی غیر حساس امروزی را در نظر بگیریم.
درک کنید که هوش مصنوعی امروزی قادر به «فکر کردن» به هیچ شکلی با تفکر انسان نیست. وقتی با الکسا یا سیری تعامل می کنید، ظرفیت های مکالمه ممکن است شبیه ظرفیت های انسانی به نظر برسد، اما واقعیت این است که محاسباتی است و فاقد شناخت انسانی است. آخرین دوره هوش مصنوعی از یادگیری ماشینی (ML) و یادگیری عمیق (DL) استفاده گسترده ای کرده است که از تطابق الگوی محاسباتی استفاده می کند. این منجر به سیستمهای هوش مصنوعی شده است که ظاهری شبیه به تمایلات انسان دارند. در همین حال، هیچ هوش مصنوعی امروزی وجود ندارد که شباهتی به عقل سلیم داشته باشد و هیچ یک از شگفتیهای شناختی تفکر قوی انسانی را نداشته باشد.
بسیار مراقب انسان سازی هوش مصنوعی امروزی باشید.
ML/DL نوعی تطبیق الگوی محاسباتی است. روش معمول این است که شما داده ها را در مورد یک کار تصمیم گیری جمع آوری می کنید. داده ها را به مدل های کامپیوتری ML/DL وارد می کنید. آن مدل ها به دنبال یافتن الگوهای ریاضی هستند. پس از یافتن چنین الگوهایی، در صورت یافتن، سیستم هوش مصنوعی در هنگام مواجهه با داده های جدید از آن الگوها استفاده خواهد کرد. پس از ارائه داده های جدید، الگوهای مبتنی بر داده های "قدیمی" یا تاریخی برای ارائه یک تصمیم فعلی استفاده می شود.
من فکر می کنم می توانید حدس بزنید که این به کجا می رود. اگر انسانهایی که بر اساس تصمیمگیریهای الگو گرفته شدهاند، سوگیریهای نامطلوب را در خود جای دادهاند، احتمال این وجود دارد که دادهها این را به روشهای ظریف اما قابل توجهی منعکس کنند. تطبیق الگوی محاسباتی یادگیری ماشینی یا یادگیری عمیق به سادگی سعی میکند تا دادهها را مطابق با ریاضی تقلید کند. هیچ شباهتی از عقل سلیم یا سایر جنبه های حساس مدل سازی ساخته شده با هوش مصنوعی به خودی خود وجود ندارد.
علاوه بر این، توسعه دهندگان هوش مصنوعی نیز ممکن است متوجه نباشند که چه اتفاقی در حال رخ دادن است. ریاضیات محرمانه در ML/DL ممکن است کشف سوگیری های پنهان در حال حاضر را دشوار کند. شما به حق امیدوارید و انتظار دارید که توسعه دهندگان هوش مصنوعی سوگیری های بالقوه مدفون را آزمایش کنند، اگرچه این مشکل تر از آن چیزی است که به نظر می رسد. یک شانس قوی وجود دارد که حتی با آزمایش نسبتاً گسترده، سوگیریهایی همچنان در مدلهای تطبیق الگوی ML/DL وجود داشته باشد.
میتوانید تا حدودی از ضربالمثل معروف یا بدنام زبالههای درون زبالهها استفاده کنید. مسئله این است که این بیشتر شبیه سوگیریهایی است که بهطور موذیانه بهعنوان سوگیریهایی که در هوش مصنوعی غوطهور میشوند، القا میشوند. الگوریتم تصمیمگیری (ADM) هوش مصنوعی به طور اصولی مملو از نابرابریها میشود.
خوب نیست.
همه اینها پیامدهای قابل توجهی از اخلاق هوش مصنوعی دارند و دریچه ای مفید به درس های آموخته شده (حتی قبل از اینکه همه درس ها اتفاق بیفتند) هنگام تلاش برای قانون گذاری هوش مصنوعی ارائه می دهد.
علاوه بر به کارگیری اصول اخلاقی هوش مصنوعی به طور کلی، یک سوال مربوط به این موضوع وجود دارد که آیا ما باید قوانینی برای کنترل کاربردهای مختلف هوش مصنوعی داشته باشیم. قوانین جدیدی در سطوح فدرال، ایالتی و محلی وضع می شود که به محدوده و ماهیت چگونگی ابداع هوش مصنوعی مربوط می شود. تلاش برای تدوین و تصویب چنین قوانینی تدریجی است. اخلاق هوش مصنوعی حداقل به عنوان یک توقف در نظر گرفته شده عمل می کند و تقریباً مطمئناً تا حدی مستقیماً در آن قوانین جدید گنجانده می شود.
توجه داشته باشید که برخی قاطعانه استدلال می کنند که ما به قوانین جدیدی که هوش مصنوعی را پوشش می دهد نیازی نداریم و قوانین موجود ما کافی است. آنها پیشبینی میکنند که اگر برخی از این قوانین هوش مصنوعی را به اجرا بگذاریم، با مهار پیشرفتهای هوش مصنوعی که مزایای اجتماعی عظیمی را ارائه میدهد، غاز طلایی را خواهیم کشت.
در ستونهای قبلی، من تلاشهای ملی و بینالمللی مختلف برای ایجاد و وضع قوانین مربوط به هوش مصنوعی را پوشش دادهام. پیوند اینجا، مثلا. من همچنین اصول و رهنمودهای مختلف اخلاق هوش مصنوعی را که کشورهای مختلف شناسایی و پذیرفته اند پوشش داده ام، از جمله تلاش سازمان ملل متحد مانند مجموعه اخلاق هوش مصنوعی یونسکو که نزدیک به 200 کشور آن را پذیرفته اند. پیوند اینجا.
در اینجا یک لیست کلیدی مفید از معیارها یا ویژگی های هوش مصنوعی اخلاقی در رابطه با سیستم های هوش مصنوعی است که قبلاً از نزدیک بررسی کرده ام:
- شفافیت
- عدالت و انصاف
- عدم سوء استفاده
- مسئوليت
- حریم خصوصی
- سود رسانی
- آزادی و خودمختاری
- اعتماد
- پایداری
- کرامت
- اتحاد
این اصول اخلاقی هوش مصنوعی قرار است با جدیت توسط توسعه دهندگان هوش مصنوعی، همراه با آنهایی که تلاش های توسعه هوش مصنوعی را مدیریت می کنند، و حتی آنهایی که در نهایت سیستم های هوش مصنوعی را انجام می دهند، مورد استفاده قرار گیرد.
همه ذینفعان در طول چرخه عمر توسعه و استفاده هوش مصنوعی در محدوده رعایت هنجارهای تثبیت شده هوش مصنوعی اخلاقی در نظر گرفته می شوند. این نکته مهمی است زیرا فرض معمول این است که «فقط کدنویسها» یا کسانی که هوش مصنوعی را برنامهریزی میکنند، مشمول رعایت مفاهیم اخلاق هوش مصنوعی هستند. همانطور که قبلاً در اینجا تأکید شد، برای ابداع و بکارگیری هوش مصنوعی به یک روستا نیاز است، و برای آن کل دهکده باید به اصول اخلاقی هوش مصنوعی آشنا باشد و از آن پیروی کند.
من هم اخیرا بررسی کردم منشور حقوق هوش مصنوعی که عنوان رسمی سند رسمی دولت ایالات متحده با عنوان "طرح اولیه منشور حقوق هوش مصنوعی: ساخت سیستم های خودکار برای مردم آمریکا کار می کند" است که نتیجه تلاش یک ساله دفتر سیاست علم و فناوری (OSTP) است. ). OSTP یک نهاد فدرال است که به رئیس جمهور آمریکا و دفتر اجرایی ایالات متحده در مورد جنبه های مختلف فنی، علمی و مهندسی با اهمیت ملی مشاوره می دهد. از این نظر، می توان گفت که این منشور حقوق هوش مصنوعی، سندی است که توسط کاخ سفید موجود ایالات متحده تایید شده است.
در منشور حقوق هوش مصنوعی، پنج دسته اصلی وجود دارد:
- سیستم های ایمن و موثر
- حفاظت از تبعیض الگوریتمی
- حریم خصوصی داده ها
- تذکر و توضیح
- جایگزین های انسانی، توجه، و بازگشت
من آن احکام را به دقت بررسی کرده ام، ببینید پیوند اینجا.
اکنون که من پایه مفیدی را روی این موضوعات مرتبط با اخلاق هوش مصنوعی و قانون هوش مصنوعی گذاشتهام، آمادهایم تا به موضوع پر سر و صدا بررسیهای دوگانه قانونی هوش مصنوعی و قلمرو AI بپردازیم. قانون اطلاع رسانی کد.
بررسیکنندههای دوگانه قانونی هوش مصنوعی برای همسویی ارزش انسانی در هوش مصنوعی تعبیه شده است
من گاهی به آن اشاره می کنم AI Legal Double-Checkers از طریق مخفف AI-LDC. این برای کسانی که با مخفف آن آشنایی ندارند کمی آزاردهنده است. به این ترتیب، من از این مخفف خاص در این بحث استفاده نمیکنم، اما میخواهم آن را به عنوان سرآغاز برای شما ذکر کنم.
برای بازگشایی برخی از پیچیدگیهای چککنندههای حقوقی هوش مصنوعی، اجازه دهید به این نکات اصلی بپردازیم:
- استفاده از چککنندههای دوگانه حقوقی هوش مصنوعی به عنوان مکانیزم همسویی ارزشهای هوش مصنوعی
- هوش مصنوعی گستردهتر به همین ترتیب به بررسیهای دوگانه قانونی هوش مصنوعی قویتری نیاز دارد
- چککنندههای حقوقی هوش مصنوعی قانون را وضع میکنند و به ویژه قانون وضع نمیکنند (احتمالاً)
- تعادل ظریف بین هوش مصنوعی تجسم حقوقی قانون به عنوان قوانین در مقابل استانداردها
- نیاز به اثبات پودینگ در مورد رعایت هوش مصنوعی از قانون
به دلیل محدودیت فضا، فعلاً فقط آن پنج نکته را پوشش میدهم، اگرچه لطفاً برای پوشش بیشتر در ستون من که ملاحظات اضافی و به همان اندازه قابل توجه در مورد این موضوعات به سرعت در حال تحول و رو به جلو را پوشش میدهد، مراقب باشید.
همین حالا، کمربند ایمنی خود را ببندید و برای یک سفر نیروبخش آماده شوید.
- استفاده از چککنندههای دوگانه حقوقی هوش مصنوعی به عنوان مکانیزم همسویی ارزشهای هوش مصنوعی
راه های متعددی برای تلاش برای دستیابی به همسویی هماهنگ بین هوش مصنوعی و ارزش های انسانی وجود دارد.
همانطور که قبلا ذکر شد، ما میتوانیم قوانین اخلاقی هوش مصنوعی را تولید و منتشر کنیم و به دنبال این باشیم که توسعهدهندگان هوش مصنوعی و کسانی که هوش مصنوعی را در اختیار دارند و کار میکنند تا از این اصول پیروی کنند. متأسفانه، این به تنهایی کار را انجام نمی دهد. شما طراحانی دارید که به ناچار پیام را دریافت نمی کنند. شما افراد متخلفی دارید که هوش مصنوعی اخلاقی را به رخ می کشند و تلاش می کنند تا اصول تجویز شده تا حدودی سست و نامناسب را دور بزنند. و غیره.
استفاده از رویکردهای «قانون نرم» که مستلزم اخلاق هوش مصنوعی است، باید تقریباً به طور اجتناب ناپذیری با راههای «قانون سخت» مانند تصویب قوانین و مقرراتی همراه شود که سیگنال بزرگی را به همه کسانی که هوش مصنوعی را ایجاد یا استفاده میکنند ارسال میکند. اگر عاقلانه از هوش مصنوعی استفاده نکنید، بازوی دراز قانون ممکن است به شما کمک کند. صدای به صدا در آمدن درهای زندان می تواند توجه تند را به خود جلب کند.
با این حال، یک مشکل بزرگ این است که گاهی اوقات درب انبار اسب ها را به بیرون راه داده است. یک هوش مصنوعی که فعال می شود به طور بالقوه همه نوع اعمال غیرقانونی را تولید می کند و این کار را تا زمانی که نه تنها دستگیر شود، بلکه همچنین زمانی که برخی از اعمال در نهایت برای جلوگیری از جریان اقدامات غیرقانونی اقدام کند، ادامه خواهد داد. همه اینها ممکن است زمان ببرد. در همین حال، انسان ها به هر شکلی آسیب می بینند.
در این حمله، بررسی دوگانه حقوقی هوش مصنوعی وارد میشود.
با اقامت در یک برنامه هوش مصنوعی، چککننده حقوقی هوش مصنوعی میتواند فوراً تشخیص دهد که چه زمانی به نظر میرسد هوش مصنوعی با قانون مخالف است. بررسی دوگانه قانونی AI ممکن است هوش مصنوعی را در مسیر خود متوقف کند. یا این مؤلفه ممکن است انسان ها را در مورد فعالیت های غیرقانونی تشخیص داده شده آگاه کند و این کار را به موقع انجام دهد که می تواند ناظران را به اقدامات اصلاحی فوری سوق دهد. همچنین گزارش رسمی در نظر گرفته شده ای وجود دارد که این مؤلفه می تواند ایجاد کند و ظاهری ملموس از یک مسیر حسابرسی را برای اهداف کدگذاری اقدامات نامطلوب هوش مصنوعی ارائه می دهد.
گفته می شود که قوانین ما شکلی از ترکیب چند عاملی هستند، به طوری که قوانین به ناچار آمیزه ای از آنچه جامعه به عنوان تعادل بین دیدگاه های احتمالی متضاد در مورد رفتارهای اجتماعی مناسب و نامناسب قرار داده است، هستند. بنابراین یک بررسی دوگانه حقوقی هوش مصنوعی بر اساس قوانین ما این ترکیب را در بر می گیرد.
قابل ذکر است، این چیزی بیش از برنامهنویسی فهرستی از قوانین قانونی قطعی است. قوانین معمولاً انعطاف پذیرتر هستند و به جای تعیین دقیق ترین قوانین میکروسکوپی، در جهت استانداردهای فراگیر تلاش می کنند. پیچیدگی ها فراوان است.
با بازگشت به مقاله تحقیقاتی ذکر شده قبلی، در اینجا نحوه بررسی این ملاحظات در مورد پیگیری همسویی هوش مصنوعی نیز آمده است: "قانون، فلسفه کاربردی همسویی چند عاملی، به طور منحصر به فردی این معیارها را برآورده می کند. همسویی مشکل است زیرا ما نمی توانیم ex ante قوانینی را مشخص کنید که به طور کامل و قابل اثبات رفتار هوش مصنوعی خوب را هدایت می کند. به همین ترتیب، طرفین یک قرارداد حقوقی نمیتوانند همه موارد احتمالی روابط خود را پیشبینی کنند و قانونگذاران نمیتوانند شرایط خاصی را که تحت آن قوانین آنها اعمال میشود، پیشبینی کنند. به همین دلیل است که بسیاری از قوانین مجموعه ای از معیارها هستند» (همان).
تجسم قانون در یک بررسی دوگانه قانونی هوش مصنوعی بسیار چالش برانگیزتر از آن چیزی است که در ابتدا ممکن است تصور کنید.
همانطور که هوش مصنوعی پیشرفت می کند، ما باید بر این اساس از چنین پیشرفت هایی استفاده کنیم. معلوم شد آنچه برای غاز خوب است برای غاز نیز خوب است. آنهایی از ما که طبق قانون در هوش مصنوعی پیشرفت میکنند، روی هوش مصنوعی فشار میآورند و بدون شک پیشرفتهای جدیدی را ایجاد میکنند که در نهایت میتواند به طور کلی به پیشرفت هوش مصنوعی کمک کند.
- هوش مصنوعی گستردهتر به همین ترتیب به بررسیهای دوگانه قانونی هوش مصنوعی قویتری نیاز دارد
یک بازی موش و گربه با این موضوع روبرو می شود.
این احتمال وجود دارد که با پیشرفت بیشتر هوش مصنوعی، هر مؤلفه بررسی دوگانه قانونی AI مسائل را سختتر و سختتر پیدا کند. به عنوان مثال، یک برنامه هوش مصنوعی که مورد بررسی قرار می گیرد ممکن است راه های فوق العاده ابداعی جدیدی برای پنهان کردن اقدامات غیرقانونی که هوش مصنوعی انجام می دهد ابداع کند. حتی اگر هوش مصنوعی مسیری پنهانی را طی نکند، پیچیدگی کلی هوش مصنوعی به تنهایی میتواند مانعی دلهرهآور برای ارزیابی دوبار بررسی قانونی هوش مصنوعی باشد.
در اینجا چگونگی این امر به ویژه قابل توجه است.
فرض کنید یک توسعهدهنده هوش مصنوعی یا شرکتی که از هوش مصنوعی استفاده میکند، اعلام کند که یک چککننده قانونی هوش مصنوعی وجود دارد که در برنامه مبتنی بر هوش مصنوعی تعبیه شده است. وایلا، به نظر می رسد که آنها اکنون دست های خود را از نگرانی های بیشتر شسته اند. چک کننده دوگانه AI Legal از همه چیز مراقبت خواهد کرد.
نه خیلی
بررسی دوگانه حقوقی هوش مصنوعی ممکن است برای ماهیت برنامه هوش مصنوعی درگیر ناکافی باشد. همچنین این احتمال وجود دارد که چککننده دوگانه AI Legal قدیمی شود، شاید با آخرین قوانین مربوط به برنامه هوش مصنوعی بهروزرسانی نشود. دلایل زیادی را می توان پیش بینی کرد که چرا صرف حضور یک چک کننده دوگانه قانونی هوش مصنوعی یک گلوله نقره ای نخواهد بود.
این بینشها را در تحقیقات ذکر شده قبلی در نظر بگیرید: «با پیشرفتهای پیشرفته در زمینه هوش مصنوعی، میتوانیم به طور مکرر نوارهای بالاتری از قابلیتهای درک قانونی نشان داده شده تعیین کنیم. اگر توسعهدهندهای ادعا میکند که سیستمش قابلیتهای پیشرفتهای در انجام وظایف دارد، باید درک حقوقی پیشرفته و تواناییهای قانونی و استدلالی هوش مصنوعی را نشان دهد، که عملاً هیچ سقفی از مشکل در هنگام در نظر گرفتن قوانین و مقررات در طول زمان، سابقه و صلاحیت ندارد. ” (همان).
- چککنندههای حقوقی هوش مصنوعی قانون را وضع میکنند و به ویژه قانون وضع نمیکنند (احتمالاً)
من مطمئن هستم که برخی از شما از ایده داشتن این چککنندههای قانونی هوش مصنوعی متحیر هستید.
یکی از نگرانیهایی که اغلب مطرح میشود این است که ظاهراً به هوش مصنوعی اجازه میدهیم قوانین ما را برای ما تعیین کند. خدای خوب، ممکن است فکر کنید، بخشی از اتوماسیون بر بشریت غلبه خواهد کرد. آن چککنندههای دوگانه هوش مصنوعی تعبیهشده، پادشاهان پیشفرض قوانین ما خواهند شد. هر کاری که احتمالاً انجام دهند همان چیزی خواهد بود که قانون به نظر می رسد.
انسان ها توسط هوش مصنوعی اداره خواهند شد.
و این چککنندههای قانونی هوش مصنوعی مسیر لغزندهای هستند که ما را به آنجا میرسانند.
یک استدلال متقابل این است که چنین صحبت هایی موضوع تئوری های توطئه است. شما به طرز وحشیانه ای فرض می کنید و خود را درگیر می کنید. واقعیت این است که این چککنندههای حقوقی هوش مصنوعی هوشیار نیستند، قرار نیست سیاره زمین را تصرف کنند و هیاهو درباره خطر وجودی آنها آشکارا مضحک و به شدت اغراقآمیز است.
در مجموع، با حفظ حالتی آرام و منطقی، باید توجه داشته باشیم که بررسیهای مضاعف حقوقی هوش مصنوعی در خدمت انعکاس مناسب قانون هستند و نه از روی طراحی و نه تصادفاً به نوعی پیشفرض در قلمروی مورد احترام. قانون با کنار گذاشتن برون یابی احساسات، مطمئناً می توانیم موافق باشیم که یک نگرانی واقعی و مبرم وجود دارد که بررسی دوگانه حقوقی هوش مصنوعی ممکن است در نهایت ماهیت واقعی یک قانون مشخص را نادرست معرفی کند.
به نوبه خود، شما می توانید ادعا کنید که بنابراین آن قانون خاص «تعریف شده نادرست» اساساً از نو ساخته می شود زیرا دیگر به درستی به آنچه در قانون واقعی مورد نظر بود دلالت نمی کند. من مطمئن هستم که شما صادقانه می توانید ببینید که چگونه این یک ملاحظات ظریف اما گویا است. در هر مقطع زمانی، بررسیکننده حقوقی هوش مصنوعی میتواند به صورت مجازی با ایجاد یا باید بگوییم «توهم» قوانین جدید را صرفاً از طریق اینکه چگونه مؤلفه هوش مصنوعی قانون را همانطور که در اصل بیان شده یا در هوش مصنوعی تعبیر میکند (برای پوشش من) تفسیر میکند. از هوش مصنوعی به اصطلاح توهم، نگاه کنید به پیوند اینجا).
مراقبت در این مورد باید به شدت اعمال شود.
در مورد این موضوع، مطالعه تحقیقاتی فوقالذکر این تفکر موازی را از لحاظ تلاش برای جلوگیری از عبور از آن خط مقدس ارائه میکند: «هدف ما این نیست که هوش مصنوعی مشروعیت وضع قانون، ایجاد سابقه قانونی یا اجرای قانون را داشته باشد. در واقع، این رویکرد ما را تضعیف میکند (و ما باید تلاش زیادی برای جلوگیری از آن انجام دهیم). در عوض، بلندپروازانهترین هدف کد اطلاعرسانی قانون، کدگذاری محاسباتی و تعمیمپذیری مفاهیم و استانداردهای قانونی موجود در عملکرد AI معتبر است.» (ibid).
- تعادل ظریف بین هوش مصنوعی تجسم حقوقی قانون به عنوان قوانین در مقابل استانداردها
قوانین به هم ریخته است
تقریباً برای هر قانون در مورد کتابها، احتمالاً تفسیرهای زیادی در مورد آنچه قانون در عمل واقعی تصریح می کند وجود دارد. در اصطلاح در زمینه هوش مصنوعی، ما به قوانین به عنوان مبهم بودن معنایی اشاره می کنیم. این همان چیزی است که توسعه هوش مصنوعی را که در قانون اعمال می شود به چالشی هیجان انگیز و همزمان آزاردهنده تبدیل می کند. برخلاف آمار دقیقی که ممکن است برای برنامههای کاربردی هوش مصنوعی مبتنی بر مالی مشاهده کنید، میل به تجسم قوانین ما در هوش مصنوعی مستلزم برخورد با سونامی از ابهامات معنایی است.
در کتاب بنیادم درباره مبانی استدلال حقوقی هوش مصنوعی (AILR)، من بحث میکنم که چگونه تلاشهای قبلی برای تدوین قوانین صرفاً در مجموعهای از قوانین محدود، ما را تا آنجایی که میخواهیم در حوزه حقوقی پیش ببریم، نبرده است. پیوند اینجا). AILR امروزی باید شامل یکپارچگی بین استفاده از قوانین و آنچه می توان استانداردهای فراگیر نامید که قانون نشان می دهد.
این تعادل مهم را میتوان به این شکل بیان کرد: «در عمل، بیشتر مقررات قانونی در طیفی بین قاعده محض و استاندارد ناب قرار میگیرند و نظریه حقوقی میتواند به تخمین ترکیب درست «قاعده بودن» و «استاندارد بودن» کمک کند. هنگام تعیین اهداف سیستم های هوش مصنوعی» (همان).
- نیاز به اثبات پودینگ در مورد رعایت هوش مصنوعی از قانون
خواستن چیزی با داشتن چیزی متفاوت است.
این خرده خرد زمانی به دست میآید که اظهار میکنیم اگرچه ممکن است بخواهیم چککنندههای حقوقی هوش مصنوعی داشته باشیم، اما به وفور باید مطمئن شویم که آنها کار میکنند و به درستی کار میکنند. توجه داشته باشید که این یک مانع سخت و طاقت فرسا دیگر است. من قبلاً آخرین پیشرفتها و چالشها در تأیید و اعتبارسنجی هوش مصنوعی را پوشش دادهام، ببینید پیوند اینجا.
همانطور که در مقاله تحقیقاتی ذکر شده است: «برای رفع این شکاف، قبل از اینکه مدلهای هوش مصنوعی در ظرفیتهای فزاینده عاملی، به عنوان مثال، وسایل نقلیه کاملاً خودمختار در جادههای اصلی مستقر شوند، طرف مستقر باید درک سیستم از اهداف انسانی، سیاستها و استانداردهای قانونی را نشان دهد. یک روش اعتبار سنجی می تواند «درک» هوش مصنوعی از «معنای» مفاهیم حقوقی را نشان دهد» (همان).
نتیجه
من از شما میخواهم که به من در این تلاش نجیب برای ساخت و ارائه چککنندههای قانونی هوش مصنوعی بپیوندید. ما به توجه و منابع بیشتری نیاز داریم که برای این کار با فضیلت اختصاص داده شود.
همانطور که قبلاً ذکر شد، این وظیفه مضاعف را برای دستیابی به استدلال حقوقی هوش مصنوعی (AILR) فراهم می کند که می تواند برای کمک به وکلا و به طور بالقوه به طور مستقیم توسط عموم استفاده شود. در واقع، برخی به شدت استدلال میکنند که تنها ابزار قابل دوام برای رسیدن به حس کاملتر دسترسی به عدالت (A2J) از طریق ایجاد هوش مصنوعی است که ظرفیتهای قانونی را در بر میگیرد و همه میتوانند به آن دسترسی داشته باشند.
یک نکته پایانی سریع در حال حاضر.
بحث تا کنون تاکید کرده است که AI Legal double-checker تعبیه شده یا در هوش مصنوعی تعبیه شده است. این در واقع تمرکز اصلی کسانی است که در حال تحقیق و انجام این قلمرو نوظهور هستند.
در اینجا یک سوال ارزش بررسی دارد.
کلاه فکری خود را بگذارید.
چرا از چککنندههای دوگانه AI Legal در همه نرمافزارها استفاده نمیکنید؟
اصل ماجرا این است که به جای استفاده انحصاری از بررسی دوگانه قانونی هوش مصنوعی در هوش مصنوعی، شاید باید دیدگاه خود را گسترش دهیم. انواع نرم افزارها می توانند از نظر قانونی به بیراهه بروند. مسلماً هوش مصنوعی به دلیل روشهایی که معمولاً از هوش مصنوعی استفاده میشود، مانند ارائه تصمیمهای آزاردهندهای که بر انسانها در زندگی روزمره تأثیر میگذارد، بیشترین توجه را به خود جلب کرده است. اگرچه میتوانید به راحتی بپذیرید که بسیاری از سیستمهای غیر AI وجود دارند که همین کار را میکنند.
در اصل، ما نباید به هیچ نرم افزاری اجازه ندهیم که برای اجتناب از قانون یا جلوگیری از آن، امکان استفاده رایگان داشته باشد.
قبلاً به یاد بیاورید که من به دو دسته ترکیب هوش مصنوعی و قانون اشاره کردم. ما در اینجا بر استفاده از AI همانطور که در قانون اعمال می شود تمرکز کرده ایم. روی دیگر سکه اعمال قانون برای هوش مصنوعی است. فرض کنید ما قوانینی را وضع می کنیم که به استفاده از چک های دوگانه قانونی AI نیاز دارد.
این ممکن است در ابتدا به سیستم های هوش مصنوعی محدود شود، به ویژه آنهایی که به عنوان پرخطر رتبه بندی می شوند. به تدریج، همان الزام بررسی دوگانه قانونی AI می تواند به نرم افزارهای غیر AI نیز تعمیم یابد. باز هم، بدون سواری رایگان.
در حالی که شما به آن توجه بالا توجه می کنید، من به عنوان یک تیزر پایانی چیزها را ادویه می کنم. اگر میخواهیم به بررسیهای دوگانه قانونی هوش مصنوعی نیاز داشته باشیم، ممکن است در مورد بررسیهای دوگانه اخلاق هوش مصنوعی نیز همین کار را انجام دهیم. استفاده از چک کننده دوگانه AI Legal تنها نیمی از داستان است و ما نمی توانیم نگرانی های اخلاقی AI را نیز نادیده بگیریم یا فراموش کنیم.
من این گفتمان شادی آور را با یکی از نقل قول های مورد علاقه خود به پایان می برم. طبق سخنان حکیمانه ارل وارن، حقوقدان مشهوری که به عنوان رئیس دادگستری ایالات متحده خدمت می کرد: "در زندگی متمدن، قانون در دریایی از اخلاق شناور است."
اگر میخواهیم سرمان را بالاتر از دریاهای سنگین احتمالی در برابر هوش مصنوعی ترش و سیستمهای غیر هوش مصنوعی که امنیت ما را به خطر میاندازند، از آن چککنندههای دوگانه قانونی هوش مصنوعی و اخلاقیات هوش مصنوعی به شدت استفاده کنیم. .
آنها ممکن است جلیقه نجات بشریت باشند.
منبع: https://www.forbes.com/sites/lanceeliot/2022/12/01/implanting-legal-reasoning-into-ai-could-smartly-attain-human-value-alignment-says-ai-ethics- و-آی-قانون/