Crypto و AI: آینده نقش وکیل

یکی از اینها این است که انسان ممکن است نقش و جایگاهی متفاوت از آنچه امروز به آن عادت کرده ایم پیدا کند.

بنابراین، اگر به‌خاطر استدلال، ماشینی ساخته شود که بتواند پاسخی غیرقابل اجتناب دقیق به سؤال حقوقی بدهد و در نتیجه پاسخی غیرقابل اجتناب به نتیجه احتمالی یک اختلاف بدهد، از نظر تئوری نقش وکیل ممکن است به یک موضوع تبدیل شود. حوزه ای غیر از حل پاسخ به سوال. شاید، دانستن چگونگی طرح سؤال درست از دستگاه که سپس پاسخ را ارائه می دهد. بنابراین، او نگران است که تمام عناصر و پارامترهای مناسب برای تولید پاسخ مورد انتظار به ماشین داده شود.

یا ممکن است وارد آن حوزه «آموزش» ماشین قانونی شود و سپس تمام داده ها و اطلاعات قانونی مورد نیاز برای ارزیابی آن را در اختیار دستگاه قرار دهد یا مراقب آن باشد.

و از آنجایی که این دستگاه، پیرو این فرضیه، قادر خواهد بود برای صدور حکمی که ما فرض می‌کنیم «عادلانه» است، دقت غیرقابل حلی ارائه دهد، نقش قاضی احتمالاً می‌تواند این باشد که اطمینان حاصل کند که طرفین در ارائه حکم تقلب نمی‌کنند. ماشینی با عناصر لازم برای صدور حکم و اینکه معیارهای قضاوت وارد شده و اعمال شده توسط دستگاه مطابق با انصاف، معقول بودن، تناسب، عدم تبعیض و غیره باشد.

اتفاقاً به نظر می رسد همه اینها با پنج اصل معروف تعیین شده مطابقت دارد CEPEJ - کمیسیون اروپا برای کارآمدی عدالت (یعنی کمیسیون کارآمدی عدالت شورای اروپا، هیئتی از CoE که به نمایندگی از 47 کشور که هدف آن آزمایش و نظارت بر کارایی و عملکرد سیستم‌های عدالت اروپایی است) در اخلاق منشور استفاده از هوش مصنوعی در سیستم های قضایی: (XNUMX) اصل احترام به حقوق اساسی. (ii) اصل عدم تبعیض (iii) اصل کیفیت و ایمنی. (IV) اصل شفافیت، بی طرفی و انصاف (v) اصل کنترل کاربر.

در حال حاضر، حتی با پذیرش این ایده که آینده ای که در آن هوش مصنوعی کاربرد گسترده ای در زمینه حقوقی پیدا می کند، نقش انسان ها ممکن است تنها به حوزه نظارت تغییر کند، ملاحظات دیگری نیز وجود دارد. عمدتاً به این دلیل که وقتی سیستم قضایی را با این ابزارهای به ظاهر خنثی و خطاناپذیر تصور می کنیم، دستگاهی را برای خود نمایندگی می کنیم که صرفاً قوانین و مقررات را اجرا می کند. یک مجری صرف احکام.

با این حال، این بازنمایی عدالت در واقعیت عملی وجود ندارد، زیرا، برخلاف هرگونه درخواست اصلی و اصل تفکیک قوا، کسانی که حکم صادر می‌کنند، غالباً در واقع تا حدودی به تولید قانون و ساختار آن را تغییر دهد. به این معنا که کارکرد قضایی اغلب به طور خاص در ایجاد و تثبیت قواعد منطبق است.

البته این میزان در نظام های قانونگذاری و قانون اساسی متفاوت است. مسلماً در کشورهای کامن لا بیشتر است، جایی که قانون از طریق تصمیم گیری های پیشینی شکل می گیرد.

اما این موضوع در کشورهای دارای قانون مدون مانند ایتالیا، فرانسه، آلمان و غیره نیز صادق است. در این نظام‌ها، در واقع، تفسیری که از طریق تصمیم قضایی داده می‌شود، گاهی قوانین رسمی را تحمیل می‌کند یا حتی آن را خم می‌کند، زمانی که خلأهایی پیدا می‌کند، آن را تکمیل می‌کند. نقص در آن، آن را نادیده می گیرد و در صورت وجود شرایطی که آن را در تضاد با اصول بالاتر قرار می دهد، آن را در خلأ قرار می دهد.

یعنی کارکرد قضایی چه به صورت مستقیم و چه غیرمستقیم اغلب به تجاوز به حوزه کارکرد نظارتی ختم می شود و این می تواند در سطوح مختلف اتفاق بیفتد.

نکته: این به معنای رد این احتمال نیست که به طور انتزاعی، ماشینی که برای تولید مقررات فراخوانده شده است، حتی بهتر از انسان قادر به انجام این کار نباشد. اگر فقط برای این واقعیت است که تاریخ پر از تنظیم کننده های بد انسانی است. برای مثال افراطی، تجربه هولناک هولوکاست و پاکسازی قومی را در نظر بگیرید: این ها وحشت هایی بودند که به طور قانونی توسط سیستم های قانونگذاری مبتنی بر اصول کلان غیرانسانی حمایت می شدند، اما توسط خود انسان ها ایجاد و تحمیل شدند.

رویارویی تولید هنجاری و هوش مصنوعی

نکته مهم دیگر این است: آیا ما واقعاً مطمئن هستیم که می‌خواهیم به ماشین‌ها دسترسی به فرآیند تولید هنجاری بدهیم؟ و تا چه حد؟ و باید در نظر داشته باشیم که این ورود می‌تواند به شیوه‌ای «خزنده» از طریق آن درگاه نیمه‌باز عملکرد قضایی صورت گیرد.

این ایده که کارکردهایی که می‌توانند توسط ماشین‌ها انجام شوند، می‌توانند به دلیل محدودیت‌های اخلاقی و رسمی که توسط انسان تحمیل شده‌اند، صرفاً به یک نقش اجرایی یا حداکثر کمکی نسبت به کار و اراده انسان واگذار شوند. قوانین رباتیک، آسیموف یا اصولی که در زمینه اروپایی در مورد استفاده از هوش مصنوعی در سیستم‌های قضایی توضیح داده شده است) می‌تواند مماشات کننده باشد.

اینها در این مورد قواعدی هستند که مستقیماً از انسان به ماشین دیکته می شوند و به معنای وسیع به ارضای مسلک وجودی خود انسان پاسخ می دهند. یعنی همه آنها به نوعی محافظه کار و کارآمد برای توسعه و حفظ موجودیت نوع بشر هستند.

و اگر بخواهید در اینجاست که این معضل تا حدودی فلسفی آغاز می‌شود: اگر ما به یک موجود غیرانسانی اجازه می‌دهیم تا به طور کامل وارد فرآیند شکل‌گیری هنجاری شود، با توجه به اینکه آن، دقیقاً به عنوان یک موجود، ذاتاً دارای ویژگی‌های خود است. مسلک وجودی خود، چه چیزی مانع از نوشتن قواعدی می شود که به مسلک وجودی انسان پاسخ نمی دهد؟

به عنوان مثالی افراطی، اگر بخواهیم مشکل ازدحام جمعیت و کمبود منابع غذایی و انرژی را مطرح کنیم، در سطح جهانی، به عنوان انسان، در معرض برخی انحرافات ایدئولوژیک بیمارگونه، در سطح اخلاقی به عنوان ابزاری برای حل مشکل انکار می‌کنیم. راه حل هایی که قتل عام یا قتل انسان ها را فرض می کنند.

همین مشکل، که از چشم یک موجود غیر انسانی دیده می‌شود، که ممکن است اصول اخلاقی یکسان را به رسمیت نشناسد، می‌تواند به راه‌حل کشتار جمعی منجر شود، شاید بر اساس معیارهای انتخابی با هدف حذف ضعیف‌ترین سوژه‌ها (همان مواردی که به عنوان معقول ترین راه حل در یک سطح کاملاً منطقی و سرد، باید دستورات اخلاق انسانی را در اولویت حفظ کرد.

ماسیمو چیریاتی، در میان کارشناسان برجسته در هوش مصنوعی در ایتالیا که در بسیاری از نوشته‌های خود دیدگاه‌های خود را درباره محدودیت‌های هوش مصنوعی و نقش نظارتی که انسان‌ها باید در استفاده از این فناوری‌ها به شیوه‌ای آهنین در استفاده از این فناوری‌ها در «ناخودآگاه مصنوعی» خود داشته باشند، روشن کرده است، می‌گوید:

نکته بسیار مهمی وجود دارد که باید در نظر گرفت: هر پیش‌بینی هوش مصنوعی یک ارزیابی کمی است، نه یک ارزیابی کیفی، در حالی که برای ما انسان‌ها انتخاب تقریباً هرگز یک محاسبه ساده نیست. ما بر اساس ارزش های غیرقابل اندازه گیری و در نتیجه غیرقابل محاسبه تصمیم می گیریم. ما معلم ماشین ها هستیم. زمانی که آنها داده‌هایی را که ما ایجاد می‌کنیم جذب می‌کنند، زمانی که مدل را می‌سازند و به ما پاسخ می‌دهند، به طور ضمنی چنین هستیم. 

هنگامی که به آنها دستورالعمل هایی در مورد نحوه انجام یک کار می دهیم، به صراحت این کار را می کنیم. به این دلایل ما باید به نحوه یادگیری آنها توجه کنیم، زیرا با انجام این کار آنها تکامل خواهند یافت.

فراتر از مثال افراطی که ذکر شد، در حالی که مخالفت با توسعه فناوری بیهوده و توهمی است، این نوع فرآیند باید با نهایت آگاهی اداره شود.

امروز ما در مورد تأثیر هوش مصنوعی بر مشاغل حقوقی بحث می کنیم که با توجه به موقعیت ها و ارزش های ظرافت و ویژگی های فوق العاده مربوط به پیچیدگی فکری، خلاقیت و همه آن مؤلفه هایی که ما دوست داریم به ذات ناملموس انسان ردیابی کنیم.

با این حال، همین مسئله قطعاً تأثیری در مقیاس بزرگ بر صدها شغل ایجاد می کند که ماشین ها در مدت زمان بسیار کوتاهی قادر خواهند بود به همان خوبی و بهتر از انسان ها با هزینه بی نهایت کمتر انجام دهند.

آیا ما باید توسط رمزارز و هوش مصنوعی (AI) احساس خطر کنیم؟

ابعاد گسترده موضوع باید ما را به تأمل در مورد پیامدهایی سوق دهد که بر دنیای واقعی و توانایی ما در خواندن واقعیت تأثیر می گذارد، زیرا دیدگاه اجتماعی و سیاسی جهان کار و اقتصاد متحول خواهد شد.

اگر با توجه به دنیای مشاغل حقوقی، طرح چند سؤال مشروع است، باید در نظر داشت که سؤالات مشابهی باید در مورد بسیاری از دنیای کار پرسیده شود.

برای ما، فوری‌ترین آنها این است: «برای انسان‌ها، قضات و وکلا که امروز آن نقش و وظایفی را که فردا ممکن است توسط ماشین‌ها انجام شود، انجام می‌دهند، چه خواهد آمد؟ آنها چگونه امرار معاش خواهند کرد؟»

اما در سطح منافع جمعی، موارد بسیار بیشتری وجود دارد: "چه کسی حق بیمه تامین اجتماعی را پرداخت خواهد کرد و چه کسی درآمد مالیاتی حاصل از درآمد همه کارگران انسانی که با ماشین آلات جایگزین شده اند را به جامعه ارائه می دهد؟" و مجدداً «چه اتفاقی برای همه چهره‌هایی که در عملکرد این اپراتورها سهیم هستند (دستیاران، همکاران، شاغلین و غیره) و وقتی درآمدهای سهم و مالیات آنها نیز از بین برود، چه خواهد شد؟»

خوب، این سؤالات برای همه دسته‌های شغلی دیگری که ممکن است توسط انقلاب رباتیک و دیجیتال در یک بازه زمانی کوچک‌تر از زمانی که احتمالاً بر کارگران قانونی تأثیر می‌گذارد، به وجود بیاید.

سناریوهایی به وجود می‌آیند که می‌توانند دیدگاه‌های جامعه‌شناختی، اقتصادی، مردم‌شناختی و سیاسی که امروزه شناخته شده‌اند منسوخ شوند: سوسیالیسم، لیبرالیسم، آزادی‌خواهی، حاکمیت‌گرایی و غیره، مبانی مفهومی خود را از دست خواهند داد.

اگر نه همه چیز، باید از ابتدا تجدید نظر شود.

اما با بازگشت به مبحث هوش مصنوعی در حوزه حقوقی، نظر شخصی من این است که نقش وکیل (با حرفه مترجم نه تنها هنجارها، بلکه حقایق و تا حدی انسان ها) قادر نخواهد بود. محدود به مهاجرت به منطقه دیگری از چرخه تولید خدمات حقوقی است.

ایده من این است که به وکیل و به طور کلی تر به متخصصان حقوقی می توان نقش بالاتری داد: یعنی توجه داشته باشند که آگاهی در حاکمیت توسعه فناوری همیشه متناسب با اهداف رفاهی واقعی بشر باشد، به درستی هدایت شود و در صورت لزوم، آگاهانه و معقولانه نیز مهار شود.

یک ضرب المثل معروف چینی وجود دارد که می گوید: "وقتی باد تغییر می وزد، برخی موانع ایجاد می کنند، برخی دیگر آسیاب بادی می سازند."

حالا، اگرچه دوست دارم فکر کنم می‌توانم خودم را جزو کسانی بشمارم که «وقتی باد تغییر می‌وزد» مشتاقانه خود را به ساختن آسیاب‌های بادی می‌اندازند، اما نمی‌خواهم به نقطه‌ای برسم که آسیاب‌های بادی دیگر نیازی به وجود انسان نداشته باشند، زیرا وجودشان وجود دارد. به نیاز به آسیاب های بادی دیگر اختصاص داده شده است.

و اگر به آن می رسید، آیا انسان به چنین آسیاب های بادی نیاز دارد؟

حال، وکیل در تعریف کسی است که برای دفاع و اقامه دعوی نامیده می شود. دلیل او این است: او باید مراقب باشد که انسان‌ها قواعد را محکم نگه دارند و ماشین‌ها در نقشی که برای آن خلق شده‌اند، لنگر بیاورند: کار در خدمت بشریت.

و در مواقع لزوم باید بایستد و بجنگد تا اینگونه باشد و بماند.

مبارزه برای خیر بشریت. مثل مازینگا زتا، در کارتون معروف ژاپنی، برای کسانی که آن را به یاد دارند.

خوب به نظر می رسد، اما مازینگا زتا، آیا او هم یک ربات نبود؟

 

منبع: https://en.cryptonomist.ch/2023/03/11/crypto-ai-future-lawyers-role/