اخلاق هوش مصنوعی و خرابی در آینده زمانی که قانون شهر نیویورک که نیاز به ممیزی برای تعصبات هوش مصنوعی دارد، وارد عمل شود

گاهی اوقات بهترین نیت به طرز تأسف باری به دلیل عدم توجه شدید به جزئیات از بین می رود.

نمونه بارز این حکمت حکیم شایسته کاوش است.

به طور خاص، بیایید نگاهی دقیق به قانون جدید در شهر نیویورک در رابطه با هوش مصنوعی (AI) بیندازیم که از اول ژانویه 1 اجرایی خواهد شد. پس از اجرایی شدن قانون اگرچه مشکلات ناشی از طراحی نیست، اما بدون شک در نتیجه یک طراحی ضعیف یا حداقل تصریح ناکافی جزئیات ضروری که باید و می‌توانست به راحتی ابداع و به صراحت بیان می‌شد، رخ می‌دهد.

من به یک قانون محلی در سال گذشته در 11 دسامبر 2021 در شهر محترم نیویورک اشاره می کنم که قرار است در آغاز سال 2023 اجرایی شود. ما در حال حاضر تنها چند ماه با بیداری بزرگ فاصله داریم. این قانون جدید قرار است به هم بخورد. ای کاش می توانستم بگویم که قانون جاه طلبانه کاری را که قرار است انجام دهد، یعنی برخورد با سوگیری های بالقوه هوش مصنوعی در حوزه تصمیم گیری در مورد استخدام، یکپارچه انجام می دهد. متأسفانه، اگرچه این نیت قابل ستایش است، اما من شما را از خلأهای شکاف، حذفیات، و فقدان مشخصه ای که این قانون را تضعیف می کند و کارفرمایان را دیوانه می کند، راهنمایی خواهم کرد، زیرا آنها به دنبال مقابله با پیامدهای ناخواسته و در عین حال کاملاً نامطلوب آن هستند.

ممکن است بگویید که این موضوع کلاسیک پیشبرد یک برنامه نیمه کاره است. یک اصل محترمی که به دوایت آیزنهاور نسبت داده شد این بود که یک برنامه هیچ است در حالی که برنامه ریزی همه چیز است. به طور خلاصه، این قانون خاص نمونه‌ای واضح از این است که چگونه قانون‌گذاران گاهی اوقات با ناتوانی در فکر کردن کوتاهی می‌کنند. پیش مشخصات لازم به گونه‌ای که قانون به اهداف ستودنی خود برسد و بتوان آن را به شیوه‌های مطمئناً معقول و عاقلانه تصویب کرد.

افتضاحی در انتظار است

از هم اکنون بهانه ها در صف کشیده شده است.

برخی از صاحب نظران گفته‌اند که شما هرگز نمی‌توانید یک قانون را به طور کامل مشخص کنید و باید آن را در عمل ببینید تا بدانید چه جنبه‌هایی از قانون نیاز به اصلاح دارد (یک حقیقت کلی که در این مورد نامتناسب می‌شود). علاوه بر این، آن‌ها به شدت استدلال می‌کنند که این موضوع به‌ویژه در مورد جدید بودن قوانین مرتبط با هوش مصنوعی صادق است. هک، آنها توصیه می کنند، هوش مصنوعی یک جادوگری با فناوری پیشرفته است که ما به عنوان قانونگذار چیز زیادی درباره آن نمی دانیم، بنابراین، منطق این است که قرار دادن چیزی در صفحات قانونی بهتر از نداشتن هیچ چیز در آنجا است.

در ظاهر، مطمئناً قانع کننده به نظر می رسد. با این وجود، عمیق‌تر حفاری کنید و متوجه می‌شوید که به طور بالقوه، از جمله و به‌ویژه در مورد این قانون خاص، بسیار بد است. این قانون به راحتی می تواند ماهرانه تر و عاقلانه تر وضع شود. ما به معجون جادویی نیاز نداریم. نیازی نیست منتظر بمانیم تا خرابی ها پیش بیاید. در زمانی که قانون تدوین شد، می‌توانست نوع واژه‌بندی و جزئیات درست را ایجاد کند.

بیایید همچنین مطمئن شویم که این ایده نامناسب و شناور مبنی بر اینکه جنبه های فرزندخواندگی را نمی توان از قبل پیش بینی کرد، به طرز دردناکی مضحک است. این دست تکان دادن حقوقی از بدترین نوع است. ملاحظات زیادی در مورد برخورد با سوگیری های هوش مصنوعی و انجام ممیزی های هوش مصنوعی وجود دارد که می توانست به راحتی در این قانون گنجانده شود. همین امر را می توان در مورد هر حوزه قضایی دیگری که به ایجاد چنین قانونی فکر می کند نیز گفت. فریب نخورید و باور نکنید که ما فقط باید به پرتاب کورکورانه تیر قانونی به بادهای وحشی و رنج کشیدن متوسل شویم. مجموعه ای از تفکر قانونی همراه با درک مناسب از هوش مصنوعی در حال حاضر امکان پذیر است و نیازی به درک صرفاً نی وجود ندارد.

ممکن است اضافه کنم، هنوز زمان برای اصلاح این موضوع وجود دارد. ساعت همچنان در حال تیک تیک است. ممکن است قبل از شروع زنگ خطر بیدار شوید. توصیه های مورد نیاز را می توان استخراج و اعلام کرد. زمان کوتاه است بنابراین باید به این موضوع اولویت داده شود.

در هر صورت، لطفاً مطمئن شوید که در اینجا تأکید می کنید.

به من اجازه دهید صریحاً توضیح دهم که چنین قانونی در مورد تعصبات هوش مصنوعی دارای شایستگی است. دلیلش را لحظه ای توضیح می دهم. من همچنین توضیح خواهم داد که چه مشکلاتی با این قانون جدید وجود دارد که بسیاری می گویند اولین قانونی است که در کتاب های حقوقی قرار گرفته است (تغییرهای دیگری نیز وجود دارد، شاید کاملاً شبیه این قانون نباشد).

در واقع، شما می توانید انتظار داشته باشید که قوانین مشابه به تدریج در سراسر کشور وجود داشته باشد. یکی از نگرانی های قابل توجه این است که اگر این تلاش برای اولین بار در شهر نیویورک بد پیش برود، می تواند باعث شود که بقیه کشور نسبت به وضع چنین قوانینی محتاط شوند. این درس درستی برای آموختن نیست. درس صحیح این است که اگر می خواهید چنین قانونی بنویسید، عاقلانه و با ملاحظه عمل کنید.

قوانینی که بدون بررسی کافی بر روی کتاب ها ریخته می شود می تواند بسیار ناراحت کننده باشد و انواع مشکلات پایین دستی را ایجاد کند. از این نظر، لطفاً کودک را با آب حمام بیرون نیندازید (یک ضرب المثل قدیمی، احتمالاً باید بازنشسته شود). ماهیت این است که چنین قوانینی زمانی که به درستی تدوین شوند می توانند واقعا سازنده و محافظ باشند.

این خاص متأسفانه قرار نیست این کار را از دروازه انجام دهد.

همه انواع راهنمایی های وحشتناک باید از سوی مجریان و مجریان قانون باشد. تقویم‌های خود را برای اواخر ژانویه و فوریه 2023 علامت‌گذاری کنید تا شاهد درگیری‌ها باشید. انگشت اشاره بسیار شدید خواهد بود.

در حال حاضر هیچ کس به ویژه در حال غر زدن نیست، زیرا قانون هنوز بر سر کارفرمایان که با قانون جدید تحت تأثیر قرار خواهند گرفت، نرسیده است. تصور کنید که این یک نوع زلزله است که قرار است در هفته های آغازین سال 2023 رخ دهد. تعداد کمی برای زلزله آماده می شوند. بسیاری حتی نمی دانند که زلزله از قبل در تقویم ثبت شده است. همه اینها که گفته شد، هنگامی که زلزله رخ می دهد، بسیاری از مشاغل بسیار شگفت زده و شوکه شده تعجب خواهند کرد که چه اتفاقی افتاده و چرا باید این آشفتگی رخ دهد.

همه اینها پیامدهای قابل توجهی از اخلاق هوش مصنوعی دارند و دریچه ای مفید به درس های آموخته شده (حتی قبل از اینکه همه درس ها اتفاق بیفتند) در هنگام تلاش برای قانون گذاری هوش مصنوعی ارائه می دهد. برای پوشش مداوم و گسترده من از اخلاق هوش مصنوعی، هوش مصنوعی اخلاقی، همراه با قانون هوش مصنوعی در میان جنبه های قانونی حکمرانی هوش مصنوعی را می توان در این آدرس یافت پیوند اینجا و پیوند اینجا, فقط به نام چند.

این داستان حقوقی بدبختی به نگرانی‌های در حال ظهور سابق در مورد هوش مصنوعی امروزی و به ویژه استفاده از یادگیری ماشینی (ML) و یادگیری عمیق (DL) به عنوان نوعی فناوری و نحوه استفاده از آن مربوط می‌شود. می بینید، استفاده هایی از ML/DL وجود دارد که تمایل دارند هوش مصنوعی را توسط عموم مردم تبدیل کنند، با این باور یا انتخاب می کنند که فرض کنیم ML/DL یا هوش مصنوعی است یا نزدیک به آن (اینطور نیست). علاوه بر این، ML/DL می‌تواند شامل جنبه‌هایی از تطبیق الگوی محاسباتی باشد که از منظر اخلاقی یا قانونی نامطلوب یا کاملاً نامناسب یا غیرقانونی هستند.

ممکن است مفید باشد که ابتدا منظورم را هنگام اشاره به هوش مصنوعی به طور کلی روشن کنیم و همچنین یک مرور مختصر از یادگیری ماشین و یادگیری عمیق ارائه دهیم. در مورد اینکه هوش مصنوعی چه مفهومی دارد، سردرگمی زیادی وجود دارد. همچنین می‌خواهم احکام اخلاق هوش مصنوعی را به شما معرفی کنم که به‌ویژه در ادامه این گفتار ضروری است.

بیان رکورد در مورد هوش مصنوعی

بیایید مطمئن شویم که در مورد ماهیت هوش مصنوعی امروزی یکسان هستیم.

امروزه هیچ هوش مصنوعی وجود ندارد که حساس باشد.

ما این را نداریم

ما نمی دانیم که آیا هوش مصنوعی ممکن خواهد بود یا خیر. هیچ کس نمی تواند به درستی پیش بینی کند که آیا ما به هوش مصنوعی خواهیم رسید یا خیر، و نه اینکه آیا هوش مصنوعی به نحوی معجزه آسا خود به خود در شکلی از ابرنواخترهای شناختی محاسباتی پدید می آید (که معمولاً به عنوان تکینگی شناخته می شود، پوشش من را در اینجا ببینید. پیوند اینجا).

درک کنید که هوش مصنوعی امروزی قادر به «فکر کردن» به هیچ وجه در حد تفکر انسان نیست. وقتی با الکسا یا سیری در تعامل هستید، ظرفیت‌های مکالمه ممکن است شبیه ظرفیت‌های انسانی به نظر برسد، اما واقعیت این است که محاسباتی است و فاقد شناخت انسانی است. آخرین دوره هوش مصنوعی از یادگیری ماشینی و یادگیری عمیق استفاده گسترده ای کرده است که از تطابق الگوهای محاسباتی استفاده می کنند. این منجر به سیستم‌های هوش مصنوعی شده است که ظاهری شبیه به انسان دارند. در همین حال، هیچ هوش مصنوعی امروزی وجود ندارد که شباهتی به عقل سلیم داشته باشد و هیچ یک از شگفتی های شناختی تفکر قوی انسانی را نداشته باشد.

بخشی از موضوع تمایل ما به انسان سازی رایانه ها و به ویژه هوش مصنوعی است. زمانی که به نظر می‌رسد یک سیستم کامپیوتری یا هوش مصنوعی به روشی عمل می‌کند که ما با رفتار انسان مرتبط می‌شویم، تمایل تقریباً شدیدی برای نسبت دادن ویژگی‌های انسانی به سیستم وجود دارد. این یک تله ذهنی رایج است که می تواند حتی ناسازگارترین شکاکان را در مورد شانس رسیدن به احساسات به چنگ بیاورد.

تا حدودی، به همین دلیل است که اخلاق هوش مصنوعی و هوش مصنوعی اخلاقی یک موضوع بسیار مهم است.

دستورات اخلاق هوش مصنوعی ما را وادار می کند که هوشیار بمانیم. فن‌آوران هوش مصنوعی ممکن است در مواقعی با فناوری، به‌ویژه بهینه‌سازی فناوری‌های پیشرفته، مشغول شوند. آنها لزوماً پیامدهای اجتماعی بزرگتر را در نظر نمی گیرند. داشتن ذهنیت اخلاقی هوش مصنوعی و انجام این کار به طور یکپارچه برای توسعه و میدان‌دهی هوش مصنوعی برای تولید هوش مصنوعی مناسب، از جمله ارزیابی نحوه پذیرش اخلاق هوش مصنوعی توسط شرکت‌ها، حیاتی است.

علاوه بر به کارگیری اصول اخلاقی هوش مصنوعی به طور کلی، یک سوال مربوط به این موضوع وجود دارد که آیا ما باید قوانینی برای کنترل کاربردهای مختلف هوش مصنوعی داشته باشیم. قوانین جدیدی در سطوح فدرال، ایالتی و محلی وضع می شود که به محدوده و ماهیت چگونگی ابداع هوش مصنوعی مربوط می شود. تلاش برای تدوین و تصویب چنین قوانینی تدریجی است. اخلاق هوش مصنوعی حداقل به عنوان یک توقف در نظر گرفته شده عمل می کند و تقریباً مطمئناً تا حدی مستقیماً در آن قوانین جدید گنجانده می شود.

توجه داشته باشید که برخی قاطعانه استدلال می کنند که ما به قوانین جدیدی که هوش مصنوعی را پوشش می دهد نیازی نداریم و قوانین موجود ما کافی است. آنها پیش‌بینی می‌کنند که اگر برخی از این قوانین هوش مصنوعی را به اجرا بگذاریم، با مهار پیشرفت‌های هوش مصنوعی که مزایای اجتماعی عظیمی را ارائه می‌دهد، غاز طلایی را خواهیم کشت. به عنوان مثال پوشش من را در پیوند اینجا.

در ستون‌های قبلی، من تلاش‌های ملی و بین‌المللی مختلف برای ایجاد و وضع قوانین مربوط به هوش مصنوعی را پوشش داده‌ام. پیوند اینجا، مثلا. من همچنین اصول و رهنمودهای مختلف اخلاق هوش مصنوعی را که کشورهای مختلف شناسایی و پذیرفته اند پوشش داده ام، از جمله تلاش سازمان ملل متحد مانند مجموعه اخلاق هوش مصنوعی یونسکو که نزدیک به 200 کشور آن را پذیرفته اند. پیوند اینجا.

در اینجا یک لیست کلیدی مفید از معیارها یا ویژگی های هوش مصنوعی اخلاقی در رابطه با سیستم های هوش مصنوعی است که قبلاً از نزدیک بررسی کرده ام:

  • شفافیت
  • عدالت و انصاف
  • عدم سوء استفاده
  • مسئوليت
  • حریم خصوصی
  • سود رسانی
  • آزادی و خودمختاری
  • اعتماد
  • پایداری
  • کرامت
  • اتحاد

این اصول اخلاقی هوش مصنوعی قرار است با جدیت توسط توسعه دهندگان هوش مصنوعی، همراه با آنهایی که تلاش های توسعه هوش مصنوعی را مدیریت می کنند، و حتی آنهایی که در نهایت سیستم های هوش مصنوعی را انجام می دهند، مورد استفاده قرار گیرد. همه ذینفعان در طول چرخه عمر توسعه و استفاده هوش مصنوعی در محدوده رعایت هنجارهای تثبیت شده هوش مصنوعی اخلاقی در نظر گرفته می شوند. این نکته مهمی است زیرا فرض معمول این است که «فقط کدنویس‌ها» یا کسانی که هوش مصنوعی را برنامه‌ریزی می‌کنند، منوط به رعایت مفاهیم اخلاقی هوش مصنوعی هستند. همانطور که قبلاً در اینجا تأکید شد، برای ابداع و بکارگیری هوش مصنوعی به یک روستا نیاز است، و برای آن کل دهکده باید به اصول اخلاقی هوش مصنوعی آشنا باشد و از آن پیروی کند.

بیایید همه چیز را ثابت نگه داریم و روی هوش مصنوعی محاسباتی غیر حساس امروزی تمرکز کنیم.

ML/DL نوعی تطبیق الگوی محاسباتی است. روش معمول این است که شما داده ها را در مورد یک کار تصمیم گیری جمع آوری می کنید. داده ها را به مدل های کامپیوتری ML/DL وارد می کنید. آن مدل ها به دنبال یافتن الگوهای ریاضی هستند. پس از یافتن چنین الگوهایی، در صورت یافتن، سیستم هوش مصنوعی در هنگام مواجهه با داده های جدید از آن الگوها استفاده خواهد کرد. پس از ارائه داده های جدید، الگوهای مبتنی بر داده های "قدیمی" یا تاریخی برای ارائه یک تصمیم فعلی استفاده می شود.

من فکر می کنم می توانید حدس بزنید که این به کجا می رود. اگر انسان‌هایی که بر اساس تصمیم‌گیری‌های الگو گرفته شده‌اند، سوگیری‌های نامطلوب را در خود جای داده‌اند، احتمال این وجود دارد که داده‌ها این را به روش‌های ظریف اما قابل توجهی منعکس کنند. تطبیق الگوی محاسباتی یادگیری ماشینی یا یادگیری عمیق به سادگی سعی می‌کند تا داده‌ها را مطابق با ریاضی تقلید کند. هیچ شباهتی از عقل سلیم یا سایر جنبه های حساس مدل سازی ساخته شده با هوش مصنوعی به خودی خود وجود ندارد.

علاوه بر این، توسعه دهندگان هوش مصنوعی نیز ممکن است متوجه نباشند که چه اتفاقی در حال رخ دادن است. ریاضیات محرمانه در ML/DL ممکن است کشف سوگیری های پنهان در حال حاضر را دشوار کند. شما به حق امیدوارید و انتظار دارید که توسعه‌دهندگان هوش مصنوعی سوگیری‌های بالقوه مدفون را آزمایش کنند، اگرچه این دشوارتر از آن چیزی است که به نظر می‌رسد. این احتمال وجود دارد که حتی با آزمایش نسبتاً گسترده، سوگیری‌هایی همچنان در مدل‌های تطبیق الگوی ML/DL وجود داشته باشد.

می‌توانید تا حدودی از ضرب‌المثل معروف یا بدنام زباله‌های درون زباله‌ها استفاده کنید. مسئله این است که این بیشتر شبیه سوگیری‌هایی است که به‌طور موذیانه به‌عنوان سوگیری‌هایی که در هوش مصنوعی غوطه‌ور می‌شوند، القا می‌شوند. الگوریتم تصمیم‌گیری (ADM) هوش مصنوعی به طور اصولی مملو از نابرابری‌ها می‌شود.

خوب نیست.

من معتقدم که اکنون زمینه را فراهم کرده ام تا به اندازه کافی در مورد نقش هوش مصنوعی در موضوع ترک بی سر و صدا صحبت کنم.

هوش مصنوعی که در تصمیم گیری استخدامی استفاده می شود

قانون شهر نیویورک بر موضوع تصمیم گیری در مورد استخدام تمرکز دارد.

اگر اخیراً سعی کرده اید برای یک شغل مدرن تقریباً در هر کجای دنیا درخواست دهید، احتمالاً با یک عنصر مبتنی بر هوش مصنوعی در فرآیند تصمیم گیری استخدام مواجه شده اید. البته، ممکن است ندانید که وجود دارد، زیرا می تواند در پشت صحنه پنهان شود و هیچ راه آماده ای برای تشخیص اینکه یک سیستم هوش مصنوعی درگیر شده است، ندارید.

یک عبارت رایج برای اشاره به این سیستم های هوش مصنوعی این است که آنها در نظر گرفته می شوند ابزارهای تصمیم گیری خودکار برای استخدام، به اختصار AEDT نامیده می شود.

بیایید ببینیم قانون نیویورک چگونه این ابزارها یا برنامه‌هایی را که مستلزم تصمیم‌گیری استخدام هستند، تعریف کرده است:

  • «اصطلاح «ابزار تصمیم‌گیری استخدام خودکار» به معنای هر فرآیند محاسباتی است که از یادگیری ماشین، مدل‌سازی آماری، تجزیه و تحلیل داده‌ها یا هوش مصنوعی به دست می‌آید که خروجی ساده‌شده‌ای از جمله امتیاز، طبقه‌بندی یا توصیه را صادر می‌کند که برای کمک یا کمک قابل توجهی استفاده می‌شود. جایگزینی تصمیم گیری اختیاری برای اتخاذ تصمیمات استخدامی که بر اشخاص حقیقی تأثیر می گذارد. اصطلاح «ابزار تصمیم‌گیری استخدام خودکار» شامل ابزاری نمی‌شود که فرآیندهای تصمیم‌گیری اختیاری را خودکار، پشتیبانی، کمک اساسی یا جایگزین نمی‌کند و تأثیری اساسی بر اشخاص حقیقی ندارد، از جمله، اما نه محدود به، فیلتر ایمیل ناخواسته، فایروال، نرم افزار آنتی ویروس، ماشین حساب، صفحه گسترده، پایگاه داده، مجموعه داده، یا سایر مجموعه داده ها» (NYC، Int 1894-2020، زیر فصل 25، بخش 20-870).

من به طور خلاصه این عبارت را بررسی می کنم زیرا برای کل ماهیت و دامنه قانون حیاتی است.

اول، همانطور که بارها در نوشته‌هایم گفته‌ام، یکی از سخت‌ترین موانع هنگام نوشتن قوانین در مورد هوش مصنوعی، تلاش برای تعریف کافی معنای هوش مصنوعی است. هیچ استاندارد منحصر به فردی وجود ندارد که همه بر سر آن توافق شده باشند. همه نوع تعاریف وجود دارد. برخی مفید هستند، برخی نه. تحلیل های من را در پیوند اینجا.

ممکن است وسوسه شوید که فکر کنید مهم نیست که چگونه هوش مصنوعی را تعریف کنیم. متاسفم، اما شما در مورد آن اشتباه می کنید.

مسئله این است که اگر تعریف هوش مصنوعی به طور مبهم در یک قانون مشخص شده باشد، به کسانی که هوش مصنوعی توسعه می‌دهند اجازه می‌دهد تا با ادعای اینکه نرم‌افزار یا سیستم آن‌ها از هوش مصنوعی استفاده نشده است، تلاش کنند و از قانون دوری کنند. آنها با جسارت زیادی استدلال می کنند که قانون در مورد نرم افزار آنها اعمال نمی شود. به همین ترتیب، شخصی که از نرم‌افزار استفاده می‌کند نیز می‌تواند ادعا کند که قانون به آنها مربوط نمی‌شود، زیرا نرم‌افزار یا سیستمی که استفاده می‌کند خارج از تعریف هوش مصنوعی ذکر شده در قانون است.

انسانها اینطور حیله گر هستند.

یکی از زیرکانه‌ترین راه‌ها برای جلوگیری از کلاه‌برداری توسط قانونی که طرفدار آن نیستید این است که ادعا کنید قانون در مورد شما صدق نمی‌کند. در این مورد، شما به دنبال این هستید که تعریف AEDT را به طور جزئی جدا کنید. هدف شما، با فرض اینکه نمی‌خواهید قانون بر پشت شما باشد، این است که از نظر قانونی استدلال کنید که تعریف ارائه شده در قانون از آنچه سیستم رایانه‌ای مرتبط با شغل شما است یا انجام می‌دهد اشتباه است.

با گنجاندن عمد ضوابط استثنایی در تعریف، می توان به قانونی از این دست کمک کرد و همچنین گاهی آن را تضعیف کرد.

یک بار دیگر به تعریف AEDT همانطور که در این قانون آمده است نگاه کنید. شما امیدوار بودید مشاهده کردید که یک بند استثنایی وجود دارد که می گوید: «... شامل ابزاری نمی شود که فرآیندهای تصمیم گیری اختیاری را خودکار، پشتیبانی، کمک اساسی یا جایگزین نمی کند و تأثیر مادی بر افراد حقیقی ندارد...».

از یک سو، مبنای گنجاندن چنین حذفی قطعا مفید است.

به نظر می رسد (از نظر افراد غیرمعمول من) نشان می دهد که AEDT باید هدف خاصی را ارائه دهد و به شکلی اساسی مورد استفاده قرار گیرد. اگر AEDT باشد، باید بگوییم گذرا یا جانبی، و اگر تصمیم استخدام هنوز دست ساز انسان باشد، شاید سیستم نرم افزاری مورد استفاده نباید به عنوان یک AEDT تعبیر شود. همچنین، اگر نرم‌افزار یا سیستم از نظر مادی بر افراد حقیقی (انسان) تأثیر نمی‌گذارد، به نظر می‌رسد ارزش آن را ندارد که پای خود را روی آتش نگه دارید.

به طور معقول، شما نمی خواهید قانونی که دامنه آن را بیش از حد بیان کند و همه چیز از جمله سینک آشپزخانه را در بر بگیرد. انجام این کار اساساً برای کسانی که قانون در نظر گرفته نشده است، ناعادلانه و سنگین است. آن‌ها می‌توانند در باتلاقی گیر کنند که مانند یکی از آن تورهای ماهیگیر عمل می‌کند. احتمالاً قوانین ما باید مراقب باشند تا از کشاندن افراد بی گناه به محدوده قانون جلوگیری شود.

همه چیز خوب و خوب است.

یک وکیل باهوش باید متوجه شود که یک بند محرومیت می تواند نوعی کارت قانونی خروج از زندان باشد (به عنوان کنار، این قانون خاص مجازات های مدنی را تعیین می کند، نه مجازات های کیفری، بنابراین بیرون رفتن از زندان اظهار نظر صرفاً استعاری و برای طعم و مزه است). اگر کسی بخواهد ادعا کند که یک شرکت از AEDT در پردازش استخدام استفاده می‌کند، یکی از اولین راه‌ها برای تلاش و غلبه بر این ادعا این است که استدلال کند که به اصطلاح AEDT در واقع در حوزه محرومیت قرار دارد. ممکن است سعی کنید نشان دهید که به اصطلاح AEDT این کار را نمی کند خودکار بودن تصمیم استخدام، یا اینطور نیست پشتیبانی تصمیم استخدام، یا اینطور نیست به طور قابل توجهی کمک کند or جایگزین کردن فرآیندهای تصمیم گیری اختیاری

سپس می‌توانید مسیر پر پیچ و خم را دنبال کنید تا بفهمید کلمات «خودکار»، «پشتیبانی»، «به طور قابل توجهی کمک می‌کند» یا «جایگزین» در این زمینه به چه معنا هستند. این یک سوراخ خرگوش قانونی بسیار مفید است. می‌توان یک مورد قانع‌کننده ایجاد کرد که نرم‌افزار یا سیستمی که ادعا می‌شود یک AEDT است، بخشی از نشانه‌های حذف است. بنابراین، در مورد این قانون خاص، هیچ آسیبی وجود ندارد.

بدیهی است که برای چنین مواردی باید با وکلای دارای مجوز مشورت شود (در اینجا هیچگونه مشاوره حقوقی ذکر نشده است و این کاملاً یک دیدگاه غیر روحانی است).

منظور من در اینجا این است که در این قانون جدید اتاق تکان دادن وجود خواهد داشت. اتاق تکان دادن به برخی از کارفرمایان که واقعاً از AEDT استفاده می‌کنند این امکان را می‌دهد تا شاید راه‌حلی برای دور زدن استفاده از AEDT پیدا کنند. روی دیگر این سکه این است که ممکن است شرکت هایی وجود داشته باشند که واقعاً از AEDT استفاده نمی کنند که در دام این قانون قرار بگیرند. ممکن است این ادعا مطرح شود که هر چیزی که آنها استفاده می کردند در واقع یک AEDT بوده است، و آنها باید ابزاری بیابند تا نشان دهند که نرم افزار یا سیستم های آنها خارج از AEDT و در شرایط انحصاری قرار گرفته است.

ما می توانیم این پیش بینی جسورانه را انجام دهیم:

  • بدون شک کارفرمایانی وجود خواهند داشت که آگاهانه از AEDT استفاده می کنند که به طور بالقوه سعی می کنند از مسئولیت های قانونی خود خارج شوند.
  • به ناچار کارفرمایانی وجود خواهند داشت که از AEDT استفاده نمی کنند و در ادعاهایی مبنی بر اینکه از AEDT استفاده می کنند گرفتار می شوند و آنها را مجبور می کند که تلاش "اضافی" انجام دهند تا نشان دهند که از AEDT استفاده نمی کنند.

زمانی که در این بحث بیشتر پیش رفتیم، این جابجایی‌ها و ترکیب‌های متعدد را بیشتر توضیح خواهم داد. ما زمین خیلی بیشتری برای قدم زدن داریم.

استفاده از AEDT به خودی خود بخشی از این موضوع نیست که باعث ایجاد نگرانی های آشکار می شود، بلکه نحوه انجام اقدامات AEDT است که باعث خشم قانونی می شود. نکته اصلی این است که اگر AEDT احتمالاً سوگیری‌های مربوط به تصمیم‌گیری شغلی را نیز معرفی کند، شما در آب بالقوه داغ هستید (خوب، به نوعی).

چگونه می‌توانیم بدانیم که آیا یک AEDT در واقع سوگیری‌های مملو از هوش مصنوعی را وارد یک تلاش تصمیم‌گیری استخدامی می‌کند؟

پاسخ طبق این قانون این است که حسابرسی هوش مصنوعی باید انجام شود.

من قبلاً و غالباً ماهیت ممیزی های هوش مصنوعی و چیستی آنها را همراه با نکات منفی موجود و جنبه های نامشخص، مانند موارد زیر پوشش داده ام. پیوند اینجا و پیوند اینجا، در میان بسیاری از پست های مشابه دیگر. به عبارت ساده، تصور این است که درست مانند اینکه ممکن است یک حسابرسی مالی از یک شرکت انجام دهید یا یک حسابرسی فناوری مربوط به یک سیستم کامپیوتری انجام دهید، می توانید حسابرسی روی یک سیستم هوش مصنوعی نیز انجام دهید. با استفاده از تکنیک‌ها، ابزارها و روش‌های حسابرسی تخصصی، شما بررسی و ارزیابی می‌کنید که یک سیستم هوش مصنوعی از چه چیزی تشکیل شده است، از جمله تلاش برای تعیین اینکه آیا این سیستم دارای سوگیری‌هایی از نوع یا دیگری است یا خیر.

این یک منطقه توجه رو به رشد است.

می‌توانید انتظار داشته باشید که این زیرشاخه حسابرسی که به حسابرسی هوش مصنوعی اختصاص دارد همچنان به رشد خود ادامه دهد. به آسانی آشکار است که از آنجایی که سیستم‌های هوش مصنوعی بیشتری در بازار عرضه می‌شوند، و به نوبه خود، فریادهای بیشتری برای ممیزی‌های هوش مصنوعی وجود خواهد داشت. قوانین جدید به این امر کمک خواهد کرد. حتی بدون آن قوانین، ممیزی‌های هوش مصنوعی فراوانی وجود خواهد داشت زیرا افراد و شرکت‌ها ادعا می‌کنند که توسط هوش مصنوعی مورد ظلم قرار گرفته‌اند و به دنبال ارائه یک نشانه مستند ملموس مبنی بر وجود آسیب و ارتباط با هوش مصنوعی مورد استفاده هستند.

حسابرسان هوش مصنوعی داغ و پر تقاضا خواهند بود.

می تواند یک کار هیجان انگیز باشد. یکی از عناصر شاید هیجان انگیز غوطه ور شدن در جدیدترین و بهترین هوش مصنوعی است. هوش مصنوعی به پیشرفت خود ادامه می دهد. همانطور که این اتفاق می افتد، یک حسابرس زیرک هوش مصنوعی باید مراقب خود باشد. اگر حسابرسی هستید که از انجام ممیزی‌های معمولی روزمره خسته شده‌اید، عرصه حسابرسی هوش مصنوعی همیشه نویدی را به شما می‌دهد (من این را می‌گویم تا حدی قد حسابرسان را بالا ببرد، زیرا آنها اغلب قهرمانان نامعلومی هستند که در سنگرها کار می‌کنند. تمایل دارند به خاطر تلاش هایشان نادیده گرفته شوند).

علاوه بر این، من یک حسابرس سیستم های کامپیوتری معتبر بوده ام (یکی از این نام ها CISA است) و ممیزی های IT (فناوری اطلاعات) را بارها در طول سالیان متمادی انجام داده ام، از جمله ممیزی های هوش مصنوعی. در بیشتر مواقع، شما آنقدر که شایسته چنین تلاش هایی است، به رسمیت شناخته نمی شوید. احتمالاً می توانید حدس بزنید چرا. به طور کلی، حسابرسان تمایل دارند چیزهایی را پیدا کنند که اشتباه یا خراب هستند. از این نظر، آنها کاملاً مفید هستند، اگرچه برخی می توانند آن را به عنوان خبر بد تلقی کنند، و پیام رسان اخبار بد معمولاً به طور خاص روی یک پایه قرار نمی گیرد.

بازگشت به موضوع در دست.

با توجه به قانون نیویورک، این قانون در مورد حسابرسی هوش مصنوعی و تلاش برای کشف سوگیری های هوش مصنوعی می گوید:

  • «اصطلاح حسابرسی سوگیری به معنای ارزیابی بی طرفانه توسط حسابرس مستقل است. چنین ممیزی سوگیری باید شامل، اما نه محدود به آزمایش ابزار تصمیم گیری استخدامی خودکار برای ارزیابی تأثیر متفاوت ابزار بر روی افراد هر جزء 1 طبقه بندی شود که طبق بخش فرعی (ج) بخش 2000e-8 عنوان، لازم است توسط کارفرمایان گزارش شود. 42 کد ایالات متحده همانطور که در قسمت 1602.7 عنوان 29 کد مقررات فدرال مشخص شده است» (NYC, Int 1894-2020, Subchapter 25, Section 20-870).

به عنوان خلاصه، در اینجا جایی است که ما تاکنون در مورد بازگشایی این قانون هستیم:

  • این قانون ابزارهای تصمیم گیری خودکار استخدام (AEDT) را پوشش می دهد.
  • تعریفی از انواع گنجانده شده است تا مشخص شود AEDT چیست
  • در تعریف AEDT نیز مقررات استثنایی ذکر شده است
  • اصل ماجرا این است که قانون می خواهد سوگیری های هوش مصنوعی را در AEDT افشا کند
  • برای تشخیص اینکه آیا سوگیری های هوش مصنوعی وجود دارد یا خیر، باید یک ممیزی هوش مصنوعی انجام شود
  • ممیزی هوش مصنوعی احتمالاً هرگونه سوگیری هوش مصنوعی را اعلام خواهد کرد

بعداً می‌توانیم کمی بیشتر به قانون بپردازیم.

تصمیم استخدام شامل موارد زیر است:

  • "اصطلاح "تصمیم استخدام" به معنای بررسی نامزدهای استخدام یا کارمندان برای ارتقاء در داخل شهر است" (NYC, Int 1894-2020, Subchapter 25, Section 20-870).

توجه داشته باشید که جنبه مرزی "شهر" نشان می دهد که این موضوع فقط به شرایط مربوط به اشتغال در نیویورک می پردازد. همچنین، شایان ذکر است که یک تصمیم استخدامی همانطور که تعریف شده مستلزم غربالگری نامزدها است، که معنای معمول آن چیزی است که ما به عنوان یک تصمیم استخدام فکر می کنیم، به علاوه شامل ترفیعات نیز می شود.

این یک ضربه مضاعف است به این معنا که شرکت ها باید متوجه شوند که باید از نحوه استفاده از AEDT خود (اگر از آن استفاده می کنند) برای تنظیمات اولیه اشتغال و همچنین هنگام ارتقاء در شرکت مطلع باشند. احتمالاً می‌توانید حدس بزنید یا فرض کنید که بسیاری از شرکت‌ها کاملاً از عنصر تبلیغات که در این عنوان قرار دارد نیز آگاه نیستند. آنها به ناچار آن ساختار اضافی را به خطر خود نادیده خواهند گرفت.

در ادامه یک گزیده کلیدی اضافی از قانون ارائه خواهم کرد تا ماهیت آنچه توسط این قانون غیرقانونی تلقی می شود روشن شود:

  • "الزامات برای ابزارهای تصمیم گیری استخدامی خودکار. آ. در شهر، برای کارفرما یا آژانس کاریابی غیرقانونی است که از ابزار تصمیم گیری استخدامی خودکار برای بررسی یک نامزد یا کارمند برای تصمیم گیری استخدام استفاده کند، مگر اینکه: یک سال قبل از استفاده از چنین ابزاری؛ و 1. خلاصه ای از نتایج جدیدترین ممیزی سوگیری چنین ابزاری و همچنین تاریخ توزیع ابزاری که چنین ممیزی در مورد آن اعمال می شود، قبل از استفاده در وب سایت کارفرما یا آژانس کاریابی در دسترس عموم قرار گرفته است. چنین ابزاری…» (NYC، Int 2-1894، زیرفصل 2020، بخش 25-20). اگر مشتاقانه به جمله بندی حقوقی علاقه دارید، زیرشاخه های دیگری وجود دارد که ممکن است بخواهید به آنها نگاهی بیندازید.

بدبینان و منتقدان استدلال کرده‌اند که این امر در مورد فعالیت غیرقانونی که فراخوانی می‌شود تا حدودی ضعیف به نظر می‌رسد.

آنها می گویند که قانون فقط به طور محدود و حداقلی روی آن تمرکز دارد انجام ممیزی هوش مصنوعی و تبلیغ کردن نتایج، به جای این که آیا ممیزی هوش مصنوعی سوگیری های هوش مصنوعی را کشف کرده است یا خیر و اگر این موضوع پیامدهایی در تصمیم گیری های استخدامی که در محدوده این قانون قرار دارند داشته باشد، چه می شود. در اصل، ظاهراً غیرقانونی است نه تصمیم به انجام چنین ممیزی هوش مصنوعی (در صورت لزوم، همانطور که قبلاً بحث شد) را انتخاب کنید، به علاوه در صورتی که ممیزی هوش مصنوعی را انجام دهید اما انجام دهید، غیرقانونی است. نه آن را عمومی کنید.

به نظر می رسد قانون در مورد این سوال که آیا سوگیری های هوش مصنوعی شناسایی شده و وجود دارد یا خیر، ساکت است. به همین ترتیب، سکوت در مورد اینکه آیا تعصبات هوش مصنوعی بر افرادی که مرتبط با فعالیت های تصمیم گیری شغلی برجسته هستند یا خیر، تأثیر می گذارد یا خیر. نکته کلیدی این است که ظاهراً «صرفاً» یک ممیزی هوش مصنوعی انجام دهید و در مورد آن بگویید.

آیا این قانون به اندازه کافی پیش نمی رود؟

بخشی از استدلال متقابل برای ادعای اینکه این به ظاهر رضایت‌بخش است در مورد دامنه یا دامنه آنچه این قانون شامل می‌شود این است که اگر حسابرسی هوش مصنوعی سوگیری‌های هوش مصنوعی را پیدا کند، و اگر آن سوگیری‌های هوش مصنوعی به موارد خاص تصمیم‌گیری شغلی مرتبط باشد، شخص یا افرادی که به این ترتیب آسیب دیده اند می توانند کارفرما را تحت تعقیب قرار دهند دیگر قوانین بنابراین، نیازی به گنجاندن آن جنبه در این قانون خاص نیست.

ظاهراً این قانون قصد دارد چنین مواردی را آشکار کند.

هنگامی که نور روز بر روی این شیوه های نامطلوب افتاب شد، در صورتی که سوگیری های هوش مصنوعی وجود داشته باشد و بر مردم تأثیرگذار باشد، می توان همه راه های قانونی دیگر را دنبال کرد. بدون این قانون، استدلال این است که کسانی که از AEDT استفاده می‌کنند این کار را در حالی انجام می‌دهند که احتمالاً در حال کار هستند و به طور بالقوه دارای هزاران سوگیری هوش مصنوعی هستند، که کسانی که به دنبال استخدام هستند یا کسانی که به دنبال ارتقاء شغلی هستند نمی‌دانند که در حال وقوع است.

آنها را به سطح بیاورید. کاری کن که بگویند برو زیر کاپوت ببین داخل اون موتور چیه این مانترا در این مثال است. از این ظاهرسازی و گفتن، می توان اقدامات بیشتری انجام داد.

علاوه بر پیگیری قانونی در نتیجه روشن کردن این موضوع که ممیزی هوش مصنوعی احتمالاً گزارش داده است که سوگیری های هوش مصنوعی وجود داشته است، همچنین این اعتقاد وجود دارد که ارسال این نتایج پیامدهای شهرت را به همراه خواهد داشت. کارفرمایانی که نشان داده می شوند از AEDT هایی استفاده می کنند که دارای تعصبات هوش مصنوعی هستند، احتمالاً از خشم اجتماعی مانند از طریق رسانه های اجتماعی و موارد مشابه رنج می برند. آن‌ها به‌خاطر اعمال شرارت‌آمیز خود افشا می‌شوند و از اصلاح رفتارشان شرمنده می‌شوند، و همچنین ممکن است به دلیل نگرانی‌هایی که تعصبات هوش مصنوعی مانع از استخدام یا غصب ترفیع‌ها می‌شوند، از افرادی که به دنبال کار در آنجا هستند بی‌بهره باشند.

مجازات های اعلام شده مرتبط با غیرقانونی بودن عبارتند از:

  • "پنالتی ها آ. هر شخصی که هر یک از مفاد این فصل فرعی یا هر قانون ابلاغ شده به موجب این فصل فرعی را نقض کند، مسئول جریمه مدنی حداکثر تا 500 دلار برای اولین تخلف و هر تخلف اضافی که در همان روز اولین تخلف رخ می‌دهد و کمتر از آن نیست. 500 دلار یا بیشتر از 1,500 دلار برای هر تخلف بعدی» (NYC, Int 1894-2020, Subchapter 25, Section 20-872). اگر مشتاقانه به جمله بندی حقوقی علاقه دارید، زیرشاخه های دیگری وجود دارد که ممکن است بخواهید به آنها نگاهی بیندازید.

بدبینان و منتقدان معتقدند که مجازات ها به اندازه کافی سخت نیستند. یک شرکت بزرگ ظاهراً جریمه‌های ناچیز دلاری را مسخره می‌کند یا می‌خندد. برخی دیگر خاطرنشان می‌کنند که جریمه ممکن است بیش از حد انتظار باشد، به طوری که اگر یک شرکت روزانه هزار دلار تخلف داشته باشد (فقط یک سناریو، سناریوهای بسیار دیگری وجود دارد)، ارزش یک سال حدوداً خواهد بود. 365,000 دلار، با فرض اینکه شرکت به سادگی قانون را برای یک سال تمام نادیده گرفت و از انجام این کار دور شد (تصورش سخت به نظر می رسد، اما ممکن است اتفاق بیفتد، و حتی ممکن است در تئوری طولانی تر یا برای اوج بالاتر جریمه های روزانه رخ دهد).

در همین حال، برخی نگران کسب و کارهای کوچکتر و جریمه های مرتبط با آن هستند. اگر یک کسب‌وکار کوچک که به سختی زندگی خود را تامین می‌کند، با جریمه‌ها مواجه شود و ظاهراً این کار را با انگیزه‌ای عمدی برای دور زدن قانون انجام نداده باشد، جریمه‌ها می‌تواند بر کسب‌وکار پراکنده آنها تأثیر اساسی بگذارد.

ملاحظات مشکل ساز کیستون در موضوع

من یک سوال ساده و صریح از شما دارم.

در چارچوب این قانون، حسابرسی هوش مصنوعی دقیقاً چیست؟

مشکل ساز، هیچ نشانه قطعی در روایت قانون وجود ندارد. تنها چیزی که به نظر می رسد به ما گفته شده این است که "حسابرسی سوگیری" باید از طریق "ارزیابی بی طرفانه توسط حسابرس مستقل" (طبق عبارت قانون) انجام شود.

می توانید یک کامیون مک را از آن سوراخ شکاف برانید.

به همین دلیل است

این مثال نسبتا نگران کننده را در نظر بگیرید. یک کلاهبردار با یک شرکت در نیویورک تماس می گیرد و توضیح می دهد که آنها خدماتی را ارائه می دهند تا به اصطلاح "ممیزی سوگیری" AEDT خود را انجام دهند. آنها متعهد می شوند که این کار را "بی طرفانه" انجام خواهند داد (به هر معنی که باشد). آنها خود را به عنوان یک حسابرس مستقل معرفی می کنند و خود را به عنوان یک حسابرس معرفی کرده اند. بدون نیاز به هیچ نوع آموزش حسابداری یا حسابرسی، مدرک، گواهینامه، یا هر چیز دیگری. شاید آنها برای چاپ چند کارت ویزیت به زحمت می افتند یا با عجله یک وب سایت راه اندازی می کنند تا جایگاه حسابرس مستقل خود را تبلیغ کند.

آنها برای شرکت هزینه ای متوسط ​​مثلاً 100 دلار دریافت می کنند. خدمات آنها احتمالاً شامل پرسیدن چند سؤال در مورد AEDT و سپس اعلام این است که AEDT عاری از سوگیری است. سپس گزارشی به اندازه یک صفحه می فرستند و «نتایج» به اصطلاح حسابرسی را اعلام می کند. این شرکت با وظیفه شناسی این را در وب سایت خود پست می کند.

آیا شرکت این قانون را رعایت کرده است؟

به من بگو.

به نظر می رسد که دارند.

ممکن است بلافاصله متعجب شوید که ممیزی به صورت گذرا انجام شده است (که در این سناریوی خاص مودبانه و سخاوتمندانه است). ممکن است از این که تشخیص سوگیری (یا فقدان آن) اساساً از پیش تعیین شده بود، ناراحت باشید (به نظر می رسد شما بدون تعصب هستید). ممکن است از اینکه نتایج ارسال شده می تواند هاله ای از گذراندن یک حسابرسی دقیق توسط یک حسابرس باتجربه، آموزش دیده، با تجربه و خبره را به شما بدهد.

بله، این کار در مورد چیزهای بزرگتر انجام می شود.

ممکن است یک کارفرما از این که این شرط «احمقانه» را تکمیل کرده است، آسوده شود و از این که فقط 100 دلار برای آنها هزینه داشته است خوشحال باشد. کارفرما ممکن است در داخل و بی سر و صدا متوجه شود که حسابرسی مستقل یک هتک است، اما ظاهراً تصمیم گیری بر عهده آنها نیست. یک حسابرس مستقل ادعایی به آنها ارائه شد، حسابرس کارهایی را انجام داد که حسابرس گفته بود مطابقت دارد، شرکت هزینه آن را پرداخت کرد، آنها نتایج را دریافت کردند و نتایج را ارسال کردند.

برخی از کارفرمایان این کار را انجام می دهند و متوجه می شوند که آنها در حال انجام چشمک چشمک با قانون هستند. با این حال، آنها معتقدند که کاملاً مطابقت دارند.

سایر کارفرمایان ممکن است دچار مشکل شوند. تنها چیزی که آنها می دانند لزوم رعایت قانون است. خوشبختانه برای آنها (یا اینطور که آنها تصور می کنند)، یک "حسابرس مستقل" با آنها تماس می گیرد و قول می دهد که یک حسابرسی شکایت و نتیجه را می توان با 100 دلار دریافت کرد. برای جلوگیری از دریافت آن 500 دلار یا بیشتر جریمه روزانه، شرکت فکر می کند که هدیه ای از آسمان به آنها داده شده است. آنها 100 دلار را پرداخت می کنند، "ممیزی" انجام می شود، آنها یک صورت حساب رایگان در مورد عدم تعصبات هوش مصنوعی دریافت می کنند، نتایج را ارسال می کنند، و این را فراموش می کنند تا دفعه بعد که نیاز به انجام چنین ممیزی دیگری داشته باشند. .

چگونه هر شرکتی در نیویورک که مشمول این قانون است باید بداند که رعایت درستی با قانون چیست؟

در صورتی که تا حدودی معده خود را تکان نداده اید، می توانیم اوضاع را بدتر کنیم. امیدوارم در چند ساعت گذشته یک وعده غذایی نخورده باشید، از زمان پیچ بعدی، دست نخورده نگه داشتن آن سخت باشد.

آیا شما آماده هستید؟

به نظر می رسد این ارائه دهنده خدمات ساختگی بیش از آن چیزی که فکر می کردید، حیله گر است. آنها شرکت را وادار می کنند تا برای خدمات 100 دلاری ثبت نام کند تا حسابرسی سوگیری بی طرفانه را به عنوان یک حسابرس مستقل انجام دهد. ببینید، آنها "ممیزی" را انجام می دهند و متوجه می شوند که در هر گوشه و کنار AEDT تعصباتی وجود دارد.

آنها دارای تعصبات هوش مصنوعی مانند هجوم سوسک هستند.

بله، شرکت می گوید، چه کاری می توانیم در مورد آن انجام دهیم؟

مشکلی نیست، به آنها گفته می شود، ما می توانیم آن سوگیری های هوش مصنوعی را برای شما برطرف کنیم. به ازای هر سوگیری یافت شده فقط 50 دلار برای شما هزینه خواهد داشت. بسیار خوب، شرکت می گوید، لطفاً آنها را تعمیر کنید، با تشکر از انجام این کار. ارائه‌دهنده خدمات کمی مبهم کدگذاری را انجام می‌دهد و به شرکت می‌گوید که صد بایاس هوش مصنوعی را برطرف کرده است، و بنابراین 5,000 دلار از آنها دریافت می‌کند (این مبلغ 50 دلار برای هر سوگیری هوش مصنوعی است که باید در 100 مورد پیدا شده ضرب شود).

اوه، شرکت احساس فشار می کند، اما هنوز بهتر از مواجهه با تخلف 500 دلاری یا بیشتر در روز است، بنابراین آنها به "حسابرس مستقل" پول می پردازند و سپس گزارش جدیدی دریافت می کنند که نشان می دهد اکنون بدون تعصب هستند. آنها این را با افتخار در وب سایت خود ارسال می کنند.

آنها نمی دانند که این یک کلاهبرداری، یک کلاهبرداری، یک کلاهبرداری بود.

ممکن است اصرار داشته باشید که این ارائه دهنده خدمات باید به خاطر فریبکاری خود مجازات شود. گرفتن و متوقف کردن این کلاهبرداران بسیار سخت تر از آن چیزی است که تصور می کنید. درست مانند تعقیب شاهزادگان خارجی که ثروتی برای شما دارند، احتمالاً در سرزمینی خارج از دسترس قوانین ایالات متحده هستند، در این مورد نیز ممکن است همین اتفاق بیفتد.

انتظار می رود صنعت کلبه با توجه به این قانون جدید ظهور کند.

حسابرسان صادقی وجود خواهند داشت که به دنبال ارائه این خدمات هستند. برای آنها خوب است. حسابرسان طرحی وجود خواهند داشت که دنبال این کار خواهند رفت. حسابرسانی به دروغ اعلام می شوند که دنبال این کار می روند.

من اشاره کردم که سناریوی ارائه دهنده خدمات شامل درخواست 100 دلار برای انجام ممیزی به اصطلاح هوش مصنوعی است. این فقط یک مکان یابی ساخته شده بود. ممکن است برخی از آنها 10 دلار هزینه کنند (به نظر کلی می رسد). شاید حدود 50 دلار (هنوز ناقص). و غیره.

فرض کنید یک ارائه‌دهنده خدمات می‌گوید که انجام این کار 10,000 دلار هزینه دارد.

یا 100,000 دلار برای انجام آن.

احتمالاً 1,000,000 دلار برای انجام این کار.

برخی از کارفرمایان هیچ سرنخی در مورد اینکه این هزینه ممکن است یا باید چقدر باشد، ندارند. بازاریابی این خدمات برای همه رایگان خواهد بود. این یک قانون پولساز برای کسانی است که به طور قانونی این خدمات را انجام می دهند و برای کسانی که در انجام این کار دستکاری می کنند نیز یک قانون پولساز است. سخت خواهد بود که بدانیم کدام کدام است.

من همچنین از شما می خواهم که به یک سوراخ شکاف دیگر فکر کنید.

در چارچوب این قانون، دقیقاً چه چیزی سوگیری هوش مصنوعی را تشکیل می دهد؟

به غیر از ذکر کد مقررات فدرال ایالات متحده (این به خصوص به سوال سوگیری های هوش مصنوعی پاسخ نمی دهد و به عنوان یک نقطه توقف یا حل کننده در این مورد عمل نمی کند)، به سختی می توانید ادعا کنید که این جدید قانون هر گونه نشانه اساسی از تعصبات هوش مصنوعی ارائه می دهد. یک بار دیگر، این کاملاً برای تفاسیر کاملاً متفاوت باز خواهد بود و شما به خصوص نمی دانید که به دنبال چه چیزی بوده است، چه چیزی پیدا شده است، و غیره. همچنین، کار انجام شده توسط حسابرسان هوش مصنوعی حتی با حسن نیت به احتمال زیاد با دیگری غیرقابل مقایسه خواهد بود، به طوری که هر کدام تمایل دارند از تعاریف و رویکردهای اختصاصی خود استفاده کنند.

به طور خلاصه، ما می‌توانیم با ترس و نگرانی ببینیم که کارفرمایان در نتیجه این قانون نابسامان و البته خوش‌نیت‌شده با چه چیزی مواجه خواهند شد:

  • برخی از کارفرمایان قانون را می دانند و با جدیت و به طور کامل تا جایی که می توانند از آن پیروی می کنند
  • برخی از کارفرمایان در مورد قانون می دانند و به طور جزئی از باریک ترین، ارزان ترین و احتمالاً نامطلوب ترین مسیری که می توانند پیدا کنند یا به آستانشان می رسد پیروی می کنند.
  • برخی از کارفرمایان در مورد قانون می دانند و معتقدند که آنها در محدوده قانون نیستند، بنابراین کاری در مورد آن انجام نمی دهند (اگرچه به نظر می رسد، ممکن است در محدوده قانون باشند)
  • برخی از کارفرمایان از قانون می‌دانند و قاطعانه تصمیم می‌گیرند که آن را نادیده بگیرند، شاید با این باور که کسی متوجه نمی‌شود یا قانون اجرا نمی‌شود، یا قانون غیرقابل اجرا تشخیص داده می‌شود و غیره.
  • برخی از کارفرمایان در مورد قانون نمی‌دانند و با کف پا صاف گرفتار می‌شوند و برای رعایت کردن تلاش می‌کنند.
  • برخی از کارفرمایان از قانون خبر ندارند و بدبختانه توسط هنرمندان کلاهبردار مورد هجوم قرار خواهند گرفت
  • برخی از کارفرمایان در مورد قانون نمی دانند، آنها در محدوده کاری نیستند، اما به هر حال توسط هنرمندان متقلب که آنها را متقاعد می کند که در محدوده فعالیت هستند، از بین می روند.
  • برخی از کارفرمایان از قانون اطلاعی ندارند و هیچ کاری در مورد آن انجام نمی دهند، در حالی که به طور معجزه آسایی هرگز دستگیر نمی شوند یا تحت نظارت خود قرار نمی گیرند.
  • دیگر

یکی از ملاحظات مهمی که باید در نظر داشت، بزرگی یا مقیاس بندی مرتبط با این قانون جدید است.

با توجه به آمارهای گزارش شده مختلف در مورد تعداد مشاغل در شهر نیویورک، این تعداد معمولاً حدود 200,000 شرکت نشان داده می شود (بیایید از آن به عنوان یک مرتبه بزرگی استفاده کنیم). با فرض اینکه این یک تقریب معقول است، احتمالاً آن مشاغل به عنوان کارفرما مشمول این قانون جدید هستند. بنابراین، چندین روش ذکر شده در بالا را در نظر بگیرید که کارفرمایان می‌خواهند به این قانون واکنش نشان دهند و در نظر بگیرید که در هر یک از سطل‌های مختلفی که قبلاً ذکر کردم، چه تعداد خواهد بود.

این یک مسئله مقیاس پذیری نسبتاً خیره کننده است.

علاوه بر این، طبق آمارهای گزارش شده، شاید 4 میلیون شغل در بخش خصوصی در شهر نیویورک وجود داشته باشد، به اضافه حدود 300,000 کارمند دولتی که توسط دولت نیویورک استخدام شده اند (دوباره، به جای شمارش دقیق، از آنها به عنوان مرتبه بزرگی استفاده کنید). اگر در نظر بگیرید که استخدام‌های جدید ظاهراً در محدوده این قانون جدید است، همراه با ترفیعات مرتبط با همه آن کارگران فعلی و آینده، تعداد کارمندانی که به هر طریقی تحت تأثیر این قانون قرار می‌گیرند صراحتاً شگفت‌انگیز است. .

اپل بزرگ قانون جدیدی دارد که در نگاه اول بی ضرر و ظاهراً ناچیز یا پیش پا افتاده به نظر می رسد، با این حال وقتی متوجه عوامل پوسته شدن دخیل شوید، خوب، می تواند سرتان را به هم بریزد.

نتیجه

من در ابتدای این بحث اشاره کردم که این یک قانون جدید خوش فکر است.

همه چیزهایی را که من به عنوان حفره های احتمالی، حذفیات، شکاف ها، مشکلات و مواردی از این دست توصیف کردم، به راحتی قابل پیش بینی هستند. این علم موشک نیست. می‌توانم اضافه کنم، نگرانی‌های ذاتی‌تر و جنبه‌های گیج‌کننده‌تری در این قانون وجود دارد که به‌دلیل محدودیت‌های فضا در اینجا، من به آن اشاره نکرده‌ام.

شما می توانید آنها را به راحتی پیدا کنید که می توانید به ماهی در بشکه شلیک کنید.

قوانینی از این دست باید به دقت تدوین شوند تا سعی شود از این نوع از پایان‌های ابلهانه جلوگیری شود. من فرض می‌کنم که آهنگسازان جدی به دنبال نوشتن قانونی بودند که معتقد بودند نسبتاً سنگ‌آلود است و در بدترین حالت ممکن است این‌جا یا آنجا چکه‌های کوچکی داشته باشد. متأسفانه، آن یک لوله آتشین قطره ای است. مقدار زیادی نوار چسب مورد نیاز است.

آیا می‌توانست این قانون را به شیوه‌ای روشن‌تر نوشته شود تا این خلأهای نسبتاً آشکار و مسائل مرتبط را ببندد؟

بله، به وفور همینطور است.

اکنون، در این صورت، ممکن است با عصبانیت توصیه کنید که چنین قانونی بدون شک طولانی تر خواهد بود. همیشه یک معاوضه وجود دارد از داشتن قانونی که ادامه دارد و ادامه دارد، ناکارآمد می شود، در مقابل موجز و فشرده بودن. شما نمی خواهید با از دست دادن آنچه که وضوح و ویژگی اساسی و ارزشمند است، موجز به دست آورید. قانون کوتاهی که اجازه ی هذیان را می دهد، مملو از مشکلات است. یک قانون طولانی‌تر، حتی اگر به ظاهر پیچیده‌تر باشد، معمولاً اگر از مسائل پایین دستی در مرحله تصویب اجتناب کند، جلوگیری کند، یا حداقل آن را به حداقل برساند، یک معامله ارزشمند خواهد بود.

سنت آگوستین معروف است: "به نظر من قانون ناعادلانه اصلاً قانون نیست."

ما ممکن است نتیجه ای ارائه دهیم که یک قانون عادلانه که از زبان مشکل ساز تشکیل شده است، قانونی است که التماس برای ایجاد مشکلات غیرقابل تصور است. در این مورد، به نظر می رسد با سخنان حکیمانه حقوقدان بزرگ اولیور وندل هلمز جونیور، یعنی اینکه یک صفحه تاریخ ارزش یک پوند منطق را دارد، مانده ایم.

تماشا کنید زیرا به زودی تاریخ ساخته می شود.

منبع: https://www.forbes.com/sites/lanceeliot/2022/09/23/ai-ethics-and-the-looming-debacle-when-that-new-york-city-law-requiring-ai- سوگیری-ممیزی-ها-به-دنده/