توسط ساتا سرمه هایتاور
رهبران کسب و کار تمام ارزشی را که می توانند از هوش مصنوعی (AI) بیرون می کشند. یک مطالعه KPMG در سال 2021 نشان می دهد اکثر رهبران دولت، تولید صنعتی، خدمات مالی، خردهفروشی، علوم زیستی، و رهبران کسبوکار مراقبتهای بهداشتی میگویند که هوش مصنوعی حداقل در سازمانهایشان عملکرد متوسطی دارد.. این مطالعه همچنین نشان میدهد که نیمی از پاسخدهندگان میگویند که سازمانشان در پاسخ به همهگیری کووید-۱۹، پذیرش هوش مصنوعی را تسریع کرده است. در سازمان هایی که هوش مصنوعی در آن ها پذیرفته شده است، حداقل نیمی از آنها می گویند که این فناوری فراتر از انتظارات بوده است.
الگوریتمهای هوش مصنوعی به طور فزایندهای مسئول انواع تعاملات و نوآوریهای امروزی هستند - از شخصیسازیشده توصیه های محصول و خدمات مشتری تجربیات به بانک ها تصمیمات وام دهی و حتی پاسخ پلیس.
اما با وجود تمام مزایایی که ارائه میکنند، الگوریتمهای هوش مصنوعی در صورتی که بهطور مؤثری از نظر انعطافپذیری، انصاف، توضیحپذیری و یکپارچگی نظارت و ارزیابی نشوند، با خطرات بزرگی همراه هستند. برای کمک به رهبران کسب و کار در نظارت و ارزیابی هوش مصنوعی، مطالعه ذکر شده در بالا نشان می دهد که الف تعداد فزاینده ای از رهبران کسب و کار از دولت می خواهند که هوش مصنوعی را تنظیم کند تا به سازمان ها اجازه دهد در فناوری و فرآیندهای تجاری مناسب سرمایه گذاری کنند. برای پشتیبانی و نظارت لازم، عاقلانه است که ارزیابی های خارجی ارائه شده توسط یک ارائه دهنده خدمات با تجربه در ارائه چنین خدماتی را در نظر بگیرید. در اینجا سه دلیل وجود دارد.
1. الگوریتمها «جعبههای سیاه» هستند
الگوریتمهای هوش مصنوعی – که از دادهها برای حل مشکلات و بهینهسازی وظایف یاد میگیرند – سیستمها را هوشمندتر میکنند و آنها را قادر میسازند تا سریعتر از انسانها بینش جمعآوری و تولید کنند.
درو روزن، مدیر حسابرسی در KPMG، یک شرکت خدمات حرفهای پیشرو، توضیح میدهد که برخی از ذینفعان این الگوریتمها را «جعبههای سیاه» میدانند. به طور خاص، برخی از ذینفعان ممکن است درک نکنند که الگوریتم چگونه به یک تصمیم خاص رسیده است و بنابراین ممکن است به درستی یا درستی آن تصمیم اطمینان نداشته باشند.
روزن میگوید: «نتایج بهدستآمده از الگوریتم میتواند مستعد سوگیری و تفسیر نادرست نتایج باشد. این همچنین میتواند منجر به خطراتی برای واحد تجاری شود زیرا آنها از این نتایج استفاده میکنند و [آنها را] با مردم و سهامدارانشان به اشتراک میگذارند.»
برای مثال، الگوریتمی که از داده های معیوب استفاده می کند، در بهترین حالت بی اثر و در بدترین حالت مضر است. در عمل چه چیزی ممکن است به نظر برسد؟ یک چت ربات مبتنی بر هوش مصنوعی را در نظر بگیرید که اطلاعات حساب اشتباهی را در اختیار کاربران قرار می دهد یا یک ابزار ترجمه خودکار زبان که متن را به اشتباه ترجمه می کند. هر دو مورد میتوانند منجر به خطاهای جدی یا تفسیر نادرست برای نهادها یا شرکتهای دولتی و همچنین مؤلفهها و مشتریانی شوند که به تصمیمهای اتخاذ شده توسط آن الگوریتمها متکی هستند.
یکی دیگر از عوامل ایجاد مشکل جعبه سیاه زمانی است که سوگیری ذاتی در توسعه مدلهای هوش مصنوعی رخ میدهد و به طور بالقوه باعث تصمیمگیری مغرضانه میشود. به عنوان مثال، وام دهندگان اعتباری، به طور فزاینده ای از هوش مصنوعی برای پیش بینی ارزش اعتباری وام گیرندگان بالقوه برای تصمیم گیری در مورد وام استفاده می کنند. با این حال، زمانی که ورودی های کلیدی در هوش مصنوعی، مانند امتیاز اعتبار وام گیرنده بالقوه، ممکن است خطر ایجاد شود. دارای خطای مادی است، منجر به محرومیت آن افراد از وام می شود.
این امر نیاز به یک ارزیاب خارجی را برجسته میکند که بتواند بهعنوان یک ارزیاب بیطرف عمل کند و یک ارزیابی متمرکز، بر اساس معیارهای پذیرفتهشده، از ارتباط و قابلیت اطمینان دادههای تاریخی و مفروضاتی که یک الگوریتم را تقویت میکنند، ارائه دهد.
2. ذینفعان و تنظیم کننده ها خواستار شفافیت هستند
در سال 2022، هیچ الزامات گزارشگری فعلی برای هوش مصنوعی مسئول وجود نداشت. با این حال، روزن میگوید: «دقیقاً مانند اینکه چگونه نهادهای حاکم مقررات ESG [محیط زیست، اجتماعی و حاکمیتی] را به گزارش در مورد معیارهای خاص ESG، فقط یک مسئله زمان است که ما الزامات گزارش مقررات اضافی را برای هوش مصنوعی مسئول می بینیم."
در واقع، از 1 ژانویه 2023، شهر نیویورک اعمال می شود قانون محلی 144 مستلزم آن است که قبل از استفاده از ابزار تصمیم گیری استخدامی خودکار، حسابرسی سوگیری انجام شود.
و در سطح فدرال، قانون ملی ابتکار هوش مصنوعی 2020- که بر اساس یک فرمان اجرایی 2019- بر استانداردها و راهنمایی های فنی هوش مصنوعی تمرکز دارد. علاوه بر این، قانون پاسخگویی الگوریتمی می تواند به ارزیابی تاثیر سیستم های تصمیم گیری خودکار و فرآیندهای تصمیم گیری حیاتی تقویت شده نیاز داشته باشد. و در خارج از کشور، قانون هوش مصنوعی پیشنهاد شده است، یک چارچوب نظارتی جامع با اهداف خاص در مورد ایمنی هوش مصنوعی، انطباق، حاکمیت و قابلیت اعتماد ارائه میکند.
با این تغییرات، سازمان ها زیر یک میکروسکوپ حاکمیتی قرار می گیرند. یک ارزیاب الگوریتم ممکن است چنین گزارش هایی را ارائه دهد که الزامات قانونی را مورد توجه قرار دهد و شفافیت ذینفعان را افزایش دهد و در عین حال از خطر سوءتعبیر یا سوء تعبیر ذینفعان جلوگیری کند. گمراه توسط نتایج ارزیابی
3. شرکت ها از مدیریت ریسک بلند مدت سود می برند
استیو کامارا، یکی از شرکای عملکرد تضمین فناوری KPMG، پیشبینی میکند که سرمایهگذاریهای هوش مصنوعی همچنان به رشد خود ادامه میدهند، زیرا نهادها با خودکارسازی فرآیندها، توسعه نوآوریهایی که تجربه مشتری را بهبود میبخشد و توسعه هوش مصنوعی را در بین عملکردهای تجاری توزیع میکنند، ادامه خواهند داد. برای ماندن در رقابت و سودآوری، سازمانها به کنترلهای مؤثری نیاز دارند که نه تنها کاستیهای فوری هوش مصنوعی را برطرف کند، بلکه خطرات بلندمدت مرتبط با عملیات تجاری مبتنی بر هوش مصنوعی را نیز کاهش دهد.
اینجاست که ارزیاب های خارجی به عنوان یک منبع قابل اعتماد و باهوش وارد عمل می شوند. کامارا توضیح میدهد که از آنجایی که سازمانها بهطور فزایندهای از یکپارچگی هوش مصنوعی بهعنوان یک فعالکننده کسبوکار استقبال میکنند، این مشارکت ممکن است کمتر به یک سرویس موقت تبدیل شود و بیشتر به یک همکاری مداوم تبدیل شود.
او میگوید: «ما راهی رو به جلو میبینیم که در آن باید یک رابطه مستمر بین سازمانهایی که هوش مصنوعی را به طور مداوم توسعه و عملیاتی میکنند و یک ارزیاب خارجی عینی وجود داشته باشد.»
نگاهی به آنچه بعد می آید
در آینده، سازمانها ممکن است از ارزیابیهای خارجی بیشتر بر مبنای چرخهای استفاده کنند، زیرا برای مثال، مدلهای جدید را توسعه میدهند، منابع داده جدید را دریافت میکنند، راهحلهای فروشنده شخص ثالث را ادغام میکنند یا الزامات انطباق جدید را دنبال میکنند.
هنگامی که مقررات اضافی و الزامات انطباق الزامی می شود، ارزیاب های خارجی ممکن است بتوانند خدماتی را برای ارزیابی مستقیم اینکه یک سازمان هوش مصنوعی را در رابطه با این الزامات به خوبی مستقر کرده یا از آن استفاده کرده است، ارائه دهند. سپس این ارزیابان بهترین موقعیت را دارند تا نتایج ارزیابی را به شیوه ای واضح و ثابت به اشتراک بگذارند.
برای سرمایهگذاری بر روی فناوری و در عین حال محافظت در برابر محدودیتهای آن، یک سازمان باید به دنبال ارزیابهای خارجی برای ارائه گزارشهایی باشد که سپس میتواند برای نشان دادن شفافیت بیشتر در هنگام استقرار الگوریتمها به آنها تکیه کند. از آنجا، هم سازمان و هم ذینفعان می توانند قدرت هوش مصنوعی و محدودیت های آن را بهتر درک کنند.
منبع: https://www.forbes.com/sites/kpmg/2022/10/26/3-reasons-your-organization-will-need-external-algorithm-assessors/