3 دلیل که سازمان شما به ارزیاب های الگوریتم خارجی نیاز دارد

توسط ساتا سرمه هایتاور

رهبران کسب و کار تمام ارزشی را که می توانند از هوش مصنوعی (AI) بیرون می کشند. یک مطالعه KPMG در سال 2021 نشان می دهد اکثر رهبران دولت، تولید صنعتی، خدمات مالی، خرده‌فروشی، علوم زیستی، و رهبران کسب‌وکار مراقبت‌های بهداشتی می‌گویند که هوش مصنوعی حداقل در سازمان‌هایشان عملکرد متوسطی دارد.. این مطالعه همچنین نشان می‌دهد که نیمی از پاسخ‌دهندگان می‌گویند که سازمانشان در پاسخ به همه‌گیری کووید-۱۹، پذیرش هوش مصنوعی را تسریع کرده است. در سازمان هایی که هوش مصنوعی در آن ها پذیرفته شده است، حداقل نیمی از آنها می گویند که این فناوری فراتر از انتظارات بوده است.

الگوریتم‌های هوش مصنوعی به طور فزاینده‌ای مسئول انواع تعاملات و نوآوری‌های امروزی هستند - از شخصی‌سازی‌شده توصیه های محصول و خدمات مشتری تجربیات به بانک ها تصمیمات وام دهی و حتی پاسخ پلیس.

اما با وجود تمام مزایایی که ارائه می‌کنند، الگوریتم‌های هوش مصنوعی در صورتی که به‌طور مؤثری از نظر انعطاف‌پذیری، انصاف، توضیح‌پذیری و یکپارچگی نظارت و ارزیابی نشوند، با خطرات بزرگی همراه هستند. برای کمک به رهبران کسب و کار در نظارت و ارزیابی هوش مصنوعی، مطالعه ذکر شده در بالا نشان می دهد که الف تعداد فزاینده ای از رهبران کسب و کار از دولت می خواهند که هوش مصنوعی را تنظیم کند تا به سازمان ها اجازه دهد در فناوری و فرآیندهای تجاری مناسب سرمایه گذاری کنند. برای پشتیبانی و نظارت لازم، عاقلانه است که ارزیابی های خارجی ارائه شده توسط یک ارائه دهنده خدمات با تجربه در ارائه چنین خدماتی را در نظر بگیرید. در اینجا سه ​​دلیل وجود دارد.

1. الگوریتم‌ها «جعبه‌های سیاه» هستند

الگوریتم‌های هوش مصنوعی – که از داده‌ها برای حل مشکلات و بهینه‌سازی وظایف یاد می‌گیرند – سیستم‌ها را هوشمندتر می‌کنند و آنها را قادر می‌سازند تا سریع‌تر از انسان‌ها بینش جمع‌آوری و تولید کنند.

درو روزن، مدیر حسابرسی در KPMG، یک شرکت خدمات حرفه‌ای پیشرو، توضیح می‌دهد که برخی از ذینفعان این الگوریتم‌ها را «جعبه‌های سیاه» می‌دانند. به طور خاص، برخی از ذینفعان ممکن است درک نکنند که الگوریتم چگونه به یک تصمیم خاص رسیده است و بنابراین ممکن است به درستی یا درستی آن تصمیم اطمینان نداشته باشند.

روزن می‌گوید: «نتایج به‌دست‌آمده از الگوریتم می‌تواند مستعد سوگیری و تفسیر نادرست نتایج باشد. این همچنین می‌تواند منجر به خطراتی برای واحد تجاری شود زیرا آنها از این نتایج استفاده می‌کنند و [آنها را] با مردم و سهامدارانشان به اشتراک می‌گذارند.»

برای مثال، الگوریتمی که از داده های معیوب استفاده می کند، در بهترین حالت بی اثر و در بدترین حالت مضر است. در عمل چه چیزی ممکن است به نظر برسد؟ یک چت ربات مبتنی بر هوش مصنوعی را در نظر بگیرید که اطلاعات حساب اشتباهی را در اختیار کاربران قرار می دهد یا یک ابزار ترجمه خودکار زبان که متن را به اشتباه ترجمه می کند. هر دو مورد می‌توانند منجر به خطاهای جدی یا تفسیر نادرست برای نهادها یا شرکت‌های دولتی و همچنین مؤلفه‌ها و مشتریانی شوند که به تصمیم‌های اتخاذ شده توسط آن الگوریتم‌ها متکی هستند.

یکی دیگر از عوامل ایجاد مشکل جعبه سیاه زمانی است که سوگیری ذاتی در توسعه مدل‌های هوش مصنوعی رخ می‌دهد و به طور بالقوه باعث تصمیم‌گیری مغرضانه می‌شود. به عنوان مثال، وام دهندگان اعتباری، به طور فزاینده ای از هوش مصنوعی برای پیش بینی ارزش اعتباری وام گیرندگان بالقوه برای تصمیم گیری در مورد وام استفاده می کنند. با این حال، زمانی که ورودی های کلیدی در هوش مصنوعی، مانند امتیاز اعتبار وام گیرنده بالقوه، ممکن است خطر ایجاد شود. دارای خطای مادی است، منجر به محرومیت آن افراد از وام می شود.

این امر نیاز به یک ارزیاب خارجی را برجسته می‌کند که بتواند به‌عنوان یک ارزیاب بی‌طرف عمل کند و یک ارزیابی متمرکز، بر اساس معیارهای پذیرفته‌شده، از ارتباط و قابلیت اطمینان داده‌های تاریخی و مفروضاتی که یک الگوریتم را تقویت می‌کنند، ارائه دهد.

2. ذینفعان و تنظیم کننده ها خواستار شفافیت هستند

در سال 2022، هیچ الزامات گزارشگری فعلی برای هوش مصنوعی مسئول وجود نداشت. با این حال، روزن می‌گوید: «دقیقاً مانند اینکه چگونه نهادهای حاکم مقررات ESG [محیط زیست، اجتماعی و حاکمیتی] را به گزارش در مورد معیارهای خاص ESG، فقط یک مسئله زمان است که ما الزامات گزارش مقررات اضافی را برای هوش مصنوعی مسئول می بینیم."

در واقع، از 1 ژانویه 2023، شهر نیویورک اعمال می شود قانون محلی 144 مستلزم آن است که قبل از استفاده از ابزار تصمیم گیری استخدامی خودکار، حسابرسی سوگیری انجام شود.

و در سطح فدرال، قانون ملی ابتکار هوش مصنوعی 2020- که بر اساس یک فرمان اجرایی 2019- بر استانداردها و راهنمایی های فنی هوش مصنوعی تمرکز دارد. علاوه بر این، قانون پاسخگویی الگوریتمی می تواند به ارزیابی تاثیر سیستم های تصمیم گیری خودکار و فرآیندهای تصمیم گیری حیاتی تقویت شده نیاز داشته باشد. و در خارج از کشور، قانون هوش مصنوعی پیشنهاد شده است، یک چارچوب نظارتی جامع با اهداف خاص در مورد ایمنی هوش مصنوعی، انطباق، حاکمیت و قابلیت اعتماد ارائه می‌کند.

با این تغییرات، سازمان ها زیر یک میکروسکوپ حاکمیتی قرار می گیرند. یک ارزیاب الگوریتم ممکن است چنین گزارش هایی را ارائه دهد که الزامات قانونی را مورد توجه قرار دهد و شفافیت ذینفعان را افزایش دهد و در عین حال از خطر سوءتعبیر یا سوء تعبیر ذینفعان جلوگیری کند. گمراه توسط نتایج ارزیابی

3. شرکت ها از مدیریت ریسک بلند مدت سود می برند

استیو کامارا، یکی از شرکای عملکرد تضمین فناوری KPMG، پیش‌بینی می‌کند که سرمایه‌گذاری‌های هوش مصنوعی همچنان به رشد خود ادامه می‌دهند، زیرا نهادها با خودکارسازی فرآیندها، توسعه نوآوری‌هایی که تجربه مشتری را بهبود می‌بخشد و توسعه هوش مصنوعی را در بین عملکردهای تجاری توزیع می‌کنند، ادامه خواهند داد. برای ماندن در رقابت و سودآوری، سازمان‌ها به کنترل‌های مؤثری نیاز دارند که نه تنها کاستی‌های فوری هوش مصنوعی را برطرف کند، بلکه خطرات بلندمدت مرتبط با عملیات تجاری مبتنی بر هوش مصنوعی را نیز کاهش دهد.

اینجاست که ارزیاب های خارجی به عنوان یک منبع قابل اعتماد و باهوش وارد عمل می شوند. کامارا توضیح می‌دهد که از آنجایی که سازمان‌ها به‌طور فزاینده‌ای از یکپارچگی هوش مصنوعی به‌عنوان یک فعال‌کننده کسب‌وکار استقبال می‌کنند، این مشارکت ممکن است کمتر به یک سرویس موقت تبدیل شود و بیشتر به یک همکاری مداوم تبدیل شود.

او می‌گوید: «ما راهی رو به جلو می‌بینیم که در آن باید یک رابطه مستمر بین سازمان‌هایی که هوش مصنوعی را به طور مداوم توسعه و عملیاتی می‌کنند و یک ارزیاب خارجی عینی وجود داشته باشد.»

نگاهی به آنچه بعد می آید

در آینده، سازمان‌ها ممکن است از ارزیابی‌های خارجی بیشتر بر مبنای چرخه‌ای استفاده کنند، زیرا برای مثال، مدل‌های جدید را توسعه می‌دهند، منابع داده جدید را دریافت می‌کنند، راه‌حل‌های فروشنده شخص ثالث را ادغام می‌کنند یا الزامات انطباق جدید را دنبال می‌کنند.

هنگامی که مقررات اضافی و الزامات انطباق الزامی می شود، ارزیاب های خارجی ممکن است بتوانند خدماتی را برای ارزیابی مستقیم اینکه یک سازمان هوش مصنوعی را در رابطه با این الزامات به خوبی مستقر کرده یا از آن استفاده کرده است، ارائه دهند. سپس این ارزیابان بهترین موقعیت را دارند تا نتایج ارزیابی را به شیوه ای واضح و ثابت به اشتراک بگذارند.

برای سرمایه‌گذاری بر روی فناوری و در عین حال محافظت در برابر محدودیت‌های آن، یک سازمان باید به دنبال ارزیاب‌های خارجی برای ارائه گزارش‌هایی باشد که سپس می‌تواند برای نشان دادن شفافیت بیشتر در هنگام استقرار الگوریتم‌ها به آنها تکیه کند. از آنجا، هم سازمان و هم ذینفعان می توانند قدرت هوش مصنوعی و محدودیت های آن را بهتر درک کنند.

منبع: https://www.forbes.com/sites/kpmg/2022/10/26/3-reasons-your-organization-will-need-external-algorithm-assessors/