کارشناسان استدلال می کنند که ابزارهای استخدام شغلی مبتنی بر هوش مصنوعی ممکن است تنوع استخدام را بهبود بخشند

TOPLINE

محققان دانشگاه کمبریج یکشنبه با ارائه این برنامه ها - که در گذشته مورد انتقاد قرار گرفته - استدلال کردند که ابزارهای استخدامی که ادعا می کنند از هوش مصنوعی برای جلوگیری از تعصبات جنسیتی و نژادی استفاده می کنند، ممکن است تنوع در استخدام را بهبود بخشند و در واقع می توانند این تعصبات را تداوم بخشند. به عنوان راهی برای استفاده از فناوری برای ارائه یک راه حل سریع برای یک مشکل عمیق تر.

حقایق اصلی

در مقاله ای که توسط فلسفه و فناوری، محققان ادعاهای چندین شرکت ارائه دهنده ابزارهای استخدام مبتنی بر هوش مصنوعی را بررسی کردند، که بسیاری از آنها ادعا می کنند با پنهان کردن نام، جنسیت و سایر شناسه های نامزدها، تعصبات را از بین می برند و تنوع را ترویج می کنند. رتبه بندی نامزدها بر اساس اسکن رزومه، ارزیابی آنلاین و تجزیه و تحلیل گفتار و حالات چهره متقاضیان.

محققان - دو استاد در مرکز مطالعات جنسیتی دانشگاه کمبریج - استدلال کردند که این ابزارها ممکن است در واقع یکنواختی در استخدام را تقویت کنند، زیرا آنها سوگیری های فرهنگی "نامزد ایده آل" را بازتولید می کنند، که از لحاظ تاریخی مردان سفیدپوست یا اروپایی بوده اند.

این ابزارها همچنین ممکن است تنوع را بهبود نبخشند زیرا بر اساس داده های گذشته شرکت هستند و بنابراین ممکن است نامزدهایی را که شبیه به کارمندان فعلی هستند ارتقا دهند.

النور دراگ، یکی از نویسندگان مطالعه و محقق با مرکز مطالعات جنسیتی دانشگاه کمبریج، در بیانیه ای گفت: «مسئولیت کمی در مورد نحوه ساخت یا آزمایش این محصولات وجود دارد، و افزود که این فناوری می تواند به عنوان یک «خطرناک» عمل کند. منبع "اطلاعات نادرست در مورد اینکه چگونه می توان استخدام را "غیر جانبدارانه" و عادلانه تر کرد."

نقل قول مهم

این شرکت‌ها با این ادعا که نژادپرستی، جنسیت‌گرایی و سایر اشکال تبعیض را می‌توان با استفاده از هوش مصنوعی از فرآیند استخدام حذف کرد، نژاد و جنسیت را به نقاط داده‌ای ناچیز کاهش می‌دهند، نه سیستم‌های قدرتی که نحوه حرکت ما را در جهان شکل می‌دهند. دراگ در بیانیه ای گفت.

مماس

آمازون در سال 2018 اعلام کرد که این کار را انجام خواهد داد متوقف کردن استفاده از ابزار استخدام هوش مصنوعی برای بررسی رزومه متقاضیان شغل پس از اینکه متوجه شد این سیستم به شدت علیه زنان تبعیض آمیز است. این به این دلیل است که مدل‌های رایانه‌ای که آن‌ها بر آن‌ها تکیه می‌کردند بر اساس رزومه‌هایی که طی 10 سال گذشته به شرکت ارسال شده بود، که عمدتاً از متقاضیان مرد تهیه شده بود، ایجاد شده‌اند.

پیشینه اصلی

سازمان ها به طور فزاینده ای به هوش مصنوعی روی آورده اند تا به مدیریت فرآیندهای استخدام شغل کمک کنند. در یک نظرسنجی 2020 از میان بیش از 300 نفر از رهبران منابع انسانی که نویسندگان مقاله روز یکشنبه به آنها اشاره کردند، شرکت مشاوره گارتنر دریافت که 86 درصد از کارفرمایان از فناوری مجازی در شیوه های استخدام خود استفاده می کنند، روندی که از زمانی که همه گیر کووید-19 بسیاری را مجبور به تغییر کار به صورت آنلاین کرد، شتاب گرفته است. در حالی که برخی از شرکت‌ها استدلال کرده‌اند که هوش مصنوعی می‌تواند فرآیند استخدام مقرون‌به‌صرفه‌تری را ارائه دهد، برخی کارشناسان داشته باشد یافت این سیستم ها تمایل به ترویج - به جای حذف - استخدام های نژادی و جنسیتی را با تکرار پیش داوری های موجود از دنیای واقعی دارند. چندین قانونگذار آمریکایی چنین کرده اند هدف برای مقابله با سوگیری ها در سیستم های هوش مصنوعی، زیرا این فناوری به سرعت در حال تکامل است و قوانین کمی برای تنظیم آن وجود دارد. کاخ سفید این هفته منتشر شد طرحی برای منشور حقوق هوش مصنوعی، که استدلال می‌کند الگوریتم‌های مورد استفاده در استخدام برای «انعکاس و بازتولید نابرابری‌های ناخواسته موجود» یا تعبیه «سوگیری و تبعیض» جدید یافت شده‌اند. این طرح - که از نظر قانونی الزام آور یا یک سیاست رسمی دولتی نیست - از شرکت ها می خواهد که اطمینان حاصل کنند که هوش مصنوعی حریم خصوصی داده ها را تبعیض نمی کند یا آن را نقض نمی کند و کاربران را از زمان استفاده از فناوری آگاه می کند.

چه چیزی برای تماشای

در فهرستی از توصیه ها، نویسندگان یکشنبه فلسفه و فناوری این مقاله به شرکت‌هایی که فناوری‌های هوش مصنوعی را توسعه می‌دهند، به جای «نمونه‌های فردی سوگیری»، بر نابرابری‌های گسترده‌تر و سیستماتیک پیشنهاد می‌کند. به عنوان مثال، آنها به توسعه‌دهندگان نرم‌افزار پیشنهاد می‌کنند که دسته‌هایی را که برای مرتب‌سازی، پردازش و طبقه‌بندی نامزدها استفاده می‌شوند و اینکه چگونه این دسته‌ها ممکن است با تکیه بر فرضیات خاصی در مورد جنسیت و نژاد، تبعیض را ترویج کنند، بررسی کنند. محققان همچنین معتقدند متخصصان منابع انسانی باید تلاش کنند تا بفهمند ابزارهای استخدام هوش مصنوعی چگونه کار می کنند و برخی از محدودیت های بالقوه آنها چیست.

واقعیت غافلگیرکننده

اتحادیه اروپا نرم‌افزار استخدام مبتنی بر هوش مصنوعی و ابزارهای ارزیابی عملکرد را به‌عنوان «پرخطر» طبقه‌بندی کرده است. پیش نویس چارچوب قانونی در زمینه هوش مصنوعی، به این معنی که ابزارها بیشتر مورد بررسی قرار می گیرند و باید الزامات انطباق خاصی را برآورده کنند.

برای مطالعه بیشتر

دی سی می خواهد مبارزه با تعصب هوش مصنوعی را رهبری کند (Axios)

منبع: https://www.forbes.com/sites/madelinehalpert/2022/10/09/ai-powered-job-recruitment-tools-may-not-improve-hiring-diversity-experts-argue/