آزمایشگاههای Oasis از همکاری با متا و راهاندازی پلتفرمی برای ارزیابی عدالت در محصولات متا و در عین حال محافظت از حریم خصوصی افراد خبر دادند.
به عنوان فناوری متا شریکآزمایشگاههای Oasis پلتفرمی را ساختند که از محاسبات چند جانبه ایمن (SMPC) برای محافظت از اطلاعات استفاده میکند، زیرا متا از کاربران در اینستاگرام میخواهد نظرسنجی را انجام دهند که در آن میتوانند بهطور داوطلبانه نژاد یا قومیت خود را به اشتراک بگذارند.
این پروژه اندازهگیری انصاف را در مدلهای هوش مصنوعی پیش میبرد، که تأثیر مثبتی بر زندگی افراد در سراسر جهان خواهد داشت و برای کل جامعه مفید خواهد بود.
این اولین پلتفرم در نوع خود نقش مهمی در ابتکاری ایفا خواهد کرد که گام مهمی در جهت شناسایی منصفانه بودن یک مدل هوش مصنوعی و امکان کاهش مناسب است.
این پلتفرم چگونه عدالت را در مدلهای هوش مصنوعی ارزیابی میکند
تیمهای هوش مصنوعی متا، سهام اینستاگرام و حقوق مدنی یک نظرسنجی خارج از پلتفرم را برای افرادی که از اینستاگرام استفاده میکنند معرفی میکنند. از کاربران خواسته می شود که نژاد و/یا قومیت خود را به صورت داوطلبانه به اشتراک بگذارند.
دادههایی که توسط یک ارائهدهنده نظرسنجی شخص ثالث جمعآوری میشود، بهطور مخفیانه با تسهیلگران شخص ثالث به اشتراک گذاشته میشود، به گونهای که پاسخهای نظرسنجی کاربر توسط تسهیلگران یا متا قابل یادگیری نباشد.
سپس اندازهگیری توسط تسهیلکنندهها با استفاده از دادههای پیشبینی رمزگذاریشده از مدلهای هوش مصنوعی، که بهصورت رمزنگاری شده توسط متا به اشتراک گذاشته میشود، محاسبه میشود، و نتایج ترکیبی و شناسایینشده از هر تسهیلکننده به نتایج اندازهگیری انصاف کل توسط متا تبدیل میشود.
تکنیکهای رمزنگاری مورد استفاده توسط این پلتفرم، متا را قادر میسازد تا تعصب و انصاف را اندازهگیری کند و در عین حال افرادی را که دادههای سنجش جمعیتی حساس را با سطوح بالایی از حفاظت از حریم خصوصی ارائه میدهند، ارائه میدهد.
برای مطالعه بیشتر در مورد این پلتفرم، اهداف آن و راه اندازی، لطفاً از آن دیدن کنید اینجا کلیک نمایید.
متصل بمانید
اگر میخواهید در مورد پیشرفتهای آزمایشگاه Oasis بهروز باشید، لطفاً به آن بپیوندید:
اختلاف | توییتر | مشترک شدن در خبرنامه
سلب مسئولیت
تمام اطلاعات موجود در وب سایت ما با حسن نیت و فقط برای اهداف عمومی منتشر می شود. هر اقدامی که خواننده نسبت به اطلاعات موجود در وب سایت ما انجام می دهد ، کاملاً به خطر خود آنها است.
منبع: https://beincrypto.com/oasis-labs-partners-with-meta-to-assess-fairness-for-its-ai-models/