اخلاق هوش مصنوعی با احتیاط ارزیابی می کند که آیا ارائه تعصبات هوش مصنوعی جوایز شکار برای گرفتن و دستگیر کردن سیستم های کاملاً خودمختار شرور اخلاقی محتاطانه یا بیهوده است

تحت تعقیب: شکارچیان تعصب هوش مصنوعی.

این می تواند یک تبلیغ مدرن باشد که در کانال های رسانه های اجتماعی ظاهر می شود و در آگهی های مختلف شغلی آنلاین ظاهر می شود. این یک مفهوم یا نقش نسبتاً جدید است. جنجال هایی را به همراه دارد. برخی از مؤمنان پرشور به شدت استدلال می‌کنند که این امر کاملاً منطقی است و باید در تمام مدت اتفاق می‌افتاد، در حالی که برخی دیگر با عصبانیت کمی سر خاراندن جدی انجام می‌دهند و چندان مطمئن نیستند که این ایده خوبی است.

اصل این نقش شامل حذف هرگونه سوگیری پنهان یا شیوه های تبعیض آمیز تعبیه شده از هوش مصنوعی است. برای نجات شکارچیان مشتاق و کاملاً پیشین هوش مصنوعی می آیند. آنها احتمالاً شکارچیان جایزه‌های کامپیوتری خواهند بود. بیشتر، امیدواریم که در اعماق قابلیت های هوش مصنوعی غوطه ور باشد.

اسلحه داشته باشید، سفر کنید، و می توانید از طریق تیراندازی ماهر با هوش مصنوعی، آن سوگیری های ناخوشایند و نامطلوب هوش مصنوعی را افشا کنید.

این سؤالات زیادی را در مورد حساسیت دنبال کردن چنین تاکتیکی در هنگام کشف تعصبات هوش مصنوعی ایجاد می کند. همانطور که به طور لحظه ای بحث خواهم کرد، لطفاً بدانید که ظهور هوش مصنوعی نیز با خود باعث بروز سوگیری های هوش مصنوعی شده است. سیلی از تعصبات هوش مصنوعی. برای پوشش مداوم و گسترده من از اخلاق هوش مصنوعی و هوش مصنوعی اخلاقی، رجوع کنید پیوند اینجا و پیوند اینجا، فقط به نام چند.

چگونه متوجه شویم که یک سیستم هوش مصنوعی خاص دارای سوگیری است؟

ممکن است به توسعه دهندگان هوش مصنوعی که هوش مصنوعی را طراحی کرده اند، این کار را بسپارید. مسئله این است که آنها ممکن است چنان در تعصبات فرو رفته باشند که خودشان نتوانند تعصبات موجود در هوش مصنوعی ساختگی خود را تشخیص دهند. همه چیز برای آنها خوب به نظر می رسد. یا ممکن است آن‌قدر در مورد هوش مصنوعی هیجان‌زده باشند و نسبت به آن احساس غرور و غرور داشته باشند که بررسی آن از نظر سوگیری‌ها، دشوار و واقعی است. به نظر می‌رسد بسیاری از دلایل دیگر از این قبیل باعث می‌شود که توسعه‌دهندگان هوش مصنوعی این وظیفه را بر عهده نگیرند، از جمله فقدان مهارت برای کشف سوگیری‌های تعبیه‌شده، کمبود زمان در پروژه برای انجام این کار و غیره.

بسیار خوب، پس ادامه دهید و مشاوران خارجی را استخدام کنید تا کارهای کثیف را برای شما انجام دهند. معلوم شد که مشاوران با خوشحالی هوش مصنوعی شما را برای تعصبات بررسی می‌کنند و برای انجام این کار مبلغ بسیار زیادی از شما دریافت می‌کنند (پنی‌های بسیار زیادی). متوجه باشید که برای سرعت بخشیدن به سیستم هوش مصنوعی خود باید برای آنها هزینه پرداخت کنید. سپس باید آنها را به گشت و گذار بپردازید، که ممکن است تعداد بی شماری از ساعات پرهزینه و پرهزینه طول بکشد. اگر بودجه کافی برای آن دارید، استفاده از مشاوران یک گزینه است.

در «شکاف» بالقوه نحوه یافتن آن تعصبات موذیانه هوش مصنوعی، شکارچیان جایزه قهرمانانه و باهوش تعصبات هوش مصنوعی وارد می شوند.

شما معمولاً به آنها پولی را از قبل پرداخت نمی کنید. آن‌ها سعی می‌کنند تعصبات هوش مصنوعی را در زمان خود پیدا کنند و باید هزینه‌های خود را در حین انجام این کار پرداخت کنند. فقط در صورتی که با موفقیت سوگیری ها را پیدا کنند، دستمزد دریافت می کنند. گمان می‌کنم شما می‌توانید به آسانی ادعا کنید که در یک تفکر مناسب، این تعریف مرسوم از شکارچی فضل است. در صورت موفقیت پول دریافت کنید. اگر موفق نشدید پولی دریافت نکنید. دوره، پایان داستان.

برنامه‌های جایزه حداقل از زمان رومی‌ها وجود داشته‌اند و بنابراین می‌توانیم حدس بزنیم که آنها کار می‌کنند و با موفقیت به عنوان یک عمل در تمام این سال‌ها دوام آورده‌اند.

در اینجا یک قطعه جذاب از نکات بی اهمیت تاریخی برای شما آورده شده است. بر اساس گزارش ها، یک پیام ارسال شده در دوران امپراتوری روم در شهر پمپئی اعلام می کرد که برای یافتن یک دیگ مسی که از یک مغازه کوچک گم شده بود، به شکارچیان جایزه نیاز بود. پاداش بازیابی دیگ مسی، جایزه چشمگیر شصت و پنج سکه برنزی بود. متأسفیم که نمی دانیم آیا هیچ شکارچی فضلی دیگ مسی را پیدا کرده و سکه های برنزی را ادعا کرده است یا خیر، اما می دانیم که شکار فضل مطمئناً از آن دوران باستان ادامه داشته است.

در دوران مدرن تر، ممکن است بدانید که در دهه 1980 برخی از جوایز قابل توجهی برای یافتن باگ ها یا خطاهای رایانه در بسته های نرم افزاری ارائه شده وجود داشت و سپس در دهه 1990 نت اسکیپ به طور قابل توجهی برای یافتن اشکالات در مرورگر وب خود جایزه ای را ارائه کرد. (تبدیل شدن به یکی از برجسته ترین شرکت های آن روز برای انجام این کار). گوگل و فیسبوک هر کدام به ترتیب از سال 2010 و 2013 به دنبال شکار باگ ها بودند. چند سال بعد، در سال 2016، حتی وزارت دفاع ایالات متحده (DoD) با انجام یک تلاش جایزه "هک پنتاگون" وارد عمل شد (توجه داشته باشید که جایزه متمرکز عمومی برای اشکالاتی بود که در وب سایت های مختلف مربوط به وزارت دفاع یافت می شد و نه در سیستم های مأموریت دفاعی حیاتی).

بیایید عمیق‌تر به موضوع پاداش باگ بپردازیم. من متوجه هستم که در این بحث عمدتاً قصد دارم در مورد تعصبات هوش مصنوعی در شکار جایزه صحبت کنم، اما موارد مشابهی کاملاً مرتبط با عرصه پاداش اشکال وجود دارد.

برخی به وضوح متحیر هستند که هر شرکتی می‌خواهد برای یافتن اشکالات (یا در این مورد، سوگیری‌های هوش مصنوعی) در سیستم‌های خود پاداشی ارائه دهد.

در ظاهر، این یک نوع استراتژی به نظر می رسد "شما آن را می خواهید". اگر به دنیا بفهمانید که از کسانی که می‌خواهند سوراخ‌هایی در نرم‌افزار شما پیدا کنند استقبال می‌کنید، به نظر می‌رسد که به سارقان بگویید جلوتر رفته و سعی کنند به خانه شما نفوذ کنند. حتی اگر قبلاً معتقدید که یک سیستم دزدگیر بسیار خوب دارید و هیچ کس نباید بتواند وارد خانه امن شما شود، تصور کنید که از سارقین بخواهید که همه به محل زندگی شما بروند و ببینند که آیا می توانند. شکاف در آن آه از دردسرهایی که برای خود می بافیم.

همین امر را می توان در مورد درخواست از شکارچیان جایزه برای یافتن سوگیری در هوش مصنوعی شما نیز گفت.

اول، شاید به این معنی باشد که شما قبلاً باور دارید یا حتی کاملاً می دانید که هوش مصنوعی شما دارای سوگیری است. این یک اعتراف صریح و تکان دهنده است که به نظر می رسد تعداد کمی مایل به انجام آن هستند و به طور بالقوه می تواند نتیجه معکوس داشته باشد.

دوم، شما مطمئن نیستید که آن شکارچیان فضل ممکن است چه کاری انجام دهند. آنها می توانند به تمام دنیا بگویند که در هوش مصنوعی شما تعصباتی پیدا کرده اند. فرض می‌شود که ممکن است این جایزه از دست برود، اگرچه برخی ممکن است از توجه لذت ببرند یا هدفشان تقویت وضعیت خود برای برگزاری کنسرت‌های مشاوره و سایر امکانات درآمدزا باشد. شاید کاملاً نوع دوستانه باشد. این ممکن است نوعی فعالیت هوش مصنوعی باشد. میتونم ادامه بدم

ثالثاً، ممکن است یک چرخش یواشکی در کل ماجرا وجود داشته باشد. یک شکارچی جایزه که ادعا می‌کند به دنبال سوگیری‌های هوش مصنوعی است، ممکن است شیطانی به دنبال راه‌هایی برای حمله به سیستم هوش مصنوعی شما باشد. همه چیز برای انجام یک حمله سایبری شدید در نهایت یک جنایت است. ممکن است تصور کرده باشید که آنها در حال تلاش برای کمک بودند، در حالی که آنها در قلب خود کار نادرستی دارند. غم انگیز، اما ممکن است.

چهارم، ما می‌توانیم به طرز حیله‌گرانه‌تری در این مورد دچار انحراف شویم. یک شکارچی جوایز برخی از تعصبات هوش مصنوعی شرم آور و احتمالاً محرک دعوی قضایی را پیدا می کند. جایزه مقداری دلار است که ما آن را X می نامیم. شکارچی جایزه به جای ادعای جایزه، نوعی تحریک باج افزار عجیب و غریب انجام می دهد. اگر به شکارچی جایزه ده برابر X یا شاید آسمان سقف آن را بپردازید، آنها در مورد تعصبات هوش مصنوعی به شما خواهند گفت. برای پاسخگویی تا یکشنبه شب فرصت دارید. پس از آن مقطع زمانی، سوگیری های هوش مصنوعی برای همه آشکار می شود. بله، یک مخمصه وحشتناک است.

پنجم، آخرین آنها آن دسته از دزدهای سایبری به اصطلاح «هک برای بازگشت» هستند که پس از دزدیدن یک دسته خمیر آنلاین، تصمیم می‌گیرند که توبه کنند و مقداری از غنیمت به دست آمده را که به‌طور ناخوشایندی به دست آورده‌اند، بازگردانند. شرکتی که بخشی از پول خود را بازگردانده است، پس از آن مایل است که مبلغ باقیمانده به سرقت رفته را به عنوان پاداش پس از واقع به سارقان در نظر بگیرد. به نظر می‌رسد که همه «برنده» می‌شوند، زیرا بخش عمده‌ای از وجوه پس داده می‌شود و در عین حال کلاهبرداران سایبری از نظر قانونی تحت تعقیب قرار نمی‌گیرند، به علاوه آنها جایزه دزدان دریایی را دریافت می‌کنند. آیا این احتیاط یا تداوم موذیانه اعمال نادرست است؟

من متوجه هستم که ممکن است برخی از شما می گویید که هیچ کس نباید هوش مصنوعی را منتشر کند که دارای هرگونه سوگیری باشد. به نظر می رسد که این همه معضل را در مورد استفاده از شکارچیان جایزه تعصبات هوش مصنوعی حل کند یا خیر. فقط خودت را در موقعیت انعام قرار نده. اطمینان حاصل کنید که توسعه دهندگان هوش مصنوعی شما کار درست را انجام می دهند و اجازه تعصبات هوش مصنوعی را به سیستم های هوش مصنوعی خود نمی دهند. شاید از مشاوران برای بررسی مجدد استفاده کنید. در اصل، هر کاری را که نیاز دارید انجام دهید تا از فکر کردن یا درخواست از آن شکارچیان جایزه تعصب هوش مصنوعی برای آمدن به میز اجتناب کنید.

بله، این کاملا معقول به نظر می رسد. مشکل اینجاست که کمی هم رویایی است. پیچیدگی بسیاری از سیستم‌های هوش مصنوعی به حدی زیاد است که تلاش برای اطمینان از اینکه حتی یک اونس از تعصبات هوش مصنوعی ظاهر نمی‌شود، کار دشواری است. علاوه بر آن، برخی از سیستم‌های هوش مصنوعی عمداً برای تنظیم و «یادگیری» در حین پیش‌روی طراحی شده‌اند. این بدان معنی است که در یک مقطع زمانی آینده، هوش مصنوعی که شما ابداع کردید، که اجازه دهید در ابتدا وانمود کنیم که کاملاً تمیز و بدون تعصب است، ممکن است به سمت تجسم تعصبات جذب شود (منظورم این نیست که به روشی انسان‌نما، همانطور که بیشتر توضیح خواهم داد. با این موضوع همراه باشید).

کسانی که طرفدار شکار جایزه برای اشکالات نرم افزاری هستند، مستعد این هستند که استدلال کنند که ارائه چنین جوایز منطقی است. می‌توانیم منطق آنها را در نظر بگیریم و ببینیم که آیا در حوزه تعصبات هوش مصنوعی نیز صدق می‌کند یا خیر.

طرفداران پاداش های اشکال تاکید می کنند که به جای تلاش برای تظاهر به اینکه هیچ حفره ای در سیستم شما وجود ندارد، چرا حفره ها را تشویق نکنید که این کار را به شیوه ای "کنترل شده" انجام دهید؟ در مقابل، بدون چنین تلاش فضلی، شما فقط می توانید امیدوار باشید و دعا کنید که به طور تصادفی هیچ کس سوراخی پیدا نکند، اما اگر به جای آن انعام بدهید و به کسانی که سوراخی را پیدا کرده اند بگویید که پاداش خواهند گرفت، این یک پیشنهاد می دهد. این فرصت را دارید که سپس به تنهایی سوراخ را تقویت کنید و سپس از یافتن مخفیانه آن توسط دیگران در زمان بعدی جلوگیری کنید.

همین امر را می توان در مورد استفاده از تعصبات هوش مصنوعی نیز گفت. اگر جایزه کافی ارائه دهید، امیدواریم که شکارچیان جایزه کشف سوگیری های هوش مصنوعی را به شما جلب کنند. سپس می توانید با تعصبات هوش مصنوعی به روشی نسبتاً آرام و سنجیده کنار بیایید. این ممکن است بعداً از یک مشکل بسیار بزرگتر و دلهره آورتر جلوگیری کند، یعنی اینکه شخص دیگری تعصبات هوش مصنوعی را در هوش مصنوعی شما پیدا کند و در مورد آن به آسمان بلند فریاد بزند.

به طور کلی، شرکتی که مایل به فعال کردن تلاش برای شکار باگ است، یک خط مشی افشای آسیب پذیری (VDP) را اعمال می کند. VDP نشان می دهد که چگونه اشکالات باید پیدا شوند و به شرکت گزارش شوند، همراه با نحوه ارائه پاداش یا جایزه به شکارچی. معمولاً، VDP از شکارچی می خواهد که در نهایت یک قرارداد عدم افشا (NDA) را امضا کند تا آنچه را که پیدا کرده است برای دیگران فاش نکند.

مفهوم استفاده از NDA با شکارچیان جایزه دارای اختلاف نظر است. اگرچه ممکن است برای شرکتی که این جایزه را ارائه می دهد منطقی باشد که بخواهد نورهای کشف شده را برای مادر نگه دارد، همچنین گفته می شود که آگاهی کلی در مورد چنین اشکالاتی را خفه می کند. احتمالاً، اگر اجازه داده شود درباره اشکالات نرم افزاری صحبت شود، به طور بالقوه به ایمنی سیستم های دیگر در شرکت های دیگر کمک می کند که سپس قرار گرفتن در معرض آنها را تقویت می کنند. برخی از شکارچیان جایزه NDA را امضا نمی کنند، تا حدی به دلیل تمایل عمومی و بخشی به دلیل تلاش برای پنهان نگه داشتن هویت خود. همچنین به خاطر داشته باشید که جنبه NDA معمولاً تا زمانی که شکارچی ادعا می کند که یک اشکال را پیدا کرده است به وجود نمی آید، نه اینکه از قبل به آن نیاز داشته باشد.

برخی از VDP ها تصریح می کنند که NDA فقط برای یک دوره زمانی محدود است و به شرکت اجازه می دهد ابتدا راه حلی برای حفره ظاهری پیدا کند و سپس امکان افشای گسترده تر در مورد آن را فراهم کند. هنگامی که سوراخ بسته شد، شرکت اجازه می دهد تا NDA را شل کند تا بقیه جهان بتوانند از این اشکال مطلع شوند. طبق گزارش‌ها، زمانی که یک شرکت بخواهد فوراً آن را وصل کند، زمان حل معمول برای باگ‌های شکار جایزه حدود 15 تا 20 روز است، در حالی که در موارد دیگر ممکن است 60 تا 80 روز طول بکشد. از نظر پرداخت پاداش به شکارچی جایزه، به اصطلاح زمان پرداخت، پس از تأیید وجود سوراخ، طبق گزارش‌ها، پرداخت‌های جوایز بین 15 تا 20 روز برای نمونه‌های کوچکتر و حدود 50 تا 60 روز است. روز برای نمونه های بزرگتر (اینها به طور مداوم نشانه های صنعت در حال تغییر هستند و فقط به عنوان مصور ذکر می شوند).

آیا هوش مصنوعی باید از شکارچیان جایزه نیز خواسته شود که در VDP شرکت کنند و با NDA برخورد کنند؟

شما می توانید به این سوال یک بله و یک نه دریافت کنید. بله، برخی از شرکت ها باید این مسیر را طی کنند. نه، ممکن است لزوماً آن مسیر را انتخاب نکنید. عواملی شامل اندازه و ماهیت هوش مصنوعی، پتانسیل هرگونه مواجهه با سوگیری های هوش مصنوعی، و دسته ای دیگر از ملاحظات اخلاقی، قانونی و تجاری است که قابل اجراست.

من می‌توانم اضافه کنم که ایجاد یک تلاش برای شکار جایزه برای تعصبات هوش مصنوعی شما، سفارشی بسیار بلندتر از آن چیزی است که در یک نگاه اولیه تصور می‌کنید.

ما با این احتمال بزرگ شروع خواهیم کرد که شما توسط شکارچیان جایزه تعصبات هوش مصنوعی غرق شوید.

در حال حاضر، به سختی می توانید بسیاری را پیدا کنید که چنین کارت تلفنی داشته باشند. این اطراف زیاد نیست از این نظر روزهای غرب وحشی است. اما اگر مفهوم تعصبات هوش مصنوعی در شکار جایزه مطرح شود، به خصوص زمانی که انعام‌ها فراوان و با ارزش هستند، می‌توانید شرط ببندید که همه به استخر شکار تعصبات شیرجه خواهند زد.

آیا می‌خواهید انواع ریفراف را دنبال کنید تا تعصبات هوش مصنوعی را در سیستم هوش مصنوعی خود دنبال کنید؟ شما برخی از افراد را دریافت خواهید کرد که در واقع در این نوع کارها متخصص هستند. شما گیرندگان دیگری خواهید داشت که آماتور هستند و ممکن است باعث آشفتگی یا گریه گرگ شوند. نکته بعدی که می‌دانید، هر کسی که می‌تواند «هوش مصنوعی» را بنویسد، می‌آید تا در معدن طلای شما از یک سیستم هوش مصنوعی برای آن قطعه‌های طلای باارزش تعصبات هوش مصنوعی حفاری کند. عجله طلا در راه است. این ممکن است برای شما خوب نباشد.

شما باید موارد ارسالی شکارچی فضل را بررسی کنید. در ادعاهای گزارش شده "سر و صدا" زیادی وجود خواهد داشت، به این معنا که بسیاری از تعصبات ادعایی هوش مصنوعی وجود ندارند، اگرچه شکارچی جایزه اصرار دارد که برخی از آنها را پیدا کرده اند. تصور کنید که تیم‌های هوش مصنوعی شما برای بررسی ادعاهای جایزه، بررسی اعتبار هر کدام، و سپس به طور بالقوه با شکارچی فضل در مورد کشف یا عدم کشف طلا به چه مقدار کار نیاز دارند.

برخی استدلال می کنند که این دلیل دیگری برای انجام کل کار است. ممکن است به ناچار متوجه شوید که چیز فضلی بیش از ارزش آن دردسر دارد.

در اینجا یک سوال دیگر برای تأمل وجود دارد. شکارچیان جایزه چگونه می دانند که تعصب هوش مصنوعی چگونه به نظر می رسد؟ در اصل، بدون شباهت چیزی که باید به دنبال آن باشید، می‌توان ادعا کرد که هر سنگ براقی نشان‌دهنده تعصب هوش مصنوعی در معدن طلای هوش مصنوعی در حال حفاری است.

در روزگار غرب قدیم، فرض کنید برای دستگیری بیلی کید (یک قانون شکن معروف) جایزه ای ارائه کرده اید. اگر این کار را کردید و تصویری از شکل ظاهری بیلی درج نکردید، تصور کنید چه تعداد از شکارچیان جوایز ممکن است فردی را که امیدوار بودند یا فکر می‌کردند بیلی بچه است، به دفتر کلانتری بکشانند. ممکن است غرق بیلی کاذب شوید. این بد است زیرا احتمالاً باید به هر یک نگاه کنید، سؤالات تحقیقی بپرسید و سعی کنید مطمئن شوید که آیا آن شخص واقعاً بیلی بوده است یا خیر.

نکته این است که برای راه‌اندازی تلاش‌های پاداش تعصبات هوش مصنوعی، عاقلانه است که سعی کنید و روشن کنید که سوگیری‌های هوش مصنوعی شامل چه مواردی است. این نیاز به یک نوع کالیبراسیون Goldilocks دارد. شما نمی خواهید آنقدر محصور باشید که شکارچیان جایزه به تعصبات هوش مصنوعی چشم پوشی کنند، صرفاً به این دلیل که آنها با تعریف تعیین شده شما مطابقت ندارند، و همچنین نمی خواهید آنها فریاد بزنند "اورکا!" در هر ذره ای از تعصب هوش مصنوعی که آنها احتمالاً پیدا می کنند.

شما فقط به تعادل Goldilocks مناسبی نیاز دارید که سوگیری های هوش مصنوعی از آن تشکیل شده است و بنابراین ترجیحاً جهت های صریح آن را ارائه دهید.

بسیاری از این شکار جایزه تعصبات هوش مصنوعی بر روی سیستم‌های یادگیری ماشینی مبتنی بر هوش مصنوعی (ML) و یادگیری عمیق (DL) متمرکز خواهند شد. از آنجایی که ظهور فراگیری ML/DL در حال رشد است، منطقی است، به‌علاوه به نظر می‌رسد برخی از محتمل‌ترین چالش‌های دربرگرفتن سوگیری‌های بی‌رویه هوش مصنوعی را دارد.

این محققان شناسایی می‌کنند که تلاش برای شکار جایزه تعصبات هوش مصنوعی تا چه حد می‌تواند برجسته باشد، به‌ویژه در زمینه ML/DL: «با گذشت زمان، نرم‌افزار و جوامع امنیتی در تلاشی برای تغییر پویایی‌های مشابه بین توسعه‌دهندگان سیستم و منتقدانشان، «موارد باگ» را توسعه داده‌اند. (یا هکرها) به سمت اهداف تعاملی و سازنده تر. امید این است که با دعوت عمدی از طرف‌های خارجی برای یافتن اشکالات نرم‌افزاری یا سخت‌افزاری در سیستم‌های خود، و اغلب ارائه مشوق‌های پولی برای انجام این کار، اکوسیستم سالم‌تر و سریع‌تر واکنش نشان دهد. طبیعی است که جامعه ML رویکرد مشابهی را برای کشف و تعمیر به موقع مدل‌ها و سیستم‌های دارای سوگیری یا سایر رفتارهای نامطلوب در نظر بگیرد. به‌جای یافتن اشکالات در نرم‌افزار، طرف‌های خارجی برای یافتن سوگیری‌ها دعوت می‌شوند - به عنوان مثال، زیرگروه‌های ورودی (جمعیت‌شناختی یا دیگر) که یک مدل آموزش‌دیده در آنها عملکرد ضعیفی دارد - و برای انجام این کار پاداش می‌گیرند (در مقاله «چارچوب الگوریتمی برای تعصب» Bounties» توسط ایرا گلوبوس هریس، مایکل کرنز و آرون راث).

در مقاله تحقیقاتی، نویسندگان یک رویکرد پیشنهادی برای اینکه چه نوع سوگیری‌های هوش مصنوعی را می‌توان توسط شکارچیان جایزه جستجو کرد، ترسیم می‌کنند. همچنین نشانه ای در مورد چگونگی ارزیابی ادعاهای شکارچی جایزه مرتبط با سوگیری های ادعایی هوش مصنوعی کشف شده وجود دارد. طبق اظهارات قبلی من در اینجا، احتمال این است که شما ادعاهای عجیب و غریبی دریافت کنید و مجبور شوید گندم بایاس هوش مصنوعی را از کاه جدا کنید.

قبل از پرداختن به گوشت و سیب زمینی بیشتر در مورد ملاحظات وحشی و پشمی که زمینه شکار تعصب هوش مصنوعی را فراهم می کند، اجازه دهید برخی اصول اضافی را در مورد موضوعات عمیقاً یکپارچه ایجاد کنیم. ما باید به طور مختصر به اخلاق هوش مصنوعی و به ویژه ظهور یادگیری ماشینی (ML) و یادگیری عمیق (DL) نگاهی بیاندازیم.

ممکن است به طور مبهم آگاه باشید که یکی از بلندترین صداها این روزها در زمینه هوش مصنوعی و حتی خارج از حوزه هوش مصنوعی، فریاد زدن برای ظاهری بیشتر از هوش مصنوعی اخلاقی است. بیایید نگاهی به معنای ارجاع به اخلاق هوش مصنوعی و هوش مصنوعی اخلاقی بیندازیم. علاوه بر این، وقتی از یادگیری ماشینی و یادگیری عمیق صحبت می‌کنم، منظورم را بررسی خواهیم کرد.

یک بخش یا بخش خاصی از اخلاق هوش مصنوعی که توجه رسانه ها را به خود جلب کرده است شامل هوش مصنوعی است که سوگیری ها و نابرابری های نامناسبی را نشان می دهد. ممکن است بدانید که زمانی که آخرین دوره هوش مصنوعی آغاز شد، شور و شوق زیادی برای آنچه که اکنون برخی می‌گویند وجود داشت. هوش مصنوعی برای خوب. متأسفانه، در پاشنه آن هیجان فوران، ما شروع به مشاهده کردیم هوش مصنوعی برای بد. برای مثال، سیستم‌های مختلف تشخیص چهره مبتنی بر هوش مصنوعی حاوی سوگیری‌های نژادی و سوگیری‌های جنسیتی هستند که من در مورد آن بحث کرده‌ام. پیوند اینجا.

تلاش برای مبارزه با هوش مصنوعی برای بد به طور فعال در حال انجام هستند. علاوه بر پر سر و صدا حقوقی تلاش برای مهار تخلفات، همچنین فشار اساسی به سمت پذیرش اخلاق هوش مصنوعی برای اصلاح شرارت هوش مصنوعی وجود دارد. تصور این است که ما باید اصول کلیدی هوش مصنوعی اخلاقی را برای توسعه و توسعه هوش مصنوعی اتخاذ و تأیید کنیم تا این کار را کاهش دهیم. هوش مصنوعی برای بد و به طور همزمان منادی و ترویج مرجح هوش مصنوعی برای خوب.

در یک مفهوم مرتبط، من طرفدار تلاش برای استفاده از هوش مصنوعی به عنوان بخشی از راه حل مشکلات هوش مصنوعی هستم، و با این شیوه تفکر با آتش مبارزه می کنم. برای مثال، ممکن است اجزای هوش مصنوعی اخلاقی را در یک سیستم هوش مصنوعی تعبیه کنیم که بر نحوه انجام بقیه هوش مصنوعی نظارت می‌کند و بنابراین به طور بالقوه در زمان واقعی هرگونه تلاش تبعیض آمیز را جلب می‌کند. پیوند اینجا. ما همچنین می‌توانیم یک سیستم هوش مصنوعی جداگانه داشته باشیم که به عنوان نوعی مانیتور اخلاق هوش مصنوعی عمل می‌کند. سیستم هوش مصنوعی به عنوان یک ناظر برای ردیابی و تشخیص اینکه چه زمانی هوش مصنوعی دیگر به ورطه غیراخلاقی می رود عمل می کند (تحلیل من از چنین قابلیت هایی را در اینجا ببینید. پیوند اینجا).

در یک لحظه، من برخی از اصول کلی زیربنای اخلاق هوش مصنوعی را با شما به اشتراک خواهم گذاشت. تعداد زیادی از این نوع لیست ها اینجا و آنجا شناور هستند. می توان گفت که هنوز فهرست منحصر به فردی از جذابیت و توافق جهانی وجود ندارد. این خبر تاسف بار است. خبر خوب این است که حداقل لیست‌های اخلاقی هوش مصنوعی وجود دارد که کاملاً مشابه هستند. در مجموع، این نشان می‌دهد که با نوعی همگرایی مستدل، راه خود را به سوی یک اشتراک کلی از آنچه اخلاق هوش مصنوعی تشکیل می‌دهد، پیدا می‌کنیم.

ابتدا، اجازه دهید به طور مختصر برخی از قوانین کلی اخلاقی هوش مصنوعی را پوشش دهیم تا نشان دهیم چه چیزی باید برای هر کسی که در حال ساخت، ساخت و یا استفاده از هوش مصنوعی است، اهمیت حیاتی داشته باشد.

به عنوان مثال، همانطور که توسط واتیکان در فراخوان رم برای اخلاق هوش مصنوعی و همانطور که به طور عمیق به آن پرداخته ام پیوند اینجا، این شش اصل اصلی اخلاق هوش مصنوعی شناسایی شده آنها است:

  • شفافیت: در اصل، سیستم های هوش مصنوعی باید قابل توضیح باشند
  • نقص: نیازهای همه انسانها باید مورد توجه قرار گیرد تا همه بتوانند از آن بهره ببرند و بهترین شرایط ممکن برای ابراز وجود و پیشرفت به همه افراد ارائه شود.
  • مسئوليت: کسانی که استفاده از هوش مصنوعی را طراحی و اجرا می کنند باید با مسئولیت و شفافیت پیش بروند
  • بی طرفی: از ایجاد و یا عمل بر اساس تعصب، در نتیجه حفظ انصاف و کرامت انسانی
  • قابلیت اطمینان: سیستم های هوش مصنوعی باید بتوانند به طور قابل اعتماد کار کنند
  • امنیت و حریم خصوصی: سیستم های هوش مصنوعی باید ایمن کار کنند و به حریم خصوصی کاربران احترام بگذارند.

همانطور که توسط وزارت دفاع ایالات متحده (DoD) در آنها بیان شده است اصول اخلاقی برای استفاده از هوش مصنوعی و همانطور که به طور عمیق به آن پرداخته ام پیوند اینجا، این شش اصل اصلی اخلاق هوش مصنوعی آنهاست:

  • مسئول: پرسنل وزارت دفاع سطوح مناسبی از قضاوت و مراقبت را اعمال خواهند کرد و در عین حال مسئولیت توسعه، استقرار و استفاده از قابلیت‌های هوش مصنوعی را بر عهده خواهند داشت.
  • منصفانه: این وزارتخانه اقدامات عمدی را برای به حداقل رساندن سوگیری ناخواسته در قابلیت‌های هوش مصنوعی انجام خواهد داد.
  • قابل ردیابی: قابلیت‌های هوش مصنوعی این وزارتخانه به گونه‌ای توسعه و مستقر خواهد شد که پرسنل مربوطه درک مناسبی از فناوری، فرآیندهای توسعه، و روش‌های عملیاتی قابل اجرا برای قابلیت‌های هوش مصنوعی، از جمله روش‌شناسی شفاف و قابل ممیزی، منابع داده‌ها، روش‌ها و مستندات طراحی داشته باشند.
  • قابل اعتماد: قابلیت‌های هوش مصنوعی این وزارتخانه کاربردهای مشخص و مشخصی خواهند داشت، و ایمنی، امنیت و اثربخشی چنین قابلیت‌هایی مشمول آزمایش و اطمینان در آن کاربردهای تعریف‌شده در کل چرخه عمر آن‌ها خواهد بود.
  • قابل اداره: این وزارتخانه قابلیت‌های هوش مصنوعی را طراحی و مهندسی می‌کند تا عملکردهای مورد نظر خود را انجام دهد، در حالی که توانایی شناسایی و اجتناب از پیامدهای ناخواسته را دارد، و توانایی جدا کردن یا غیرفعال کردن سیستم‌های مستقری که رفتار ناخواسته را نشان می‌دهند.

من همچنین در مورد تجزیه و تحلیل‌های جمعی مختلف از اصول اخلاق هوش مصنوعی بحث کرده‌ام، از جمله پوشش مجموعه‌ای ابداع شده توسط محققان که ماهیت بسیاری از اصول اخلاقی هوش مصنوعی ملی و بین‌المللی را در مقاله‌ای تحت عنوان «چشم‌انداز جهانی دستورالعمل‌های اخلاق هوش مصنوعی» (منتشر شده) بررسی و فشرده کرده است. که در طبیعت) و پوشش من در آن بررسی می شود پیوند اینجا، که منجر به این لیست کلیدی شد:

  • شفافیت
  • عدالت و انصاف
  • عدم سوء استفاده
  • مسئوليت
  • حریم خصوصی
  • سود رسانی
  • آزادی و خودمختاری
  • اعتماد
  • پایداری
  • کرامت
  • اتحاد

همانطور که ممکن است مستقیماً حدس بزنید، تلاش برای مشخص کردن جزئیات زیربنای این اصول می تواند بسیار سخت باشد. حتی بیشتر از آن، تلاش برای تبدیل این اصول گسترده به چیزی کاملاً ملموس و با جزئیات کافی برای استفاده در هنگام ساخت سیستم‌های هوش مصنوعی نیز یک مهره سخت است. به طور کلی می توان در مورد اینکه اصول اخلاقی هوش مصنوعی چیست و چگونه باید به طور کلی آنها را رعایت کرد، دست تکان داد، در حالی که وضعیت بسیار پیچیده تر در کدنویسی هوش مصنوعی است که باید لاستیک واقعی باشد که با جاده مطابقت می کند.

اصول اخلاقی هوش مصنوعی باید توسط توسعه دهندگان هوش مصنوعی، همراه با آنهایی که تلاش های توسعه هوش مصنوعی را مدیریت می کنند، و حتی آنهایی که در نهایت سیستم های هوش مصنوعی را انجام می دهند، مورد استفاده قرار گیرد. تمام ذینفعان در طول چرخه عمر توسعه و استفاده هوش مصنوعی در محدوده رعایت هنجارهای تثبیت شده هوش مصنوعی اخلاقی در نظر گرفته می شوند. این نکته مهمی است زیرا فرض معمول این است که «فقط کدنویس‌ها» یا کسانی که هوش مصنوعی را برنامه‌ریزی می‌کنند، مشمول رعایت مفاهیم اخلاق هوش مصنوعی هستند. همانطور که قبلاً گفته شد، برای ابداع و به کارگیری هوش مصنوعی به یک دهکده نیاز است، و برای آن کل دهکده باید به اصول اخلاقی هوش مصنوعی مسلط باشد و از آن پیروی کند.

بیایید همچنین مطمئن شویم که در مورد ماهیت هوش مصنوعی امروزی همسو هستیم.

امروزه هیچ هوش مصنوعی وجود ندارد که حساس باشد. ما این را نداریم ما نمی دانیم که آیا هوش مصنوعی ممکن خواهد بود یا خیر. هیچ کس نمی تواند به درستی پیش بینی کند که آیا ما به هوش مصنوعی خواهیم رسید یا خیر، یا اینکه آیا هوش مصنوعی به طور معجزه آسایی به شکلی از ابرنواختر شناختی محاسباتی پدید خواهد آمد (که معمولاً به عنوان تکینگی شناخته می شود، پوشش من را در اینجا ببینید. پیوند اینجا).

نوع هوش مصنوعی که من روی آن تمرکز می کنم شامل هوش مصنوعی غیر حساسی است که امروز داریم. اگر بخواهیم به شدت در مورد آن حدس بزنیم با احساس هوش مصنوعی، این بحث می تواند در جهتی کاملاً متفاوت پیش رود. ظاهراً یک هوش مصنوعی با کیفیت انسانی خواهد بود. شما باید در نظر داشته باشید که هوش مصنوعی حسی معادل شناختی یک انسان است. علاوه بر این، از آنجایی که برخی گمانه زنی می کنند که ممکن است هوش مصنوعی فوق هوشمند داشته باشیم، می توان تصور کرد که چنین هوش مصنوعی می تواند در نهایت از انسان ها باهوش تر باشد (برای کاوش من در مورد هوش مصنوعی فوق هوشمند به عنوان یک احتمال، نگاه کنید به پوشش در اینجا).

بیایید همه چیز را روی زمین نگه داریم و هوش مصنوعی محاسباتی غیر حساس امروزی را در نظر بگیریم.

درک کنید که هوش مصنوعی امروزی قادر به «فکر کردن» به هیچ شکلی با تفکر انسان نیست. وقتی با الکسا یا سیری تعامل می کنید، ظرفیت های مکالمه ممکن است شبیه ظرفیت های انسانی به نظر برسد، اما واقعیت این است که محاسباتی است و فاقد شناخت انسانی است. آخرین دوره هوش مصنوعی از یادگیری ماشینی (ML) و یادگیری عمیق (DL) استفاده گسترده ای کرده است که از تطابق الگوی محاسباتی استفاده می کند. این منجر به سیستم‌های هوش مصنوعی شده است که ظاهری شبیه به تمایلات انسان دارند. در همین حال، هیچ هوش مصنوعی امروزی وجود ندارد که شباهتی به عقل سلیم داشته باشد و هیچ یک از شگفتی‌های شناختی تفکر قوی انسانی را نداشته باشد.

ML/DL نوعی تطبیق الگوی محاسباتی است. روش معمول این است که شما داده ها را در مورد یک کار تصمیم گیری جمع آوری می کنید. داده ها را به مدل های کامپیوتری ML/DL وارد می کنید. آن مدل ها به دنبال یافتن الگوهای ریاضی هستند. پس از یافتن چنین الگوهایی، در صورت یافتن، سیستم هوش مصنوعی در هنگام مواجهه با داده های جدید از آن الگوها استفاده خواهد کرد. پس از ارائه داده های جدید، الگوهای مبتنی بر داده های "قدیمی" یا تاریخی برای ارائه یک تصمیم فعلی استفاده می شود.

من فکر می کنم می توانید حدس بزنید که این به کجا می رود. اگر انسان‌هایی که بر اساس تصمیم‌گیری‌های الگو گرفته شده‌اند، سوگیری‌های نامطلوب را در خود جای داده‌اند، احتمال این وجود دارد که داده‌ها این را به روش‌های ظریف اما قابل توجهی منعکس کنند. تطبیق الگوی محاسباتی یادگیری ماشینی یا یادگیری عمیق به سادگی سعی می‌کند تا داده‌ها را مطابق با ریاضی تقلید کند. هیچ شباهتی از عقل سلیم یا سایر جنبه های حساس مدل سازی ساخته شده با هوش مصنوعی به خودی خود وجود ندارد.

علاوه بر این، توسعه دهندگان هوش مصنوعی نیز ممکن است متوجه نباشند که چه اتفاقی در حال رخ دادن است. ریاضیات محرمانه در ML/DL ممکن است کشف سوگیری های پنهان در حال حاضر را دشوار کند. شما به حق امیدوارید و انتظار دارید که توسعه‌دهندگان هوش مصنوعی سوگیری‌های بالقوه مدفون را آزمایش کنند، اگرچه این دشوارتر از آن چیزی است که به نظر می‌رسد. این احتمال وجود دارد که حتی با آزمایش نسبتاً گسترده، سوگیری‌هایی همچنان در مدل‌های تطبیق الگوی ML/DL وجود داشته باشد.

می‌توانید تا حدودی از ضرب‌المثل معروف یا بدنام زباله‌های درون زباله‌ها استفاده کنید. مسئله این است که این بیشتر شبیه سوگیری‌هایی است که به‌طور موذیانه به‌عنوان سوگیری‌هایی که در هوش مصنوعی غوطه‌ور می‌شوند، القا می‌شوند. الگوریتم تصمیم‌گیری (ADM) هوش مصنوعی به طور اصولی مملو از نابرابری‌ها می‌شود.

خوب نیست.

اکنون به موضوع شکار سوگیری هوش مصنوعی برگردیم.

برای کسانی از شما که به دنبال تلاش برای شکار جایزه تعصب هوش مصنوعی هستند، در اینجا هفت گام کلیدی توصیه شده من در مورد چگونگی ادامه دادن به بهترین شکل آمده است:

1) ارزیابی کنید. مناسب بودن تلاش برای شکار جایزه تعصب هوش مصنوعی را برای شرایط خود و بر اساس سیستم های هوش مصنوعی خود ارزیابی کنید.

2) طرح. یک رویکرد شکار جایزه تعصب هوش مصنوعی مناسب طراحی کنید

3) پیاده سازی. تلاش‌های خود را برای شکار جایزه تعصب هوش مصنوعی اجرا و عمومی کنید

4) میدان. ادعاهای پاداش تعصبات هوش مصنوعی را وارد کنید و بر اساس آن پردازش کنید

5) رفع. هوش مصنوعی خود را مطابق با این سوگیری های کشف شده هوش مصنوعی اصلاح یا تنظیم کنید

6) تنظیم کردن. در صورت نیاز، شکار جایزه تعصبات هوش مصنوعی را تنظیم کنید

7) قطع کنید. وقتی دیگر نیازی به شکار جایزه تعصب هوش مصنوعی نیست، آن را متوقف کنید

در سری مراحل بالا، توجه داشته باشید که ذکر می‌کنم که احتمالاً می‌خواهید هوش مصنوعی خود را بر اساس اطمینان از اینکه سوگیری AI ادعا شده در واقع در سیستم هوش مصنوعی شما وجود دارد، اصلاح یا تنظیم کنید. این به وفور منطقی است. تقریباً مطمئناً می خواهید هرگونه تعصبات هوش مصنوعی پیدا شده را تقویت کنید. اگر این کار را نکنید، به پیامدهای قانونی (و اخلاقی) فکر کنید. این یک چیز است که ادعا کنید نمی‌دانستید سوگیری هوش مصنوعی وجود دارد و بنابراین اجازه داده‌اید که وجود داشته باشد، در حالی که این موضوع بسیار متزلزل‌تر است که در سابقه داشته باشید که از تعصب هوش مصنوعی آگاه شده‌اید و هیچ کاری در مورد آن انجام نداده‌اید.

ماهیت و درجه اصلاح یا تعدیل هوش مصنوعی البته به این بستگی دارد که سوگیری‌های هوش مصنوعی چقدر مهم بوده و مسائل تا چه حد عمیق هستند. اگر خوش شانس باشید، شاید مقدار کمی از تغییرات در هوش مصنوعی مسائل را اصلاح کند. پتانسیل دیگر این است که ممکن است نیاز به بازنویسی کامل هوش مصنوعی داشته باشید. برای نوع ML/DL AI، این می‌تواند مستلزم بازگشت به صفحه طراحی و شروع تازه با مجموعه‌ای کاملاً جدید از داده‌ها و یک مدل ML/DL تمیز شده باشد. من در مورد ظهور از بین رفتن هوش مصنوعی یا تخریب هوش مصنوعی به عنوان یک راه حل قانونی بالقوه در برابر هوش مصنوعی نامطلوب بحث کرده ام. پیوند اینجا.

یک سوال که باید در مورد آن فکر کنید این است که آیا می خواهید شکارچیان جایزه احتمالاً چیزی بیش از تشخیص وجود تعصبات هوش مصنوعی انجام دهند؟ برای مثال، می‌توانید با نشان دادن اینکه اصلاحات پیشنهادی نیز استقبال می‌شود، جایزه را شیرین کنید. تعصب هوش مصنوعی یافت توسط یک شکارچی فضل ممکن است یک جایزه یا جایزه مشخص شده پرداخت شود. در صورتی که شکارچی فضل نیز می تواند یک کار مفید ارائه دهد تعمیر در مقابل تعصب هوش مصنوعی ممکن است پاداش اضافی به آنها اعطا شود.

برخی استدلال می کنند که این یک پل بسیار دور است. آنها می گویند که شما باید شکارچیان جایزه تعصب هوش مصنوعی را منحصراً روی یافتن سوگیری های هوش مصنوعی متمرکز کنید. شما می‌خواهید با دعوت از آنها برای پیشنهاد راه‌حل‌ها، مجموعه‌ای از پیامدهای نامطلوب ایجاد کنید. همه چیز را ساده نگه دارید. هدف این است که به همان اندازه چشم‌های بیشتری برای کشف سوگیری‌های هوش مصنوعی داشته باشید تا بتوانید تصمیم بگیرید که چه کاری انجام دهید. آب ها را گل آلود نکنید.

یک جنبه خاردار که باید کشف شود مستلزم بزرگی پاداش یا جایزه برای شکارچیان فضل است که واقعاً تعصبات هوش مصنوعی را کشف می کنند. شما می خواهید که بازدهی نمایشی باشد. بدون پاداش به اندازه کافی بالا، شما شکارچیان جایزه زیادی دریافت نخواهید کرد یا آنها به خصوص مشتاق جستجوی سوگیری های هوش مصنوعی در سیستم های هوش مصنوعی شما نخواهند بود. آنها ممکن است در عوض روی دیگر تلاش‌های انعام تعصب هوش مصنوعی تمرکز کنند.

علاوه بر این، همانطور که گفته شد، شما می‌خواهید تلاش کنید و اصرار شکارچیان جایزه را برای تبدیل اکتشافات تعصب هوش مصنوعی به اشکال دیگر طلا سرکوب کنید. اگر پاداش ناچیز به نظر می رسد، می تواند شکارچیان فضل را به دنبال بازده های بالاتر دیگر برانگیزد. آنها می توانند یک رویکرد باج افزار نسبت به شما داشته باشند. آنها ممکن است اعلام کنند که یک تعصب هوش مصنوعی آبدار دارند که یک رقیب دوست دارد در مورد آن بداند و می تواند با تبلیغ اینکه تعصب هوش مصنوعی در هوش مصنوعی شما وجود دارد علیه شرکت شما استفاده کند. بنابراین، آنها سوگیری هوش مصنوعی کشف شده را به بالاترین پیشنهاد می‌فروشند. و غیره.

یکی فرض می‌کند که اگر پاداش را در محدوده بسیار بالایی قرار دهید، همچنین از شما درخواست مشکل احتمالی می‌کنید. این می تواند همه نوع شکارچیان با ارزش های آجیلی را جذب کند. آنها به نوبه خود ممکن است رسانه‌های اجتماعی را با ادعاهای مبهم مبنی بر اینکه بسیاری از سوگیری‌های هوش مصنوعی پیدا کرده‌اند، غرق کنند، این کار را برای تبلیغ خود و بدون اینکه در واقع هیچ گونه تعصبات هوش مصنوعی داشته باشند، انجام می‌دهند. به یک معنا، پاداش افزایش یافته شما به طور ناخواسته نوری را به هوش مصنوعی شما می تاباند و باعث می شود تعداد زیادی از پروانه های نازک به همان نسبت به طور مضر جذب پرتو نور درخشان شوند.

ملاحظات دیگر شامل دسترسی به هوش مصنوعی شما است.

برای فعال کردن امکان شکار جایزه هوش مصنوعی، شکارچیان جایزه باید به اندازه کافی به هوش مصنوعی شما دسترسی داشته باشند. اگر کاملاً قفل شوند، در یافتن سوگیری‌های هوش مصنوعی شانس زیادی نخواهند داشت. اما شما نمی خواهید از محافظت های امنیتی سایبری خود دست بکشید زیرا انجام این کار می تواند سیستم هوش مصنوعی شما را به طور کامل به خطر بیندازد.

ممکن است سعی کنید از شکارچیان جایزه بخواهید اعلامیه های مختلف قانونی الزام آور را امضا کنند و سپس دسترسی مورد نیاز را برای آنها فراهم کنید. برخی از شکارچیان جایزه این نوع رویکرد را دوست ندارند. دیدگاه آنها این است که آنها فقط هر کاری را انجام می دهند که هر مسیری که در دسترس عموم باشد و بدون پایان اجازه دهد. آن‌ها مثل آن‌ها ماوریک‌های آزاد هستند، و مثل اینکه زین شدن را دوست ندارند. واداشتن آنها به قراردادن امضای خود بر روی اسناد قانونی ترسناک باعث می شود که بسیاری از آنها از جستجوی سوگیری های هوش مصنوعی در هوش مصنوعی خودداری کنند. یا ممکن است از دستکش قانونی شما غافلگیر شوند و تصمیم بگیرند که ببینند چه چیزی می توانند از طریق وسایل عمومی پیدا کنند، این کار را با این اصرار شدید انجام دهند تا به شما نشان دهند واقعاً چقدر آسیب پذیر هستید.

من یک زاویه دیگر دارم که ممکن است باعث شود سر شما بچرخد.

یک شکارچی باهوش هوش مصنوعی ممکن است تصمیم بگیرد یک سیستم هوش مصنوعی ابداع کند که بتواند هوش مصنوعی شما را بررسی کند و احتمالاً سوگیری های هوش مصنوعی را در هوش مصنوعی شما کشف کند. این ابزارساز است که ترجیح می دهد به جای انجام کار دستی، ابزاری برای انجام کار بسازد. به جای بررسی سخت هوش مصنوعی شما، شکارچی جایزه با هوش مصنوعی وقت خود را صرف ساختن ابزار هوش مصنوعی می کند که همان کار را انجام می دهد. سپس از ابزار هوش مصنوعی روی هوش مصنوعی شما استفاده می کنند. زیبایی آن نیز این است که احتمالاً می‌توانند از ابزار هوش مصنوعی برای هر کس دیگری استفاده کنند که فرصت شکار جایزه را در هوش مصنوعی مربوطه خود نیز ارائه می‌دهد.

من می دانم که احتمالاً به چه چیزی فکر می کنید. اگر بتوان یک ابزار هوش مصنوعی برای بررسی تعصبات هوش مصنوعی ابداع کرد، سازنده هوش مصنوعی که برای تعصبات هوش مصنوعی مورد بررسی قرار می گیرد باید یا چنین ابزار هوش مصنوعی را بسازد یا برای استفاده خود بخرد. در تئوری، آنها برای شروع نیازی به مبارزه با کل کارناوال شکارچی فضل ندارند. فقط از هوش مصنوعی برای یافتن سوگیری های هوش مصنوعی آنها استفاده کنید.

بله، این چیزی است که می توانید انتظار داشته باشید که به تدریج ایجاد شود. در همین حال، ستون اصلی این تلاش‌ها احتمالاً شامل توسعه‌دهندگان هوش مصنوعی خواهد بود که شکار جایزه انجام می‌دهند. آن‌ها ممکن است از ابزارهای مختلفی برای کمک به تلاش‌های خود استفاده کنند، اما در کوتاه‌مدت، بعید است که به سادگی ابزار هوش مصنوعی را روی خودکار تنظیم کنند و چرت بزنند که این ابزار تمام تعصبات هوش مصنوعی را برای آنها انجام دهد.

ما هنوز آنجا نیستیم

در این مقطع از این بحث سنگین، شرط می بندم که شما خواهان نمونه های گویا هستید که ممکن است این موضوع را به نمایش بگذارد. مجموعه‌ای از نمونه‌های خاص و مطمئناً محبوب وجود دارد که به دلم نشسته است. ببینید، به عنوان یک متخصص در زمینه هوش مصنوعی از جمله پیامدهای اخلاقی و قانونی، اغلب از من خواسته می‌شود که نمونه‌های واقع‌بینانه‌ای را که معضلات اخلاقی هوش مصنوعی را نشان می‌دهند شناسایی کنم تا بتوان ماهیت تا حدودی نظری موضوع را راحت‌تر درک کرد. یکی از جذاب‌ترین زمینه‌هایی که این معضل اخلاقی هوش مصنوعی را به وضوح نشان می‌دهد، ظهور خودروهای خودران واقعی مبتنی بر هوش مصنوعی است. این به عنوان یک مورد استفاده مفید یا نمونه ای برای بحث و گفتگوی کافی در مورد موضوع خواهد بود.

پس در اینجا یک سوال قابل توجه وجود دارد که قابل تامل است: آیا ظهور خودروهای خودران واقعی مبتنی بر هوش مصنوعی چیزی در مورد استفاده از شکار جایزه تعصب هوش مصنوعی روشن می کند، و اگر چنین است، این چه چیزی را به نمایش می گذارد؟

یک لحظه به من اجازه دهید تا پرسش را باز کنم.

اول، توجه داشته باشید که هیچ راننده انسانی در یک ماشین خودران واقعی دخیل نیست. به خاطر داشته باشید که خودروهای خودران واقعی از طریق سیستم رانندگی هوش مصنوعی هدایت می شوند. نه نیازی به راننده انسان پشت فرمان وجود دارد و نه پیش بینی ای برای رانندگی وسیله نقلیه توسط انسان وجود دارد. برای پوشش گسترده و مداوم من در مورد وسایل نقلیه خودران (AVs) و به خصوص خودروهای خودران، نگاه کنید به پیوند اینجا.

مایلم بیشتر توضیح دهم که منظور از خودروهای خودران واقعی چیست.

درک سطح اتومبیل های خودران

به عنوان یک توضیح، خودروهای خودران واقعی، خودروهایی هستند که هوش مصنوعی خودرو را کاملاً به تنهایی رانندگی می کند و هیچ کمک انسانی در طول کار رانندگی وجود ندارد.

این وسایل نقلیه بدون راننده سطح 4 و سطح 5 در نظر گرفته می شوند (توضیحات من را در اینجا ببینید این لینک در اینجا) در حالی که خودرویی که نیاز به یک راننده انسانی برای مشارکت در رانندگی دارد معمولاً در سطح 2 یا سطح 3 در نظر گرفته می شود. افزودنی های خودکار که به عنوان ADA شناخته می شوندADA
S (سیستم های پیشرفته کمک راننده).

هنوز یک خودروی خودران واقعی در سطح 5 وجود ندارد، و ما هنوز حتی نمی دانیم که آیا امکان دستیابی به آن وجود دارد یا خیر، و نه اینکه چقدر طول می کشد تا به آنجا برسیم.

در همین حال ، تلاش های سطح 4 به تدریج در تلاشند تا با انجام آزمایشات عمومی بسیار باریک و انتخابی در جاده ها ، کمی به سمت خود جلب کنند ، هرچند در مورد اینکه آیا این آزمایش به خودی خود مجاز است یا خیر ، اختلاف نظر وجود دارد (همه ما در یک آزمایش خوکچه هندی زنده یا مرگ هستیم) برخی از آنها ادعا می كنند كه در بزرگراهها و گذرگاههای ما در حال انجام است این لینک در اینجا).

از آنجا که اتومبیل های نیمه خودمختار به یک راننده انسانی احتیاج دارند ، تصویب آن دسته از اتومبیل ها تفاوت چندانی با رانندگی وسایل نقلیه معمولی نخواهد داشت ، بنابراین به تنهایی چیز جدیدی برای پوشش آنها در این موضوع وجود ندارد (هر چند ، همانطور که خواهید دید در یک لحظه ، نکات بعدی که بطور کلی اعمال می شود).

در مورد اتومبیل های نیمه خودمختار ، مهم است که در مورد جنبه نگران کننده ای که اخیراً بوجود آمده است ، هشدار داده شود ، یعنی این که با وجود آن رانندگان انسانی که با ارسال فیلم هایی از خودشان ، در حال خوابیدن در چرخ یک اتومبیل سطح 2 یا سطح 3 هستند. ، همه ما باید از اینكه گمان نرود راننده بتواند هنگام رانندگی یك اتومبیل نیمه خودمختار ، توجه خود را از وظیفه رانندگی دور كند ، خودداری كنیم.

شما مسئولیت اقدامات رانندگی وسیله نقلیه ، صرفنظر از میزان اتوماسیون در سطح 2 یا سطح 3 ، مسئولیت مسئولیت مسئولیت شما می باشد.

خودروهای خودران و شکار جایزه تعصب هوش مصنوعی

برای وسایل نقلیه خود رانندگی واقعی سطح 4 و سطح 5 ، یک راننده انسانی درگیر در وظیفه رانندگی نخواهد بود.

همه سرنشینان مسافر خواهند بود.

هوش مصنوعی رانندگی را انجام می دهد.

یک جنبه برای بحث فوری این واقعیت را در بر دارد که هوش مصنوعی در سیستم های رانندگی هوش مصنوعی امروزی حساس نیست. به عبارت دیگر ، هوش مصنوعی در مجموع مجموعه ای از برنامه نویسی و الگوریتم های مبتنی بر رایانه است و مطمئناً قادر به استدلال به همان روشی نیست که انسان می تواند.

چرا این تاکید اضافی در مورد هوش مصنوعی نیست؟

از آنجا که می خواهم تأکید کنم هنگام بحث در مورد نقش سیستم رانندگی AI ، من خصوصیات انسانی را به AI نسبت نمی دهم. لطفاً توجه داشته باشید که این روزها تمایل مستمر و خطرناکی برای انسان سازی AI وجود دارد. در حقیقت ، افراد حساسیتی شبیه انسان به هوش مصنوعی امروزی دارند ، علی رغم این واقعیت انکارناپذیر و غیرقابل انکار که هنوز چنین هوش مصنوعی وجود ندارد.

با این توضیحات ، می توانید تصور کنید که سیستم رانندگی هوش مصنوعی بطور طبیعی از جنبه های رانندگی "آگاهی" نداشته باشد. رانندگی و همه آنچه که شامل می شود باید به عنوان بخشی از سخت افزار و نرم افزار اتومبیل خودران برنامه ریزی شوند.

بیایید به جنبه های بی شماری بپردازیم که در این موضوع بازی می شوند.

اول، مهم است که بدانیم همه خودروهای خودران با هوش مصنوعی یکسان نیستند. هر خودروساز و شرکت فناوری خودران رویکرد خود را برای ابداع خودروهای خودران در پیش گرفته است. به این ترتیب، اظهار نظر گسترده در مورد اینکه سیستم های رانندگی هوش مصنوعی چه کاری انجام خواهند داد یا انجام نمی دهند، دشوار است.

علاوه بر این ، هرگاه بیان شود که سیستم رانندگی هوش مصنوعی کار خاصی انجام نمی دهد ، بعداً توسعه دهندگانی که در واقع کامپیوتر را برای انجام این کار برنامه ریزی می کنند ، می توانند از این امر پیشی بگیرند. گام به گام ، سیستم های رانندگی هوش مصنوعی به تدریج در حال بهبود و گسترش هستند. امروزه محدودیت موجود ممکن است دیگر در نسخه یا نسخه بعدی سیستم وجود نداشته باشد.

امیدوارم که اخطارهای فراوانی را برای زیربنای آنچه که می خواهم بیان کنم، ارائه دهد.

در ستون‌هایم، من قبلاً به طور مفصل درباره استفاده از شکارچیان جایزه‌های باگ محور در حوزه وسایل نقلیه خودران و ماشین‌های خودران بحث کرده‌ام. این رویکرد در واقع در این طاقچه اتفاق افتاده است. بحث های معمول در مورد اینکه آیا این ایده درست است یا نه وجود دارد. تلاش ها معمولاً ماهیت محدودی داشته اند و اغلب نسبتاً ساکت بوده اند.

هنگامی که تمرکز به دنبال تعصبات هوش مصنوعی به جای جستجوی اشکالات سیستم فی نفسه، می تواند گفتمان مشابهی شکل بگیرد. بعضی ها پیشنهاد می کنند که اگر این کار را بکنید، لعنتی است، اگر ابهام نکنید.

به همین دلیل است

اول، برای روشن بودن، راه‌های متعددی وجود دارد که وسایل نقلیه خودران و خودروهای خودران در معرض تعصبات هوش مصنوعی قرار می‌گیرند، به پوشش من در پیوند اینجا و پیوند اینجا، فقط به نام چند. به نظر می‌رسد خودروسازان و شرکت‌های خودروهای خودران عاقلانه تلاش کنند تا از بروز این تعصبات هوش مصنوعی در سیستم‌های هوش مصنوعی خود جلوگیری کنند. طوفان حقوقی و اخلاقی علیه چنین شرکت هایی بدون شک شدید خواهد بود.

آیا استفاده از تلاش برای شکار جایزه تعصبات هوش مصنوعی یک رویکرد مناسب در این زمینه خاص است؟

یک پاسخ این است که بله، این کار مفید خواهد بود و مجموعه‌ای از مجموعه‌های «رایگان» از چشم‌های جدید را ارائه می‌کند تا سعی کنید هرگونه تعصبات هوش مصنوعی تعبیه‌شده در یک خودروی خودران با هوش مصنوعی یا موارد مشابه را ببینید. بسیاری از توسعه دهندگان هوش مصنوعی که ماشین های خودران می سازند، مشغول ساختن هوش مصنوعی هستند که می تواند با خیال راحت ماشینی را از نقطه A به نقطه B راند. آنها با این قابلیت اصلی مشغول هستند و نه وقت و نه توجهی به سوگیری های هوش مصنوعی دارند. هوش مصنوعی آنها

پاسخ دیگر این است که خیر، باید از شکار جایزه برای وسایل نقلیه خودران و خودروهای خودران بر هر مبنایی، چه برای اشکالات یا تعصبات هوش مصنوعی، به شدت اجتناب شود. بحث این است که این وسایل نقلیه و هوش مصنوعی آنها دارای کالیبر مرگ یا زندگی هستند. درهم‌تنیدگی با هوش مصنوعی به هر شکلی می‌تواند به نوعی برای هوش مصنوعی مخرب باشد و بر عملکرد سیستم رانندگی هوش مصنوعی تأثیر بگذارد.

یک استدلال متقابل برای آخرین نکته این است که شکارچیان جایزه نمی توانند هوش مصنوعی را که در حال بررسی هستند تغییر دهند. بنابراین، هیچ خطری وجود ندارد که آنها با هوش مصنوعی درگیر شوند و باعث شوند که هوش مصنوعی در این زمینه ناگهان به یک سیستم رانندگی دیوانه هوش مصنوعی تبدیل شود. شکارچیان جایزه فقط دسترسی خواندنی دارند. اجازه دادن به آنها برای پیشبرد بیشتر احمقانه و یک اشتباه بزرگ است.

استدلال متقابل این استدلال متقابل این است که با اجازه دادن و تشویق شکارچیان جایزه به بررسی هوش مصنوعی شما، کل موضوع مبهم می شود. آن شکارچیان فضل ممکن است راه هایی برای سوء استفاده از هر گونه باگ یا سوگیری پیدا کنند. این سوء استفاده ها به نوبه خود ممکن است برای اهداف فریبنده باشد. به اصطلاح بهتر است از "سارق ها" به خانه خود دعوت نکنید. هنگامی که آنها مفصل را بیرون آوردند، در نهایت در انبوهی از مشکلات قرار خواهید گرفت.

برای کسانی که سیستم‌های هوش مصنوعی در مقیاس کمتر از زندگی یا مرگ دارند، اعتقاد بر این است که عواقب یک حمله شکار جایزه‌ای که به اشتباه پیش می‌رود، بسیار کم خطرتر است. شاید اینطور باشد. از سوی دیگر، اگر یک شرکت پول خود را در یک سیستم هوش مصنوعی ریخته باشد که شکارچیان جوایز موفق به غصب آن می‌شوند، می‌توانید فرض کنید که آسیب‌های شهرت و سایر آسیب‌های احتمالی همچنان آسیب خواهند دید.

وقتی صحبت از شکار جایزه تعصب هوش مصنوعی به میان می آید، ناهار رایگان وجود ندارد.

در حال حاضر یک نکته پایانی سریع.

زمانی که جسی جیمز یاغی بدنام در دوران غرب قدیم جستجو شد، پوستری تحت عنوان "تحت تعقیب" چاپ شد که جایزه ای 5,000 دلاری برای دستگیری او ارائه می کرد (با ذکر "مرده یا زنده"). در آن زمان این مبلغ نسبتاً هنگفتی بود. یکی از اعضای باند خودش تصمیم گرفت به جسی شلیک کند و جایزه را بگیرد. فکر می کنم این نشان می دهد که یک جایزه چقدر می تواند موثر باشد.

آیا استفاده از شکارچیان جایزه تعصب هوش مصنوعی چیز خوبی خواهد بود یا چیز بدی خواهد بود؟

اگر تصمیم گرفتید که یک تلاش شکارچی جایزه تعصب هوش مصنوعی را راه اندازی کنید، به شما پیشنهاد می کنم که چشمان خود را کاملا باز نگه دارید و همیشه از روی شانه خود نگاه کنید. این برای شما و هوش مصنوعی شما محتاطانه است. شما هرگز نمی دانید چه اتفاقی ممکن است بیفتد، از جمله اینکه یک شکارچی فضل به نحوی به طور مخفیانه یک تعصب هوش مصنوعی را در هوش مصنوعی شما وارد می کند و به دنیا فریاد می زند که آنها یک تعصب هوش مصنوعی بی پروا در هوش مصنوعی شما پیدا کرده اند. شاید این کار را در تلاشی گستاخانه و بزرگ برای به دست آوردن پاداش فضل انجام دهند، به علاوه اینکه خود را قهرمانی معرفی کنند که اساسا جسی جیمز تحسین شده را به ارمغان آورد.

اگر فکرش را بکنید، یک هوش مصنوعی باهوش احتمالاً از این ایده نگران‌کننده مرده یا زنده خوشش نمی‌آید.

منبع: https://www.forbes.com/sites/lanceeliot/2022/07/16/ai-ethics-cautiously-assessing-whether-offering-ai-biases-hunting-bounties-to-catch-and-nab- سیستم های کاملاً خودمختار-اخلاقی-شرور-عاقلانه-یا-بیهوده/