اخلاق هوش مصنوعی درباره ایجاد قوانین هوش مصنوعی به اصطلاح پرچم قرمز برای فراخوانی الگوریتم‌های مغرضانه در سیستم‌های هوش مصنوعی خود تردید دارد.

بیایید در مورد قوانین پرچم سرخ صحبت کنیم.

بدون شک می دانید که مفهوم قوانین پرچم سرخ اخیراً به طور گسترده در اخبار پوشش داده شده است. سرفصل هایی که این موضوع را پوشش می دهند فراوان است. شور و اشتیاق و بحث های پرشور در مورد چنین موضوعاتی به عنوان یک نگرانی اجتماعی در رأس ذهن است و مستلزم قوانین اسلحه پرچم سرخ امروزی و به سرعت در حال ظهور است.

به جرات می توانم بگویم که ممکن است با سایر قوانین پرچم سرخ که در اواخر دهه 1800 در مورد وسایل نقلیه موتوری و پیشگامان خودروهای مدرن امروزی وضع شد، آشنا نباشید. بله، درست است، قوانین پرچم سرخ به تاریخ بازمی‌گردند، اگرچه در مقایسه با تمرکز امروزی موضوعات دیگری را پوشش می‌دهند. این قوانین معمولاً به عنوان قوانین ترافیکی با پرچم قرمز شناخته می شوند.

این قوانین قرن گذشته و کاملاً منسوخ، ایجاب می‌کرد که هر کالسکه موتوری یا موتوری که با بخار حرکت می‌کرد، در آن زمان باید یک فرد بالغ جلوتر از وسیله نقلیه باشد و برای اهداف هشدار دهنده پرچم قرمز حمل کند. ایده این بود که دام ها ممکن است از آن مواد پرسروصدا و پر سر و صدا که به آرامی و به طور ناهموار در جاده های خاکی یا حاشیه آسفالت می چرخیدند، نگران شوند، بنابراین اگر شخصی در جلوی ابزار راه برود در حالی که به شدت پرچم قرمز را به اهتزاز در می آورد، می توان امیدوار بود که از بروز بلاها جلوگیری کند. اگر تعجب می‌کنید، راه‌آهن‌ها و قطارها از همان قوانین مستثنی تلقی می‌شوند، زیرا آنها وسایل نقلیه‌ای هستند که به طور یکپارچه به ریل متصل هستند و قوانین دیگری نیز اعمالشان را پوشش می‌دهند.

تصور کنید که امروز باید پرچم قرمز را به عنوان یک الزام برای هر خودرو در جاده های عمومی به اهتزاز در آوریم.

به عنوان مثال، یک راننده معمولی که از خیابان محله شما پایین می آید باید اطمینان حاصل کند که بزرگسالی که پرچم قرمز را تکان می دهد حضور دارد و جلوی ماشین در حال حرکت رژه می رود. این باید برای هر وسیله نقلیه ای که از خیابان شما عبور می کند انجام شود. شاید افرادی به کارمندان پرچم قرمز تبدیل شوند که به رانندگان خودروهای عبوری استخدام می‌شوند که در غیر این صورت دوست یا خویشاوندی نداشتند که بتواند جلوی آنها برود و اقدامات تعیین شده را انجام دهد.

امروزه ما تمایل داریم که اهتزاز پرچم قرمز مربوط به بزرگراه را با سایت های ساخت و ساز جاده مرتبط کنیم. همانطور که به یک جاده کنده شده نزدیک می شوید، کارگران یک پرچم قرمز را بالا نگه داشته اند تا توجه شما را جلب کنند. این به شما می گوید که سرعت خود را کم کنید و هوشیار باشید. ممکن است یک بولدوزر وجود داشته باشد که در مسیر شما قرار بگیرد. ممکن است یک سوراخ غول پیکر در جلو باشد و شما باید با احتیاط اطراف آن را طی کنید.

اما بیایید به استفاده از پرچم های قرمز در سال 1800 برگردیم.

باور کنید یا نه، اهتزاز پرچم قرمز قرار بود حداقل یک هشتم مایل جلوتر از ماشین موتوری آینده باشد. به نظر می رسد که این فاصله بسیار طولانی است. با این حال می توان حدس زد که این در آن روزها بسیار معنی داشت. صداهای حیرت آور موتور و شاید فقط دیدن وسیله نقلیه ممکن است برای عصبانی کردن حیوانات کافی باشد. برخی از قوانین پرچم سرخ در آن دوره همچنین مستلزم این بود که یک چراغ قرمز درخشان در طول شب در بالا نگه داشته شود تا یک هشدار احتیاطی قرمز ظاهری بصری از فاصله تاریک دیده شود.

به طور کلی، من فکر می‌کنم این منصفانه است که ادعا کنیم ما به عنوان یک جامعه تمایل داریم که پرچم قرمز را به عنوان نوعی علامت یا نشانه‌ای مرتبط کنیم که نشان می‌دهد چیزی به طور بالقوه اشتباه است یا حداقل نیاز به توجه مؤمنانه ما دارد.

برای کمی تغییر در این پدیده پرچم قرمز آماده شوید.

در مورد هوش مصنوعی (AI) یک بحث وجود دارد که ما باید به مقررات پرچم قرمز نیاز داشته باشیم.

این کمی شگفت‌انگیز و مفهومی شگفت‌انگیز است که ذهن بسیاری را به خود مشغول می‌کند. شما ممکن است متحیر شوید که چگونه یا چرا باید به اصطلاح وجود داشته باشد قوانین هوش مصنوعی پرچم قرمز. لطفاً توجه داشته باشید که من این را به عنوان قوانین هوش مصنوعی پرچم قرمز می‌دانم تا این موضوع را از قوانین ترافیکی پرچم سرخ (مانند قوانین اواخر دهه 1800) متمایز کنم و همچنین آنها را از سایر قوانین رایج‌تر پرچم سرخ امروزی متمایز کنم.

آیا ما واقعاً به قوانین هوش مصنوعی با پرچم قرمز نیاز داریم که به طور متمایز و صرفاً به موضوعات مربوط به هوش مصنوعی باشد؟

طرفداران رویکرد پیشنهادی اصرار دارند که ما کاملاً به مقررات قانونی نیاز داریم که به مهار هوش مصنوعی که حاوی تعصبات ناروا و اقدامات تبعیض آمیز است کمک کند. در حال حاضر، ساخت و استقرار هوش مصنوعی شبیه به شرایط غرب وحشی است. تلاش‌ها برای مهار هوش مصنوعی بد در حال حاضر به تدوین و اتخاذ دستورالعمل‌های اخلاقی هوش مصنوعی بستگی دارد. برای پوشش مداوم و گسترده من از اخلاق هوش مصنوعی و هوش مصنوعی اخلاقی، رجوع کنید به پیوند اینجا و پیوند اینجا، فقط به نام چند.

قوانینی که در هوش مصنوعی بد به آرامی در حال ابداع و تصویب هستند، پوشش من را در اینجا ببینید پیوند اینجا. برخی نگران هستند که قانونگذاران به اندازه کافی سریع عمل نمی کنند. به نظر می رسد که دروازه های سیل برای اجازه دادن به تقویت هوش مصنوعی مغرضانه در جهان در حال حاضر تا حد زیادی باز است. Hand-wringing می‌گوید زمانی که قوانین جدید وارد کتاب‌ها شوند، جن شیطانی از بطری خارج خواهد شد.

نه چندان سریع، استدلال های متقابل پیش می روند. نگرانی‌ها این است که اگر قوانین خیلی سریع وضع شوند، غاز طلایی را می‌کشیم، به‌طوری‌که تلاش‌های هوش مصنوعی خشک می‌شوند و ما از مزایای تقویت‌کننده اجتماعی سیستم‌های هوش مصنوعی جدید برخوردار نخواهیم شد. توسعه دهندگان و شرکت های هوش مصنوعی که مایل به استفاده از هوش مصنوعی هستند، ممکن است اگر مجموعه ای از قوانین بیزانسی جدید حاکم بر هوش مصنوعی به طور ناگهانی در سطوح فدرال، ایالتی و محلی وضع شود، به جز قوانین بین المللی مرتبط با هوش مصنوعی که در حال پیشرفت هستند، وحشت زده شوند.

در این ماجرای کثیف فراخوان قوانین هوش مصنوعی پرچم قرمز است.

قبل از پرداختن به گوشت و سیب زمینی بیشتر در مورد ملاحظات وحشی و پشمی زیربنای قانون پیش‌بینی‌شده هوش مصنوعی پرچم قرمز، اجازه دهید برخی اصول اضافی را در مورد موضوعات بسیار ضروری ایجاد کنیم. ما باید به طور مختصر به اخلاق هوش مصنوعی و به ویژه ظهور یادگیری ماشینی (ML) و یادگیری عمیق (DL) نگاهی کوتاه بیندازیم.

ممکن است به طور مبهم آگاه باشید که یکی از بلندترین صداها این روزها در زمینه هوش مصنوعی و حتی خارج از حوزه هوش مصنوعی، فریاد زدن برای ظاهری بیشتر از هوش مصنوعی اخلاقی است. بیایید نگاهی به معنای ارجاع به اخلاق هوش مصنوعی و هوش مصنوعی اخلاقی بیندازیم. علاوه بر این، وقتی از یادگیری ماشینی و یادگیری عمیق صحبت می‌کنم، منظورم را بررسی خواهیم کرد.

یک بخش یا بخش خاصی از اخلاق هوش مصنوعی که توجه رسانه ها را به خود جلب کرده است شامل هوش مصنوعی است که سوگیری ها و نابرابری های نامناسبی را نشان می دهد. ممکن است بدانید که زمانی که آخرین دوره هوش مصنوعی آغاز شد، شور و شوق زیادی برای آنچه که اکنون برخی می‌گویند وجود داشت. هوش مصنوعی برای خوب. متأسفانه، در پاشنه آن هیجان فوران، ما شروع به مشاهده کردیم هوش مصنوعی برای بد. برای مثال، سیستم‌های مختلف تشخیص چهره مبتنی بر هوش مصنوعی حاوی سوگیری‌های نژادی و سوگیری‌های جنسیتی هستند که من در مورد آن بحث کرده‌ام. پیوند اینجا.

تلاش برای مبارزه با هوش مصنوعی برای بد به طور فعال در حال انجام هستند. علاوه بر پر سر و صدا حقوقی تلاش برای مهار تخلفات، همچنین فشار اساسی به سمت پذیرش اخلاق هوش مصنوعی برای اصلاح شرارت هوش مصنوعی وجود دارد. تصور این است که ما باید اصول کلیدی هوش مصنوعی اخلاقی را برای توسعه و توسعه هوش مصنوعی اتخاذ و تأیید کنیم تا این کار را کاهش دهیم. هوش مصنوعی برای بد و به طور همزمان منادی و ترویج مرجح هوش مصنوعی برای خوب.

در یک مفهوم مرتبط، من طرفدار تلاش برای استفاده از هوش مصنوعی به عنوان بخشی از راه حل مشکلات هوش مصنوعی هستم، و با این شیوه تفکر با آتش مبارزه می کنم. برای مثال، ممکن است اجزای هوش مصنوعی اخلاقی را در یک سیستم هوش مصنوعی تعبیه کنیم که بر نحوه انجام بقیه هوش مصنوعی نظارت می‌کند و بنابراین به طور بالقوه در زمان واقعی هرگونه تلاش تبعیض آمیز را جلب می‌کند. پیوند اینجا. ما همچنین می‌توانیم یک سیستم هوش مصنوعی جداگانه داشته باشیم که به عنوان نوعی مانیتور اخلاق هوش مصنوعی عمل می‌کند. سیستم هوش مصنوعی به عنوان یک ناظر برای ردیابی و تشخیص اینکه چه زمانی هوش مصنوعی دیگر به ورطه غیراخلاقی می رود عمل می کند (تحلیل من از چنین قابلیت هایی را در اینجا ببینید. پیوند اینجا).

در یک لحظه، من برخی از اصول کلی زیربنای اخلاق هوش مصنوعی را با شما به اشتراک خواهم گذاشت. تعداد زیادی از این نوع لیست ها اینجا و آنجا شناور هستند. می توان گفت که هنوز فهرست منحصر به فردی از جذابیت و توافق جهانی وجود ندارد. این خبر تاسف بار است. خبر خوب این است که حداقل لیست‌های اخلاقی هوش مصنوعی وجود دارد که کاملاً مشابه هستند. در مجموع، این نشان می‌دهد که با نوعی همگرایی مستدل، راه خود را به سوی یک اشتراک کلی از آنچه اخلاق هوش مصنوعی تشکیل می‌دهد، پیدا می‌کنیم.

ابتدا، اجازه دهید به طور مختصر برخی از قوانین کلی اخلاقی هوش مصنوعی را پوشش دهیم تا نشان دهیم چه چیزی باید برای هر کسی که در حال ساخت، ساخت و یا استفاده از هوش مصنوعی است، اهمیت حیاتی داشته باشد.

به عنوان مثال، همانطور که توسط واتیکان در فراخوان رم برای اخلاق هوش مصنوعی و همانطور که به طور عمیق به آن پرداخته ام پیوند اینجا، این شش اصل اصلی اخلاق هوش مصنوعی شناسایی شده آنها است:

  • شفافیت: در اصل، سیستم های هوش مصنوعی باید قابل توضیح باشند
  • نقص: نیازهای همه انسانها باید مورد توجه قرار گیرد تا همه بتوانند از آن بهره ببرند و بهترین شرایط ممکن برای ابراز وجود و پیشرفت به همه افراد ارائه شود.
  • مسئوليت: کسانی که استفاده از هوش مصنوعی را طراحی و اجرا می کنند باید با مسئولیت و شفافیت پیش بروند
  • بی طرفی: از ایجاد و یا عمل بر اساس تعصب، در نتیجه حفظ انصاف و کرامت انسانی
  • قابلیت اطمینان: سیستم های هوش مصنوعی باید بتوانند به طور قابل اعتماد کار کنند
  • امنیت و حریم خصوصی: سیستم های هوش مصنوعی باید ایمن کار کنند و به حریم خصوصی کاربران احترام بگذارند.

همانطور که توسط وزارت دفاع ایالات متحده (DoD) در آنها بیان شده است اصول اخلاقی برای استفاده از هوش مصنوعی و همانطور که به طور عمیق به آن پرداخته ام پیوند اینجا، این شش اصل اصلی اخلاق هوش مصنوعی آنهاست:

  • مسئول: پرسنل وزارت دفاع سطوح مناسبی از قضاوت و مراقبت را اعمال خواهند کرد و در عین حال مسئولیت توسعه، استقرار و استفاده از قابلیت‌های هوش مصنوعی را بر عهده خواهند داشت.
  • منصفانه: این وزارتخانه اقدامات عمدی را برای به حداقل رساندن سوگیری ناخواسته در قابلیت‌های هوش مصنوعی انجام خواهد داد.
  • قابل ردیابی: قابلیت‌های هوش مصنوعی این وزارتخانه به گونه‌ای توسعه و مستقر خواهد شد که پرسنل مربوطه درک مناسبی از فناوری، فرآیندهای توسعه، و روش‌های عملیاتی قابل اجرا برای قابلیت‌های هوش مصنوعی، از جمله روش‌شناسی شفاف و قابل ممیزی، منابع داده‌ها، روش‌ها و مستندات طراحی داشته باشند.
  • قابل اعتماد: قابلیت‌های هوش مصنوعی این وزارتخانه کاربردهای مشخص و مشخصی خواهند داشت، و ایمنی، امنیت و اثربخشی چنین قابلیت‌هایی مشمول آزمایش و اطمینان در آن کاربردهای تعریف‌شده در کل چرخه عمر آن‌ها خواهد بود.
  • قابل اداره: این وزارتخانه قابلیت‌های هوش مصنوعی را طراحی و مهندسی می‌کند تا عملکردهای مورد نظر خود را انجام دهد، در حالی که توانایی شناسایی و اجتناب از پیامدهای ناخواسته را دارد، و توانایی جدا کردن یا غیرفعال کردن سیستم‌های مستقری که رفتار ناخواسته را نشان می‌دهند.

من همچنین در مورد تجزیه و تحلیل‌های جمعی مختلف از اصول اخلاق هوش مصنوعی بحث کرده‌ام، از جمله پوشش مجموعه‌ای ابداع شده توسط محققان که ماهیت بسیاری از اصول اخلاقی هوش مصنوعی ملی و بین‌المللی را در مقاله‌ای تحت عنوان «چشم‌انداز جهانی دستورالعمل‌های اخلاق هوش مصنوعی» (منتشر شده) بررسی و فشرده کرده است. که در طبیعت) و پوشش من در آن بررسی می شود پیوند اینجا، که منجر به این لیست کلیدی شد:

  • شفافیت
  • عدالت و انصاف
  • عدم سوء استفاده
  • مسئوليت
  • حریم خصوصی
  • سود رسانی
  • آزادی و خودمختاری
  • اعتماد
  • پایداری
  • کرامت
  • اتحاد

همانطور که ممکن است مستقیماً حدس بزنید، تلاش برای مشخص کردن جزئیات زیربنای این اصول می تواند بسیار سخت باشد. حتی بیشتر از آن، تلاش برای تبدیل این اصول گسترده به چیزی کاملاً ملموس و با جزئیات کافی برای استفاده در هنگام ساخت سیستم‌های هوش مصنوعی نیز یک مهره سخت است. به طور کلی می توان در مورد اینکه اصول اخلاقی هوش مصنوعی چیست و چگونه باید به طور کلی آنها را رعایت کرد، دست تکان داد، در حالی که وضعیت بسیار پیچیده تر در کدنویسی هوش مصنوعی است که باید لاستیک واقعی باشد که با جاده مطابقت می کند.

اصول اخلاقی هوش مصنوعی باید توسط توسعه دهندگان هوش مصنوعی، همراه با آنهایی که تلاش های توسعه هوش مصنوعی را مدیریت می کنند، و حتی آنهایی که در نهایت سیستم های هوش مصنوعی را انجام می دهند، مورد استفاده قرار گیرد. تمام ذینفعان در طول چرخه عمر توسعه و استفاده هوش مصنوعی در محدوده رعایت هنجارهای تثبیت شده هوش مصنوعی اخلاقی در نظر گرفته می شوند. این نکته مهمی است زیرا فرض معمول این است که «فقط کدنویس‌ها» یا کسانی که هوش مصنوعی را برنامه‌ریزی می‌کنند، مشمول رعایت مفاهیم اخلاق هوش مصنوعی هستند. همانطور که قبلاً گفته شد، برای ابداع و به کارگیری هوش مصنوعی به یک دهکده نیاز است، و برای آن کل دهکده باید به اصول اخلاقی هوش مصنوعی مسلط باشد و از آن پیروی کند.

بیایید همچنین مطمئن شویم که در مورد ماهیت هوش مصنوعی امروزی همسو هستیم.

امروزه هیچ هوش مصنوعی وجود ندارد که حساس باشد. ما این را نداریم ما نمی دانیم که آیا هوش مصنوعی ممکن خواهد بود یا خیر. هیچ کس نمی تواند به درستی پیش بینی کند که آیا ما به هوش مصنوعی خواهیم رسید یا خیر، یا اینکه آیا هوش مصنوعی به طور معجزه آسایی به شکلی از ابرنواختر شناختی محاسباتی پدید خواهد آمد (که معمولاً به عنوان تکینگی شناخته می شود، پوشش من را در اینجا ببینید. پیوند اینجا).

نوع هوش مصنوعی که من روی آن تمرکز می کنم شامل هوش مصنوعی غیر حساسی است که امروز داریم. اگر بخواهیم به شدت در مورد آن حدس بزنیم با احساس هوش مصنوعی، این بحث می تواند در جهتی کاملاً متفاوت پیش رود. ظاهراً یک هوش مصنوعی با کیفیت انسانی خواهد بود. شما باید در نظر داشته باشید که هوش مصنوعی حسی معادل شناختی یک انسان است. علاوه بر این، از آنجایی که برخی گمانه زنی می کنند که ممکن است هوش مصنوعی فوق هوشمند داشته باشیم، می توان تصور کرد که چنین هوش مصنوعی می تواند در نهایت از انسان ها باهوش تر باشد (برای کاوش من در مورد هوش مصنوعی فوق هوشمند به عنوان یک احتمال، نگاه کنید به پوشش در اینجا).

بیایید همه چیز را روی زمین نگه داریم و هوش مصنوعی محاسباتی غیر حساس امروزی را در نظر بگیریم.

درک کنید که هوش مصنوعی امروزی قادر به «فکر کردن» به هیچ شکلی با تفکر انسان نیست. وقتی با الکسا یا سیری تعامل می کنید، ظرفیت های مکالمه ممکن است شبیه ظرفیت های انسانی به نظر برسد، اما واقعیت این است که محاسباتی است و فاقد شناخت انسانی است. آخرین دوره هوش مصنوعی از یادگیری ماشینی (ML) و یادگیری عمیق (DL) استفاده گسترده ای کرده است که از تطابق الگوی محاسباتی استفاده می کند. این منجر به سیستم‌های هوش مصنوعی شده است که ظاهری شبیه به تمایلات انسان دارند. در همین حال، هیچ هوش مصنوعی امروزی وجود ندارد که شباهتی به عقل سلیم داشته باشد و هیچ یک از شگفتی‌های شناختی تفکر قوی انسانی را نداشته باشد.

ML/DL نوعی تطبیق الگوی محاسباتی است. روش معمول این است که شما داده ها را در مورد یک کار تصمیم گیری جمع آوری می کنید. داده ها را به مدل های کامپیوتری ML/DL وارد می کنید. آن مدل ها به دنبال یافتن الگوهای ریاضی هستند. پس از یافتن چنین الگوهایی، در صورت یافتن، سیستم هوش مصنوعی در هنگام مواجهه با داده های جدید از آن الگوها استفاده خواهد کرد. پس از ارائه داده های جدید، الگوهای مبتنی بر داده های "قدیمی" یا تاریخی برای ارائه یک تصمیم فعلی استفاده می شود.

من فکر می کنم می توانید حدس بزنید که این به کجا می رود. اگر انسان‌هایی که بر اساس تصمیم‌گیری‌های الگو گرفته شده‌اند، سوگیری‌های نامطلوب را در خود جای داده‌اند، احتمال این وجود دارد که داده‌ها این را به روش‌های ظریف اما قابل توجهی منعکس کنند. تطبیق الگوی محاسباتی یادگیری ماشینی یا یادگیری عمیق به سادگی سعی می‌کند تا داده‌ها را مطابق با ریاضی تقلید کند. هیچ شباهتی از عقل سلیم یا سایر جنبه های حساس مدل سازی ساخته شده با هوش مصنوعی به خودی خود وجود ندارد.

علاوه بر این، توسعه دهندگان هوش مصنوعی نیز ممکن است متوجه نباشند که چه اتفاقی در حال رخ دادن است. ریاضیات محرمانه در ML/DL ممکن است کشف سوگیری های پنهان در حال حاضر را دشوار کند. شما به حق امیدوارید و انتظار دارید که توسعه‌دهندگان هوش مصنوعی سوگیری‌های بالقوه مدفون را آزمایش کنند، اگرچه این دشوارتر از آن چیزی است که به نظر می‌رسد. این احتمال وجود دارد که حتی با آزمایش نسبتاً گسترده، سوگیری‌هایی همچنان در مدل‌های تطبیق الگوی ML/DL وجود داشته باشد.

می‌توانید تا حدودی از ضرب‌المثل معروف یا بدنام زباله‌های درون زباله‌ها استفاده کنید. مسئله این است که این بیشتر شبیه سوگیری‌هایی است که به‌طور موذیانه به‌عنوان سوگیری‌هایی که در هوش مصنوعی غوطه‌ور می‌شوند، القا می‌شوند. الگوریتم تصمیم‌گیری (ADM) هوش مصنوعی به طور اصولی مملو از نابرابری‌ها می‌شود.

خوب نیست.

بیایید به تمرکز خود بر روی قوانین هوش مصنوعی پرچم قرمز بازگردیم.

مفهوم زیربنایی این است که مردم می توانند هر زمان که معتقدند یک سیستم هوش مصنوعی به شکلی غیرقابل مغرضانه یا تبعیض آمیز عمل می کند، پرچم قرمز را برافراشتند. شما به خودی خود یک پرچم فیزیکی را برافراشته نمی‌کنید، و در عوض از برخی وسایل الکترونیکی برای اعلام نگرانی‌های خود استفاده می‌کنید. بخش پرچم قرمز طرح یا رویکرد بیشتر یک استعاره است تا یک تجسم فیزیکی.

وانمود کنید که برای وام مسکن درخواست داده اید. شما ترجیح می دهید از خدمات بانکداری آنلاین برای درخواست وام استفاده کنید. پس از وارد کردن برخی از داده‌های شخصی، لحظه‌ای منتظر سیستم هوش مصنوعی می‌شوید که از آن استفاده می‌شود تا تصمیم بگیرید آیا شایسته وام هستید یا خیر. هوش مصنوعی به شما می گوید که برای دریافت وام رد شده اید. پس از درخواست توضیح در مورد دلیل رد شدن شما، به نظر می رسد روایت متنی به شما نشان می دهد که هوش مصنوعی از عوامل مغرضانه نابجا به عنوان بخشی از الگوریتم تصمیم گیری استفاده می کند.

زمان برافراشتن پرچم قرمز در مورد هوش مصنوعی است.

این پرچم قرمز دقیقاً کجا به اهتزاز در خواهد آمد؟

این یک سوال میلیون دلاری است.

یک دیدگاه این است که ما باید یک پایگاه داده در سراسر کشور راه اندازی کنیم که به مردم اجازه دهد پرچم های قرمز مربوط به هوش مصنوعی خود را علامت گذاری کنند. برخی می گویند که این باید توسط دولت فدرال تنظیم شود. آژانس‌های فدرال مسئول بررسی پرچم‌های قرمز و کمک به عموم مردم در مورد صحت و برخورد با احتمالاً «هوش مصنوعی بد» هستند که گزارش‌های پرچم قرمز را افزایش داده است.

قانون هوش مصنوعی پرچم قرمز ملی ظاهراً توسط کنگره ایجاد می شود. این قانون مشخص می کند که پرچم قرمز مربوط به هوش مصنوعی چیست. این قانون نحوه برافراشتن پرچم‌های قرمز آزاردهنده هوش مصنوعی را توضیح می‌دهد. و غیره. همچنین ممکن است هر ایالت نیز قوانین هوش مصنوعی پرچم قرمز خود را ایجاد کند. شاید آنها این کار را به جای یک ابتکار ملی انجام می دهند، یا این کار را برای تقویت جزئیاتی انجام می دهند که مخصوصاً برای وضعیت خاص آنها جذاب است.

منتقدان یک برنامه هوش مصنوعی پرچم قرمز فدرال یا تحت حمایت دولت استدلال می کنند که این کاری است که صنعت خصوصی می تواند انجام دهد و ما نیازی به حضور برادر بزرگ نداریم. این صنعت می‌تواند یک مخزن آنلاین ایجاد کند که افراد بتوانند پرچم‌های قرمز سیستم‌های هوش مصنوعی را در آن ثبت کنند. یک اقدام خود پلیسی توسط صنعت به اندازه کافی با این مسائل مقابله می کند.

یک ایراد در مورد رویکرد صنعتی ادعا شده این است که به نظر می رسد بوی دوستی دارد. آیا شرکت‌ها مایلند از برخی پایگاه‌داده‌های هوش مصنوعی Red Flag پیروی کنند؟ بسیاری از شرکت ها به طور بالقوه پرچم های قرمز مشخص شده در مورد هوش مصنوعی خود را نادیده می گیرند. برای ترغیب شرکت ها به مقابله با پرچم های قرمز وارد شده، دندان های تیز وجود نخواهد داشت.

هی، طرفداران رویکرد بخش خصوصی به نظر می رسد، این شبیه خدمات ملی Yelp است. مصرف‌کنندگان می‌توانند به پرچم‌های قرمز نگاه کنند و خودشان تصمیم بگیرند که آیا می‌خواهند با شرکت‌هایی که انبوهی از پرچم‌های قرمز مبتنی بر هوش مصنوعی را جمع‌آوری کرده‌اند، تجارت کنند یا خیر. بانکی که هزاران پرچم قرمز در مورد هوش مصنوعی خود دریافت می کرد، باید توجه کند و سیستم های هوش مصنوعی خود را اصلاح کند، بنابراین منطق ادامه دارد، در غیر این صورت مصرف کنندگان مانند طاعون از شرکت اجتناب می کنند.

این که آیا کل این رویکرد توسط دولت یا صنعت انجام می شود، فقط نوک کوه یخ در مورد سؤالات خاردار پیش روی فرضیه پیشنهادی قوانین هوش مصنوعی پرچم سرخ است.

خود را به جای شرکتی قرار دهید که هوش مصنوعی را توسعه داده یا از آن استفاده می کند. ممکن است مصرف‌کنندگان پرچم‌های قرمز را بلند کنند، حتی اگر هیچ مبنای قابل قبولی برای این کار وجود نداشته باشد. اگر مردم بتوانند آزادانه یک پرچم قرمز در مورد هوش مصنوعی منتشر کنند، ممکن است وسوسه شوند که این کار را از روی هوس انجام دهند، یا شاید برای انتقام از شرکتی که در غیر این صورت هیچ اشتباهی نسبت به مصرف کننده انجام نداده است.

به طور خلاصه، ممکن است تعداد زیادی پرچم قرمز مثبت کاذب در مورد هوش مصنوعی وجود داشته باشد.

ملاحظات دیگر اندازه یا بزرگی پرچم های قرمز حاصله است. به راحتی میلیون ها میلیون پرچم قرمز برافراشته می شود. چه کسی قرار است این همه پرچم قرمز را پیگیری کند؟ هزینه انجام این کار چقدر خواهد بود؟ چه کسی هزینه تلاش های پیگیری پرچم قرمز را پرداخت خواهد کرد؟ و غیره.

اگر بخواهید بگویید که هر کسی که یک پرچم قرمز در مورد هوش مصنوعی را ثبت یا گزارش می کند باید هزینه ای بپردازد، وارد یک قلمرو مبهم و موذی شده اید. نگرانی این است که فقط ثروتمندان قادر به برافراشتن پرچم قرمز باشند. این به نوبه خود نشان می دهد که افراد فقیر نمی توانند به طور مساوی در فعالیت های پرچم قرمز شرکت کنند و اساساً هیچ مکانی برای هشدار در مورد هوش مصنوعی نامطلوب ندارند.

در حال حاضر فقط یک پیچ اضافی دیگر، یعنی این که این نوع قوانین یا دستورالعمل‌های پرچم قرمز در مورد هوش مصنوعی به نظر می‌رسد به جای اینکه از قبل به عنوان یک هشدار باشد، بعد از واقعیت است.

با بازگشت به قوانین راهنمایی و رانندگی با پرچم قرمز، تأکید بر استفاده از پرچم قرمز برای جلوگیری از وقوع یک فاجعه برای شروع بود. قرار بود که پرچم قرمز بسیار جلوتر از خودروی آینده باشد. با جلوتر بودن از وسیله نقلیه، به دام هشدار داده می شود و کسانی که از دام محافظت می کنند می دانند که باید اقدامات احتیاطی را به دلیل منبع مزاحم که به زودی وارد می شود انجام دهند.

اگر مردم فقط قادر به برافراشتن پرچم قرمز در مورد هوش مصنوعی باشند که ظاهراً قبلاً به حقوق آنها آسیب رسانده یا تضعیف کرده است، اسب ضرب المثل قبلاً از انبار خارج شده است. تنها کاری که به نظر می رسد این است که امیدواریم افراد دیگری که همراه می شوند اکنون بدانند که مراقب آن سیستم هوش مصنوعی باشند. در همین حال، فردی که گفته می شود ظلم شده، قبلاً آسیب دیده است.

برخی پیشنهاد می‌کنند که شاید بتوانیم به مردم اجازه دهیم که پرچم‌های قرمز را در مورد هوش مصنوعی برافرازند مظنون ممکن است مغرضانه باشند، حتی اگر از هوش مصنوعی استفاده نکرده باشند و مستقیماً تحت تأثیر هوش مصنوعی قرار نگرفته باشند. بنابراین، پرچم قرمز قبل از اینکه آسیب وارد شود به اهتزاز در می آید.

بله، پاسخ می دهد، شما واقعاً پرچم قرمزهای مقابله با هوش مصنوعی را به یک امر کاملاً غیرقابل مدیریت و هرج و مرج تبدیل خواهید کرد. اگر کسی به هر دلیلی بتواند پرچم قرمزی را در مورد یک سیستم هوش مصنوعی بالا ببرد، علیرغم اینکه هیچ کاری با آن هوش مصنوعی انجام نداده است، شما غرق پرچم های قرمز خواهید شد. بدتر از آن، شما نمی توانید گندم را از کاه تشخیص دهید. کل رویکرد پرچم قرمز زیر وزن خود فرو می ریزد و با اجازه دادن به فلوتسام و ریفرف برای غرق کردن کل کشتی، خوبی این ایده را از بین می برد.

سرگیجه آور و گیج کننده.

در این مقطع از این بحث سنگین، شرط می بندم که شما خواهان نمونه های گویا هستید که ممکن است این موضوع را به نمایش بگذارد. مجموعه‌ای از نمونه‌های خاص و مطمئناً محبوب وجود دارد که به دلم نشسته است. ببینید، به عنوان یک متخصص در زمینه هوش مصنوعی از جمله پیامدهای اخلاقی و قانونی، اغلب از من خواسته می‌شود که نمونه‌های واقع‌بینانه‌ای را که معضلات اخلاقی هوش مصنوعی را نشان می‌دهند شناسایی کنم تا بتوان ماهیت تا حدودی نظری موضوع را راحت‌تر درک کرد. یکی از جذاب‌ترین زمینه‌هایی که این معضل اخلاقی هوش مصنوعی را به وضوح نشان می‌دهد، ظهور خودروهای خودران واقعی مبتنی بر هوش مصنوعی است. این به عنوان یک مورد استفاده مفید یا نمونه ای برای بحث و گفتگوی کافی در مورد موضوع خواهد بود.

پس در اینجا یک سوال قابل توجه وجود دارد که قابل تامل است: آیا ظهور خودروهای خودران واقعی مبتنی بر هوش مصنوعی چیزی در مورد قوانین هوش مصنوعی پرچم قرمز روشن می کند، و اگر چنین است، این چه چیزی را به نمایش می گذارد؟

یک لحظه به من اجازه دهید تا پرسش را باز کنم.

اول، توجه داشته باشید که هیچ راننده انسانی در یک ماشین خودران واقعی دخیل نیست. به خاطر داشته باشید که خودروهای خودران واقعی از طریق سیستم رانندگی هوش مصنوعی هدایت می شوند. نه نیازی به راننده انسان پشت فرمان وجود دارد و نه پیش بینی ای برای رانندگی وسیله نقلیه توسط انسان وجود دارد. برای پوشش گسترده و مداوم من در مورد وسایل نقلیه خودران (AVs) و به خصوص خودروهای خودران، نگاه کنید به پیوند اینجا.

مایلم بیشتر توضیح دهم که منظور از خودروهای خودران واقعی چیست.

درک سطح اتومبیل های خودران

به عنوان یک توضیح، خودروهای خودران واقعی، خودروهایی هستند که هوش مصنوعی خودرو را کاملاً به تنهایی رانندگی می کند و هیچ کمک انسانی در طول کار رانندگی وجود ندارد.

این وسایل نقلیه بدون راننده سطح 4 و سطح 5 در نظر گرفته می شوند (توضیحات من را در اینجا ببینید این لینک در اینجا) ، در حالی که خودرویی که نیاز به یک راننده انسانی برای مشارکت در رانندگی دارد معمولاً در سطح 2 یا سطح 3 در نظر گرفته می شود. افزودنی های خودکار که به عنوان ADAS (سیستم های کمک راننده پیشرفته) شناخته می شوند.

هنوز یک خودروی خودران واقعی در سطح 5 وجود ندارد، و ما هنوز حتی نمی دانیم که آیا امکان دستیابی به آن وجود دارد یا خیر، و نه اینکه چقدر طول می کشد تا به آنجا برسیم.

در همین حال ، تلاش های سطح 4 به تدریج در تلاشند تا با انجام آزمایشات عمومی بسیار باریک و انتخابی در جاده ها ، کمی به سمت خود جلب کنند ، هرچند در مورد اینکه آیا این آزمایش به خودی خود مجاز است یا خیر ، اختلاف نظر وجود دارد (همه ما در یک آزمایش خوکچه هندی زنده یا مرگ هستیم) برخی از آنها ادعا می كنند كه در بزرگراهها و گذرگاههای ما در حال انجام است این لینک در اینجا).

از آنجا که اتومبیل های نیمه خودمختار به یک راننده انسانی احتیاج دارند ، تصویب آن دسته از اتومبیل ها تفاوت چندانی با رانندگی وسایل نقلیه معمولی نخواهد داشت ، بنابراین به تنهایی چیز جدیدی برای پوشش آنها در این موضوع وجود ندارد (هر چند ، همانطور که خواهید دید در یک لحظه ، نکات بعدی که بطور کلی اعمال می شود).

در مورد اتومبیل های نیمه خودمختار ، مهم است که در مورد جنبه نگران کننده ای که اخیراً بوجود آمده است ، هشدار داده شود ، یعنی این که با وجود آن رانندگان انسانی که با ارسال فیلم هایی از خودشان ، در حال خوابیدن در چرخ یک اتومبیل سطح 2 یا سطح 3 هستند. ، همه ما باید از اینكه گمان نرود راننده بتواند هنگام رانندگی یك اتومبیل نیمه خودمختار ، توجه خود را از وظیفه رانندگی دور كند ، خودداری كنیم.

شما مسئولیت اقدامات رانندگی وسیله نقلیه ، صرفنظر از میزان اتوماسیون در سطح 2 یا سطح 3 ، مسئولیت مسئولیت مسئولیت شما می باشد.

خودروهای خودران و قوانین هوش مصنوعی پرچم قرمز

برای وسایل نقلیه خود رانندگی واقعی سطح 4 و سطح 5 ، یک راننده انسانی درگیر در وظیفه رانندگی نخواهد بود.

همه سرنشینان مسافر خواهند بود.

هوش مصنوعی رانندگی را انجام می دهد.

یک جنبه برای بحث فوری این واقعیت را در بر دارد که هوش مصنوعی در سیستم های رانندگی هوش مصنوعی امروزی حساس نیست. به عبارت دیگر ، هوش مصنوعی در مجموع مجموعه ای از برنامه نویسی و الگوریتم های مبتنی بر رایانه است و مطمئناً قادر به استدلال به همان روشی نیست که انسان می تواند.

چرا این تاکید اضافی در مورد هوش مصنوعی نیست؟

از آنجا که می خواهم تأکید کنم هنگام بحث در مورد نقش سیستم رانندگی AI ، من خصوصیات انسانی را به AI نسبت نمی دهم. لطفاً توجه داشته باشید که این روزها تمایل مستمر و خطرناکی برای انسان سازی AI وجود دارد. در حقیقت ، افراد حساسیتی شبیه انسان به هوش مصنوعی امروزی دارند ، علی رغم این واقعیت انکارناپذیر و غیرقابل انکار که هنوز چنین هوش مصنوعی وجود ندارد.

با این توضیحات ، می توانید تصور کنید که سیستم رانندگی هوش مصنوعی بطور طبیعی از جنبه های رانندگی "آگاهی" نداشته باشد. رانندگی و همه آنچه که شامل می شود باید به عنوان بخشی از سخت افزار و نرم افزار اتومبیل خودران برنامه ریزی شوند.

بیایید به جنبه های بی شماری بپردازیم که در این موضوع بازی می شوند.

اول، مهم است که بدانیم همه خودروهای خودران با هوش مصنوعی یکسان نیستند. هر خودروساز و شرکت فناوری خودران رویکرد خود را برای ابداع خودروهای خودران در پیش گرفته است. به این ترتیب، اظهار نظر گسترده در مورد اینکه سیستم های رانندگی هوش مصنوعی چه کاری انجام خواهند داد یا انجام نمی دهند، دشوار است.

علاوه بر این ، هرگاه بیان شود که سیستم رانندگی هوش مصنوعی کار خاصی انجام نمی دهد ، بعداً توسعه دهندگانی که در واقع کامپیوتر را برای انجام این کار برنامه ریزی می کنند ، می توانند از این امر پیشی بگیرند. گام به گام ، سیستم های رانندگی هوش مصنوعی به تدریج در حال بهبود و گسترش هستند. امروزه محدودیت موجود ممکن است دیگر در نسخه یا نسخه بعدی سیستم وجود نداشته باشد.

امیدوارم که اخطارهای فراوانی را برای زیربنای آنچه که می خواهم بیان کنم، ارائه دهد.

بیایید سناریویی را ترسیم کنیم که ممکن است از قانون هوش مصنوعی پرچم قرمز استفاده کند.

سوار یک ماشین خودران مبتنی بر هوش مصنوعی می‌شوید و می‌خواهید که وسیله نقلیه خودران شما را به فروشگاه مواد غذایی محلی‌تان برساند. در طول سفر نسبتاً کوتاه، هوش مصنوعی مسیری را طی می کند که به نظر شما تا حدودی اشتباه است. هوش مصنوعی به جای اینکه مستقیم‌ترین مسیر را طی کند، به سمت خیابان‌های دور از مسیر حرکت می‌کند که باعث می‌شود زمان رانندگی بالاتر از حد معمول باشد.

چه خبره؟

با فرض اینکه هزینه استفاده از ماشین خودران را پرداخت می‌کنید، ممکن است مشکوک باشید که هوش مصنوعی طوری برنامه‌ریزی شده است که مسیر طولانی‌تری را طی کند تا کرایه یا هزینه سفر را بالا ببرد. هر کسی که تا به حال از یک تاکسی معمولی که توسط انسان هدایت می شود استفاده کرده باشد، از حقه هایی که می تواند برای بدست آوردن خمیر بیشتر روی متر انجام شود، می داند. البته، با داشتن جی پی اس در گوشی های هوشمند خود در حالی که سوار تاکسی یا مشابه آن هستند، می توانید به راحتی راننده انسانی را بگیرید که به نظر می رسد یواشکی مسیرهای طولانی غیر ضروری را طی می کند.

معلوم می شود که شما نگرانی دیگری در مورد انتخاب مسیر دارید، چیزی که واقعاً شما را آزار می دهد.

فرض کنید مسیریابی برای اجتناب از نقاط خاصی از شهر به دلیل جنبه های نژادی انجام شده است. موارد مستندی از رانندگان انسانی وجود دارد که در حال انجام چنین انتخاب‌هایی دستگیر شده‌اند، بحث من را در اینجا ببینید پیوند اینجا. شاید هوش مصنوعی بر اساس آن برنامه ریزی شده باشد.

شما تصمیم می گیرید که یک پرچم قرمز به اهتزاز در آورید.

بیایید برای بحث فرض کنیم که قانون هوش مصنوعی پرچم قرمز وضع شده است که حوزه قضایی شما را پوشش می دهد. ممکن است قوانین محلی، قوانین ایالتی، قوانین فدرال یا بین المللی باشد. برای تحلیلی که من با ابتکار سیاست خودروهای خودمختار هاروارد (AVPI) در مورد اهمیت روزافزون رهبری محلی در زمانی که جوامع استفاده از خودروهای خودران را می پذیرند، به نگارش درآورده ام، نگاه کنید به پیوند اینجا.

بنابراین، شما به صورت آنلاین به پایگاه داده هوش مصنوعی Red Flag می روید. در پایگاه داده حوادث، اطلاعات سفر با ماشین خودران را وارد می کنید. این شامل تاریخ و زمان سفر رانندگی به همراه مارک و مدل خودروی خودران است. سپس وارد مسیر ناوبری می‌شوید که مشکوک به نظر می‌رسد، و پیشنهاد می‌کنید یا ممکن است صریح ادعا کنید که هوش مصنوعی با هدف و ظرفیت‌های مغرضانه یا تبعیض‌آمیز ابداع شده است.

ما باید در مورد سایر جزئیات قانون هوش مصنوعی پرچم قرمز حدس بزنیم که در این سناریوی خاص چه اتفاقی می افتد. در تئوری، مقرراتی برای کسی وجود دارد که پرچم قرمز را بررسی کند. آنها احتمالاً به دنبال این هستند که خودروساز یا شرکت فناوری خودران را بخواهند که دیدگاه خود را در مورد پرچم قرمز ثبت شده توضیح دهد. چند پرچم قرمز دیگر به ثبت رسیده است؟ آن پرچم های قرمز چه نتایجی به همراه داشت؟

و به همین ترتیب ادامه خواهد داشت.

نتیجه

مضحک، برخی از شکاکان توصیه می کنند.

ما به قوانین هوش مصنوعی پرچم قرمز نیاز نداریم، آنها به شدت اعمال می کنند. وقتی صحبت از سرعت و پیشرفت هوش مصنوعی به میان می‌آید، انجام هر کاری از این دست، کار را از بین می‌برد. هر گونه چنین قوانینی سخت خواهد بود. شما مشکلی ایجاد می کنید که مشکلی را حل نمی کند. راه های دیگری برای مقابله با هوش مصنوعی وجود دارد که بد هستند. برای مقابله با هوش مصنوعی مغرضانه، کورکورانه نی ها را نگیرید.

با تعویض دنده، همه ما می دانیم که گاوبازها از شنل های قرمز رنگ برای جلب توجه گاو خشمگین استفاده می کنند. اگرچه قرمز رنگی است که ما بیشتر با این عمل مرتبط می‌دانیم، ممکن است تعجب کنید اگر بدانید که دانشمندان می‌گویند گاو نر رنگ قرمز مولتا را درک نمی‌کند (آنها تا قرمز کور رنگ هستند). نمایش محبوب افسانه ها یک بررسی کاملا سرگرم کننده از این موضوع انجام داد. حرکت شنل به جای رنگ انتخابی، عنصر کلیدی است.

برای کسانی که نیاز به قوانین هوش مصنوعی پرچم قرمز را کنار می‌گذارند، یک ادعای متقابل این است که ما به چیزی با ماهیت دراماتیک و غیرقابل انکار نیاز داریم تا مطمئن شویم که توسعه‌دهندگان و شرکت‌های هوش مصنوعی از هوش مصنوعی مغرضانه یا بد دوری می‌کنند. اگر برای یک پرچم قرمز نباشد، شاید یک شنل در اهتزاز یا اساساً هر نوع رویکرد هشدار دهنده ممکن است در محدوده توجه قرار گیرد.

ما مطمئناً می دانیم که هوش مصنوعی بد وجود دارد و هوش مصنوعی بد بیشتری در مسیر ما قرار خواهد گرفت. یافتن راه هایی برای محافظت از خود در برابر هوش مصنوعی نامطلوب بسیار مهم است. به همین ترتیب، تعیین نرده‌های محافظ برای جلوگیری از ورود هوش مصنوعی بد به جهان به همان اندازه مهم است.

ارنست همینگوی به قول معروفی می گوید که هیچ کس به جز گاوبازها تا آخر عمر زندگی نمی کند. ما باید مطمئن شویم که انسان‌ها می‌توانند زندگی خود را در تمام طول مسیر زندگی کنند، علی‌رغم هر بدی یا جنون هوش مصنوعی که بر ما تبلیغ می‌شود.

منبع: https://www.forbes.com/sites/lanceeliot/2022/06/29/ai-ethics-skeptical-about-establishing-so-called-red-flag-ai-laws-for-calling-out- الگوریتم‌های-طرفدار-در-سیستم‌های-هوش-مستقل/