بیایید در مورد قوانین پرچم سرخ صحبت کنیم.
بدون شک می دانید که مفهوم قوانین پرچم سرخ اخیراً به طور گسترده در اخبار پوشش داده شده است. سرفصل هایی که این موضوع را پوشش می دهند فراوان است. شور و اشتیاق و بحث های پرشور در مورد چنین موضوعاتی به عنوان یک نگرانی اجتماعی در رأس ذهن است و مستلزم قوانین اسلحه پرچم سرخ امروزی و به سرعت در حال ظهور است.
به جرات می توانم بگویم که ممکن است با سایر قوانین پرچم سرخ که در اواخر دهه 1800 در مورد وسایل نقلیه موتوری و پیشگامان خودروهای مدرن امروزی وضع شد، آشنا نباشید. بله، درست است، قوانین پرچم سرخ به تاریخ بازمیگردند، اگرچه در مقایسه با تمرکز امروزی موضوعات دیگری را پوشش میدهند. این قوانین معمولاً به عنوان قوانین ترافیکی با پرچم قرمز شناخته می شوند.
این قوانین قرن گذشته و کاملاً منسوخ، ایجاب میکرد که هر کالسکه موتوری یا موتوری که با بخار حرکت میکرد، در آن زمان باید یک فرد بالغ جلوتر از وسیله نقلیه باشد و برای اهداف هشدار دهنده پرچم قرمز حمل کند. ایده این بود که دام ها ممکن است از آن مواد پرسروصدا و پر سر و صدا که به آرامی و به طور ناهموار در جاده های خاکی یا حاشیه آسفالت می چرخیدند، نگران شوند، بنابراین اگر شخصی در جلوی ابزار راه برود در حالی که به شدت پرچم قرمز را به اهتزاز در می آورد، می توان امیدوار بود که از بروز بلاها جلوگیری کند. اگر تعجب میکنید، راهآهنها و قطارها از همان قوانین مستثنی تلقی میشوند، زیرا آنها وسایل نقلیهای هستند که به طور یکپارچه به ریل متصل هستند و قوانین دیگری نیز اعمالشان را پوشش میدهند.
تصور کنید که امروز باید پرچم قرمز را به عنوان یک الزام برای هر خودرو در جاده های عمومی به اهتزاز در آوریم.
به عنوان مثال، یک راننده معمولی که از خیابان محله شما پایین می آید باید اطمینان حاصل کند که بزرگسالی که پرچم قرمز را تکان می دهد حضور دارد و جلوی ماشین در حال حرکت رژه می رود. این باید برای هر وسیله نقلیه ای که از خیابان شما عبور می کند انجام شود. شاید افرادی به کارمندان پرچم قرمز تبدیل شوند که به رانندگان خودروهای عبوری استخدام میشوند که در غیر این صورت دوست یا خویشاوندی نداشتند که بتواند جلوی آنها برود و اقدامات تعیین شده را انجام دهد.
امروزه ما تمایل داریم که اهتزاز پرچم قرمز مربوط به بزرگراه را با سایت های ساخت و ساز جاده مرتبط کنیم. همانطور که به یک جاده کنده شده نزدیک می شوید، کارگران یک پرچم قرمز را بالا نگه داشته اند تا توجه شما را جلب کنند. این به شما می گوید که سرعت خود را کم کنید و هوشیار باشید. ممکن است یک بولدوزر وجود داشته باشد که در مسیر شما قرار بگیرد. ممکن است یک سوراخ غول پیکر در جلو باشد و شما باید با احتیاط اطراف آن را طی کنید.
اما بیایید به استفاده از پرچم های قرمز در سال 1800 برگردیم.
باور کنید یا نه، اهتزاز پرچم قرمز قرار بود حداقل یک هشتم مایل جلوتر از ماشین موتوری آینده باشد. به نظر می رسد که این فاصله بسیار طولانی است. با این حال می توان حدس زد که این در آن روزها بسیار معنی داشت. صداهای حیرت آور موتور و شاید فقط دیدن وسیله نقلیه ممکن است برای عصبانی کردن حیوانات کافی باشد. برخی از قوانین پرچم سرخ در آن دوره همچنین مستلزم این بود که یک چراغ قرمز درخشان در طول شب در بالا نگه داشته شود تا یک هشدار احتیاطی قرمز ظاهری بصری از فاصله تاریک دیده شود.
به طور کلی، من فکر میکنم این منصفانه است که ادعا کنیم ما به عنوان یک جامعه تمایل داریم که پرچم قرمز را به عنوان نوعی علامت یا نشانهای مرتبط کنیم که نشان میدهد چیزی به طور بالقوه اشتباه است یا حداقل نیاز به توجه مؤمنانه ما دارد.
برای کمی تغییر در این پدیده پرچم قرمز آماده شوید.
در مورد هوش مصنوعی (AI) یک بحث وجود دارد که ما باید به مقررات پرچم قرمز نیاز داشته باشیم.
این کمی شگفتانگیز و مفهومی شگفتانگیز است که ذهن بسیاری را به خود مشغول میکند. شما ممکن است متحیر شوید که چگونه یا چرا باید به اصطلاح وجود داشته باشد قوانین هوش مصنوعی پرچم قرمز. لطفاً توجه داشته باشید که من این را به عنوان قوانین هوش مصنوعی پرچم قرمز میدانم تا این موضوع را از قوانین ترافیکی پرچم سرخ (مانند قوانین اواخر دهه 1800) متمایز کنم و همچنین آنها را از سایر قوانین رایجتر پرچم سرخ امروزی متمایز کنم.
آیا ما واقعاً به قوانین هوش مصنوعی با پرچم قرمز نیاز داریم که به طور متمایز و صرفاً به موضوعات مربوط به هوش مصنوعی باشد؟
طرفداران رویکرد پیشنهادی اصرار دارند که ما کاملاً به مقررات قانونی نیاز داریم که به مهار هوش مصنوعی که حاوی تعصبات ناروا و اقدامات تبعیض آمیز است کمک کند. در حال حاضر، ساخت و استقرار هوش مصنوعی شبیه به شرایط غرب وحشی است. تلاشها برای مهار هوش مصنوعی بد در حال حاضر به تدوین و اتخاذ دستورالعملهای اخلاقی هوش مصنوعی بستگی دارد. برای پوشش مداوم و گسترده من از اخلاق هوش مصنوعی و هوش مصنوعی اخلاقی، رجوع کنید به پیوند اینجا و پیوند اینجا، فقط به نام چند.
قوانینی که در هوش مصنوعی بد به آرامی در حال ابداع و تصویب هستند، پوشش من را در اینجا ببینید پیوند اینجا. برخی نگران هستند که قانونگذاران به اندازه کافی سریع عمل نمی کنند. به نظر می رسد که دروازه های سیل برای اجازه دادن به تقویت هوش مصنوعی مغرضانه در جهان در حال حاضر تا حد زیادی باز است. Hand-wringing میگوید زمانی که قوانین جدید وارد کتابها شوند، جن شیطانی از بطری خارج خواهد شد.
نه چندان سریع، استدلال های متقابل پیش می روند. نگرانیها این است که اگر قوانین خیلی سریع وضع شوند، غاز طلایی را میکشیم، بهطوریکه تلاشهای هوش مصنوعی خشک میشوند و ما از مزایای تقویتکننده اجتماعی سیستمهای هوش مصنوعی جدید برخوردار نخواهیم شد. توسعه دهندگان و شرکت های هوش مصنوعی که مایل به استفاده از هوش مصنوعی هستند، ممکن است اگر مجموعه ای از قوانین بیزانسی جدید حاکم بر هوش مصنوعی به طور ناگهانی در سطوح فدرال، ایالتی و محلی وضع شود، به جز قوانین بین المللی مرتبط با هوش مصنوعی که در حال پیشرفت هستند، وحشت زده شوند.
در این ماجرای کثیف فراخوان قوانین هوش مصنوعی پرچم قرمز است.
قبل از پرداختن به گوشت و سیب زمینی بیشتر در مورد ملاحظات وحشی و پشمی زیربنای قانون پیشبینیشده هوش مصنوعی پرچم قرمز، اجازه دهید برخی اصول اضافی را در مورد موضوعات بسیار ضروری ایجاد کنیم. ما باید به طور مختصر به اخلاق هوش مصنوعی و به ویژه ظهور یادگیری ماشینی (ML) و یادگیری عمیق (DL) نگاهی کوتاه بیندازیم.
ممکن است به طور مبهم آگاه باشید که یکی از بلندترین صداها این روزها در زمینه هوش مصنوعی و حتی خارج از حوزه هوش مصنوعی، فریاد زدن برای ظاهری بیشتر از هوش مصنوعی اخلاقی است. بیایید نگاهی به معنای ارجاع به اخلاق هوش مصنوعی و هوش مصنوعی اخلاقی بیندازیم. علاوه بر این، وقتی از یادگیری ماشینی و یادگیری عمیق صحبت میکنم، منظورم را بررسی خواهیم کرد.
یک بخش یا بخش خاصی از اخلاق هوش مصنوعی که توجه رسانه ها را به خود جلب کرده است شامل هوش مصنوعی است که سوگیری ها و نابرابری های نامناسبی را نشان می دهد. ممکن است بدانید که زمانی که آخرین دوره هوش مصنوعی آغاز شد، شور و شوق زیادی برای آنچه که اکنون برخی میگویند وجود داشت. هوش مصنوعی برای خوب. متأسفانه، در پاشنه آن هیجان فوران، ما شروع به مشاهده کردیم هوش مصنوعی برای بد. برای مثال، سیستمهای مختلف تشخیص چهره مبتنی بر هوش مصنوعی حاوی سوگیریهای نژادی و سوگیریهای جنسیتی هستند که من در مورد آن بحث کردهام. پیوند اینجا.
تلاش برای مبارزه با هوش مصنوعی برای بد به طور فعال در حال انجام هستند. علاوه بر پر سر و صدا حقوقی تلاش برای مهار تخلفات، همچنین فشار اساسی به سمت پذیرش اخلاق هوش مصنوعی برای اصلاح شرارت هوش مصنوعی وجود دارد. تصور این است که ما باید اصول کلیدی هوش مصنوعی اخلاقی را برای توسعه و توسعه هوش مصنوعی اتخاذ و تأیید کنیم تا این کار را کاهش دهیم. هوش مصنوعی برای بد و به طور همزمان منادی و ترویج مرجح هوش مصنوعی برای خوب.
در یک مفهوم مرتبط، من طرفدار تلاش برای استفاده از هوش مصنوعی به عنوان بخشی از راه حل مشکلات هوش مصنوعی هستم، و با این شیوه تفکر با آتش مبارزه می کنم. برای مثال، ممکن است اجزای هوش مصنوعی اخلاقی را در یک سیستم هوش مصنوعی تعبیه کنیم که بر نحوه انجام بقیه هوش مصنوعی نظارت میکند و بنابراین به طور بالقوه در زمان واقعی هرگونه تلاش تبعیض آمیز را جلب میکند. پیوند اینجا. ما همچنین میتوانیم یک سیستم هوش مصنوعی جداگانه داشته باشیم که به عنوان نوعی مانیتور اخلاق هوش مصنوعی عمل میکند. سیستم هوش مصنوعی به عنوان یک ناظر برای ردیابی و تشخیص اینکه چه زمانی هوش مصنوعی دیگر به ورطه غیراخلاقی می رود عمل می کند (تحلیل من از چنین قابلیت هایی را در اینجا ببینید. پیوند اینجا).
در یک لحظه، من برخی از اصول کلی زیربنای اخلاق هوش مصنوعی را با شما به اشتراک خواهم گذاشت. تعداد زیادی از این نوع لیست ها اینجا و آنجا شناور هستند. می توان گفت که هنوز فهرست منحصر به فردی از جذابیت و توافق جهانی وجود ندارد. این خبر تاسف بار است. خبر خوب این است که حداقل لیستهای اخلاقی هوش مصنوعی وجود دارد که کاملاً مشابه هستند. در مجموع، این نشان میدهد که با نوعی همگرایی مستدل، راه خود را به سوی یک اشتراک کلی از آنچه اخلاق هوش مصنوعی تشکیل میدهد، پیدا میکنیم.
ابتدا، اجازه دهید به طور مختصر برخی از قوانین کلی اخلاقی هوش مصنوعی را پوشش دهیم تا نشان دهیم چه چیزی باید برای هر کسی که در حال ساخت، ساخت و یا استفاده از هوش مصنوعی است، اهمیت حیاتی داشته باشد.
به عنوان مثال، همانطور که توسط واتیکان در فراخوان رم برای اخلاق هوش مصنوعی و همانطور که به طور عمیق به آن پرداخته ام پیوند اینجا، این شش اصل اصلی اخلاق هوش مصنوعی شناسایی شده آنها است:
- شفافیت: در اصل، سیستم های هوش مصنوعی باید قابل توضیح باشند
- نقص: نیازهای همه انسانها باید مورد توجه قرار گیرد تا همه بتوانند از آن بهره ببرند و بهترین شرایط ممکن برای ابراز وجود و پیشرفت به همه افراد ارائه شود.
- مسئوليت: کسانی که استفاده از هوش مصنوعی را طراحی و اجرا می کنند باید با مسئولیت و شفافیت پیش بروند
- بی طرفی: از ایجاد و یا عمل بر اساس تعصب، در نتیجه حفظ انصاف و کرامت انسانی
- قابلیت اطمینان: سیستم های هوش مصنوعی باید بتوانند به طور قابل اعتماد کار کنند
- امنیت و حریم خصوصی: سیستم های هوش مصنوعی باید ایمن کار کنند و به حریم خصوصی کاربران احترام بگذارند.
همانطور که توسط وزارت دفاع ایالات متحده (DoD) در آنها بیان شده است اصول اخلاقی برای استفاده از هوش مصنوعی و همانطور که به طور عمیق به آن پرداخته ام پیوند اینجا، این شش اصل اصلی اخلاق هوش مصنوعی آنهاست:
- مسئول: پرسنل وزارت دفاع سطوح مناسبی از قضاوت و مراقبت را اعمال خواهند کرد و در عین حال مسئولیت توسعه، استقرار و استفاده از قابلیتهای هوش مصنوعی را بر عهده خواهند داشت.
- منصفانه: این وزارتخانه اقدامات عمدی را برای به حداقل رساندن سوگیری ناخواسته در قابلیتهای هوش مصنوعی انجام خواهد داد.
- قابل ردیابی: قابلیتهای هوش مصنوعی این وزارتخانه به گونهای توسعه و مستقر خواهد شد که پرسنل مربوطه درک مناسبی از فناوری، فرآیندهای توسعه، و روشهای عملیاتی قابل اجرا برای قابلیتهای هوش مصنوعی، از جمله روششناسی شفاف و قابل ممیزی، منابع دادهها، روشها و مستندات طراحی داشته باشند.
- قابل اعتماد: قابلیتهای هوش مصنوعی این وزارتخانه کاربردهای مشخص و مشخصی خواهند داشت، و ایمنی، امنیت و اثربخشی چنین قابلیتهایی مشمول آزمایش و اطمینان در آن کاربردهای تعریفشده در کل چرخه عمر آنها خواهد بود.
- قابل اداره: این وزارتخانه قابلیتهای هوش مصنوعی را طراحی و مهندسی میکند تا عملکردهای مورد نظر خود را انجام دهد، در حالی که توانایی شناسایی و اجتناب از پیامدهای ناخواسته را دارد، و توانایی جدا کردن یا غیرفعال کردن سیستمهای مستقری که رفتار ناخواسته را نشان میدهند.
من همچنین در مورد تجزیه و تحلیلهای جمعی مختلف از اصول اخلاق هوش مصنوعی بحث کردهام، از جمله پوشش مجموعهای ابداع شده توسط محققان که ماهیت بسیاری از اصول اخلاقی هوش مصنوعی ملی و بینالمللی را در مقالهای تحت عنوان «چشمانداز جهانی دستورالعملهای اخلاق هوش مصنوعی» (منتشر شده) بررسی و فشرده کرده است. که در طبیعت) و پوشش من در آن بررسی می شود پیوند اینجا، که منجر به این لیست کلیدی شد:
- شفافیت
- عدالت و انصاف
- عدم سوء استفاده
- مسئوليت
- حریم خصوصی
- سود رسانی
- آزادی و خودمختاری
- اعتماد
- پایداری
- کرامت
- اتحاد
همانطور که ممکن است مستقیماً حدس بزنید، تلاش برای مشخص کردن جزئیات زیربنای این اصول می تواند بسیار سخت باشد. حتی بیشتر از آن، تلاش برای تبدیل این اصول گسترده به چیزی کاملاً ملموس و با جزئیات کافی برای استفاده در هنگام ساخت سیستمهای هوش مصنوعی نیز یک مهره سخت است. به طور کلی می توان در مورد اینکه اصول اخلاقی هوش مصنوعی چیست و چگونه باید به طور کلی آنها را رعایت کرد، دست تکان داد، در حالی که وضعیت بسیار پیچیده تر در کدنویسی هوش مصنوعی است که باید لاستیک واقعی باشد که با جاده مطابقت می کند.
اصول اخلاقی هوش مصنوعی باید توسط توسعه دهندگان هوش مصنوعی، همراه با آنهایی که تلاش های توسعه هوش مصنوعی را مدیریت می کنند، و حتی آنهایی که در نهایت سیستم های هوش مصنوعی را انجام می دهند، مورد استفاده قرار گیرد. تمام ذینفعان در طول چرخه عمر توسعه و استفاده هوش مصنوعی در محدوده رعایت هنجارهای تثبیت شده هوش مصنوعی اخلاقی در نظر گرفته می شوند. این نکته مهمی است زیرا فرض معمول این است که «فقط کدنویسها» یا کسانی که هوش مصنوعی را برنامهریزی میکنند، مشمول رعایت مفاهیم اخلاق هوش مصنوعی هستند. همانطور که قبلاً گفته شد، برای ابداع و به کارگیری هوش مصنوعی به یک دهکده نیاز است، و برای آن کل دهکده باید به اصول اخلاقی هوش مصنوعی مسلط باشد و از آن پیروی کند.
بیایید همچنین مطمئن شویم که در مورد ماهیت هوش مصنوعی امروزی همسو هستیم.
امروزه هیچ هوش مصنوعی وجود ندارد که حساس باشد. ما این را نداریم ما نمی دانیم که آیا هوش مصنوعی ممکن خواهد بود یا خیر. هیچ کس نمی تواند به درستی پیش بینی کند که آیا ما به هوش مصنوعی خواهیم رسید یا خیر، یا اینکه آیا هوش مصنوعی به طور معجزه آسایی به شکلی از ابرنواختر شناختی محاسباتی پدید خواهد آمد (که معمولاً به عنوان تکینگی شناخته می شود، پوشش من را در اینجا ببینید. پیوند اینجا).
نوع هوش مصنوعی که من روی آن تمرکز می کنم شامل هوش مصنوعی غیر حساسی است که امروز داریم. اگر بخواهیم به شدت در مورد آن حدس بزنیم با احساس هوش مصنوعی، این بحث می تواند در جهتی کاملاً متفاوت پیش رود. ظاهراً یک هوش مصنوعی با کیفیت انسانی خواهد بود. شما باید در نظر داشته باشید که هوش مصنوعی حسی معادل شناختی یک انسان است. علاوه بر این، از آنجایی که برخی گمانه زنی می کنند که ممکن است هوش مصنوعی فوق هوشمند داشته باشیم، می توان تصور کرد که چنین هوش مصنوعی می تواند در نهایت از انسان ها باهوش تر باشد (برای کاوش من در مورد هوش مصنوعی فوق هوشمند به عنوان یک احتمال، نگاه کنید به پوشش در اینجا).
بیایید همه چیز را روی زمین نگه داریم و هوش مصنوعی محاسباتی غیر حساس امروزی را در نظر بگیریم.
درک کنید که هوش مصنوعی امروزی قادر به «فکر کردن» به هیچ شکلی با تفکر انسان نیست. وقتی با الکسا یا سیری تعامل می کنید، ظرفیت های مکالمه ممکن است شبیه ظرفیت های انسانی به نظر برسد، اما واقعیت این است که محاسباتی است و فاقد شناخت انسانی است. آخرین دوره هوش مصنوعی از یادگیری ماشینی (ML) و یادگیری عمیق (DL) استفاده گسترده ای کرده است که از تطابق الگوی محاسباتی استفاده می کند. این منجر به سیستمهای هوش مصنوعی شده است که ظاهری شبیه به تمایلات انسان دارند. در همین حال، هیچ هوش مصنوعی امروزی وجود ندارد که شباهتی به عقل سلیم داشته باشد و هیچ یک از شگفتیهای شناختی تفکر قوی انسانی را نداشته باشد.
ML/DL نوعی تطبیق الگوی محاسباتی است. روش معمول این است که شما داده ها را در مورد یک کار تصمیم گیری جمع آوری می کنید. داده ها را به مدل های کامپیوتری ML/DL وارد می کنید. آن مدل ها به دنبال یافتن الگوهای ریاضی هستند. پس از یافتن چنین الگوهایی، در صورت یافتن، سیستم هوش مصنوعی در هنگام مواجهه با داده های جدید از آن الگوها استفاده خواهد کرد. پس از ارائه داده های جدید، الگوهای مبتنی بر داده های "قدیمی" یا تاریخی برای ارائه یک تصمیم فعلی استفاده می شود.
من فکر می کنم می توانید حدس بزنید که این به کجا می رود. اگر انسانهایی که بر اساس تصمیمگیریهای الگو گرفته شدهاند، سوگیریهای نامطلوب را در خود جای دادهاند، احتمال این وجود دارد که دادهها این را به روشهای ظریف اما قابل توجهی منعکس کنند. تطبیق الگوی محاسباتی یادگیری ماشینی یا یادگیری عمیق به سادگی سعی میکند تا دادهها را مطابق با ریاضی تقلید کند. هیچ شباهتی از عقل سلیم یا سایر جنبه های حساس مدل سازی ساخته شده با هوش مصنوعی به خودی خود وجود ندارد.
علاوه بر این، توسعه دهندگان هوش مصنوعی نیز ممکن است متوجه نباشند که چه اتفاقی در حال رخ دادن است. ریاضیات محرمانه در ML/DL ممکن است کشف سوگیری های پنهان در حال حاضر را دشوار کند. شما به حق امیدوارید و انتظار دارید که توسعهدهندگان هوش مصنوعی سوگیریهای بالقوه مدفون را آزمایش کنند، اگرچه این دشوارتر از آن چیزی است که به نظر میرسد. این احتمال وجود دارد که حتی با آزمایش نسبتاً گسترده، سوگیریهایی همچنان در مدلهای تطبیق الگوی ML/DL وجود داشته باشد.
میتوانید تا حدودی از ضربالمثل معروف یا بدنام زبالههای درون زبالهها استفاده کنید. مسئله این است که این بیشتر شبیه سوگیریهایی است که بهطور موذیانه بهعنوان سوگیریهایی که در هوش مصنوعی غوطهور میشوند، القا میشوند. الگوریتم تصمیمگیری (ADM) هوش مصنوعی به طور اصولی مملو از نابرابریها میشود.
خوب نیست.
بیایید به تمرکز خود بر روی قوانین هوش مصنوعی پرچم قرمز بازگردیم.
مفهوم زیربنایی این است که مردم می توانند هر زمان که معتقدند یک سیستم هوش مصنوعی به شکلی غیرقابل مغرضانه یا تبعیض آمیز عمل می کند، پرچم قرمز را برافراشتند. شما به خودی خود یک پرچم فیزیکی را برافراشته نمیکنید، و در عوض از برخی وسایل الکترونیکی برای اعلام نگرانیهای خود استفاده میکنید. بخش پرچم قرمز طرح یا رویکرد بیشتر یک استعاره است تا یک تجسم فیزیکی.
وانمود کنید که برای وام مسکن درخواست داده اید. شما ترجیح می دهید از خدمات بانکداری آنلاین برای درخواست وام استفاده کنید. پس از وارد کردن برخی از دادههای شخصی، لحظهای منتظر سیستم هوش مصنوعی میشوید که از آن استفاده میشود تا تصمیم بگیرید آیا شایسته وام هستید یا خیر. هوش مصنوعی به شما می گوید که برای دریافت وام رد شده اید. پس از درخواست توضیح در مورد دلیل رد شدن شما، به نظر می رسد روایت متنی به شما نشان می دهد که هوش مصنوعی از عوامل مغرضانه نابجا به عنوان بخشی از الگوریتم تصمیم گیری استفاده می کند.
زمان برافراشتن پرچم قرمز در مورد هوش مصنوعی است.
این پرچم قرمز دقیقاً کجا به اهتزاز در خواهد آمد؟
این یک سوال میلیون دلاری است.
یک دیدگاه این است که ما باید یک پایگاه داده در سراسر کشور راه اندازی کنیم که به مردم اجازه دهد پرچم های قرمز مربوط به هوش مصنوعی خود را علامت گذاری کنند. برخی می گویند که این باید توسط دولت فدرال تنظیم شود. آژانسهای فدرال مسئول بررسی پرچمهای قرمز و کمک به عموم مردم در مورد صحت و برخورد با احتمالاً «هوش مصنوعی بد» هستند که گزارشهای پرچم قرمز را افزایش داده است.
قانون هوش مصنوعی پرچم قرمز ملی ظاهراً توسط کنگره ایجاد می شود. این قانون مشخص می کند که پرچم قرمز مربوط به هوش مصنوعی چیست. این قانون نحوه برافراشتن پرچمهای قرمز آزاردهنده هوش مصنوعی را توضیح میدهد. و غیره. همچنین ممکن است هر ایالت نیز قوانین هوش مصنوعی پرچم قرمز خود را ایجاد کند. شاید آنها این کار را به جای یک ابتکار ملی انجام می دهند، یا این کار را برای تقویت جزئیاتی انجام می دهند که مخصوصاً برای وضعیت خاص آنها جذاب است.
منتقدان یک برنامه هوش مصنوعی پرچم قرمز فدرال یا تحت حمایت دولت استدلال می کنند که این کاری است که صنعت خصوصی می تواند انجام دهد و ما نیازی به حضور برادر بزرگ نداریم. این صنعت میتواند یک مخزن آنلاین ایجاد کند که افراد بتوانند پرچمهای قرمز سیستمهای هوش مصنوعی را در آن ثبت کنند. یک اقدام خود پلیسی توسط صنعت به اندازه کافی با این مسائل مقابله می کند.
یک ایراد در مورد رویکرد صنعتی ادعا شده این است که به نظر می رسد بوی دوستی دارد. آیا شرکتها مایلند از برخی پایگاهدادههای هوش مصنوعی Red Flag پیروی کنند؟ بسیاری از شرکت ها به طور بالقوه پرچم های قرمز مشخص شده در مورد هوش مصنوعی خود را نادیده می گیرند. برای ترغیب شرکت ها به مقابله با پرچم های قرمز وارد شده، دندان های تیز وجود نخواهد داشت.
هی، طرفداران رویکرد بخش خصوصی به نظر می رسد، این شبیه خدمات ملی Yelp است. مصرفکنندگان میتوانند به پرچمهای قرمز نگاه کنند و خودشان تصمیم بگیرند که آیا میخواهند با شرکتهایی که انبوهی از پرچمهای قرمز مبتنی بر هوش مصنوعی را جمعآوری کردهاند، تجارت کنند یا خیر. بانکی که هزاران پرچم قرمز در مورد هوش مصنوعی خود دریافت می کرد، باید توجه کند و سیستم های هوش مصنوعی خود را اصلاح کند، بنابراین منطق ادامه دارد، در غیر این صورت مصرف کنندگان مانند طاعون از شرکت اجتناب می کنند.
این که آیا کل این رویکرد توسط دولت یا صنعت انجام می شود، فقط نوک کوه یخ در مورد سؤالات خاردار پیش روی فرضیه پیشنهادی قوانین هوش مصنوعی پرچم سرخ است.
خود را به جای شرکتی قرار دهید که هوش مصنوعی را توسعه داده یا از آن استفاده می کند. ممکن است مصرفکنندگان پرچمهای قرمز را بلند کنند، حتی اگر هیچ مبنای قابل قبولی برای این کار وجود نداشته باشد. اگر مردم بتوانند آزادانه یک پرچم قرمز در مورد هوش مصنوعی منتشر کنند، ممکن است وسوسه شوند که این کار را از روی هوس انجام دهند، یا شاید برای انتقام از شرکتی که در غیر این صورت هیچ اشتباهی نسبت به مصرف کننده انجام نداده است.
به طور خلاصه، ممکن است تعداد زیادی پرچم قرمز مثبت کاذب در مورد هوش مصنوعی وجود داشته باشد.
ملاحظات دیگر اندازه یا بزرگی پرچم های قرمز حاصله است. به راحتی میلیون ها میلیون پرچم قرمز برافراشته می شود. چه کسی قرار است این همه پرچم قرمز را پیگیری کند؟ هزینه انجام این کار چقدر خواهد بود؟ چه کسی هزینه تلاش های پیگیری پرچم قرمز را پرداخت خواهد کرد؟ و غیره.
اگر بخواهید بگویید که هر کسی که یک پرچم قرمز در مورد هوش مصنوعی را ثبت یا گزارش می کند باید هزینه ای بپردازد، وارد یک قلمرو مبهم و موذی شده اید. نگرانی این است که فقط ثروتمندان قادر به برافراشتن پرچم قرمز باشند. این به نوبه خود نشان می دهد که افراد فقیر نمی توانند به طور مساوی در فعالیت های پرچم قرمز شرکت کنند و اساساً هیچ مکانی برای هشدار در مورد هوش مصنوعی نامطلوب ندارند.
در حال حاضر فقط یک پیچ اضافی دیگر، یعنی این که این نوع قوانین یا دستورالعملهای پرچم قرمز در مورد هوش مصنوعی به نظر میرسد به جای اینکه از قبل به عنوان یک هشدار باشد، بعد از واقعیت است.
با بازگشت به قوانین راهنمایی و رانندگی با پرچم قرمز، تأکید بر استفاده از پرچم قرمز برای جلوگیری از وقوع یک فاجعه برای شروع بود. قرار بود که پرچم قرمز بسیار جلوتر از خودروی آینده باشد. با جلوتر بودن از وسیله نقلیه، به دام هشدار داده می شود و کسانی که از دام محافظت می کنند می دانند که باید اقدامات احتیاطی را به دلیل منبع مزاحم که به زودی وارد می شود انجام دهند.
اگر مردم فقط قادر به برافراشتن پرچم قرمز در مورد هوش مصنوعی باشند که ظاهراً قبلاً به حقوق آنها آسیب رسانده یا تضعیف کرده است، اسب ضرب المثل قبلاً از انبار خارج شده است. تنها کاری که به نظر می رسد این است که امیدواریم افراد دیگری که همراه می شوند اکنون بدانند که مراقب آن سیستم هوش مصنوعی باشند. در همین حال، فردی که گفته می شود ظلم شده، قبلاً آسیب دیده است.
برخی پیشنهاد میکنند که شاید بتوانیم به مردم اجازه دهیم که پرچمهای قرمز را در مورد هوش مصنوعی برافرازند مظنون ممکن است مغرضانه باشند، حتی اگر از هوش مصنوعی استفاده نکرده باشند و مستقیماً تحت تأثیر هوش مصنوعی قرار نگرفته باشند. بنابراین، پرچم قرمز قبل از اینکه آسیب وارد شود به اهتزاز در می آید.
بله، پاسخ می دهد، شما واقعاً پرچم قرمزهای مقابله با هوش مصنوعی را به یک امر کاملاً غیرقابل مدیریت و هرج و مرج تبدیل خواهید کرد. اگر کسی به هر دلیلی بتواند پرچم قرمزی را در مورد یک سیستم هوش مصنوعی بالا ببرد، علیرغم اینکه هیچ کاری با آن هوش مصنوعی انجام نداده است، شما غرق پرچم های قرمز خواهید شد. بدتر از آن، شما نمی توانید گندم را از کاه تشخیص دهید. کل رویکرد پرچم قرمز زیر وزن خود فرو می ریزد و با اجازه دادن به فلوتسام و ریفرف برای غرق کردن کل کشتی، خوبی این ایده را از بین می برد.
سرگیجه آور و گیج کننده.
در این مقطع از این بحث سنگین، شرط می بندم که شما خواهان نمونه های گویا هستید که ممکن است این موضوع را به نمایش بگذارد. مجموعهای از نمونههای خاص و مطمئناً محبوب وجود دارد که به دلم نشسته است. ببینید، به عنوان یک متخصص در زمینه هوش مصنوعی از جمله پیامدهای اخلاقی و قانونی، اغلب از من خواسته میشود که نمونههای واقعبینانهای را که معضلات اخلاقی هوش مصنوعی را نشان میدهند شناسایی کنم تا بتوان ماهیت تا حدودی نظری موضوع را راحتتر درک کرد. یکی از جذابترین زمینههایی که این معضل اخلاقی هوش مصنوعی را به وضوح نشان میدهد، ظهور خودروهای خودران واقعی مبتنی بر هوش مصنوعی است. این به عنوان یک مورد استفاده مفید یا نمونه ای برای بحث و گفتگوی کافی در مورد موضوع خواهد بود.
پس در اینجا یک سوال قابل توجه وجود دارد که قابل تامل است: آیا ظهور خودروهای خودران واقعی مبتنی بر هوش مصنوعی چیزی در مورد قوانین هوش مصنوعی پرچم قرمز روشن می کند، و اگر چنین است، این چه چیزی را به نمایش می گذارد؟
یک لحظه به من اجازه دهید تا پرسش را باز کنم.
اول، توجه داشته باشید که هیچ راننده انسانی در یک ماشین خودران واقعی دخیل نیست. به خاطر داشته باشید که خودروهای خودران واقعی از طریق سیستم رانندگی هوش مصنوعی هدایت می شوند. نه نیازی به راننده انسان پشت فرمان وجود دارد و نه پیش بینی ای برای رانندگی وسیله نقلیه توسط انسان وجود دارد. برای پوشش گسترده و مداوم من در مورد وسایل نقلیه خودران (AVs) و به خصوص خودروهای خودران، نگاه کنید به پیوند اینجا.
مایلم بیشتر توضیح دهم که منظور از خودروهای خودران واقعی چیست.
درک سطح اتومبیل های خودران
به عنوان یک توضیح، خودروهای خودران واقعی، خودروهایی هستند که هوش مصنوعی خودرو را کاملاً به تنهایی رانندگی می کند و هیچ کمک انسانی در طول کار رانندگی وجود ندارد.
این وسایل نقلیه بدون راننده سطح 4 و سطح 5 در نظر گرفته می شوند (توضیحات من را در اینجا ببینید این لینک در اینجا) ، در حالی که خودرویی که نیاز به یک راننده انسانی برای مشارکت در رانندگی دارد معمولاً در سطح 2 یا سطح 3 در نظر گرفته می شود. افزودنی های خودکار که به عنوان ADAS (سیستم های کمک راننده پیشرفته) شناخته می شوند.
هنوز یک خودروی خودران واقعی در سطح 5 وجود ندارد، و ما هنوز حتی نمی دانیم که آیا امکان دستیابی به آن وجود دارد یا خیر، و نه اینکه چقدر طول می کشد تا به آنجا برسیم.
در همین حال ، تلاش های سطح 4 به تدریج در تلاشند تا با انجام آزمایشات عمومی بسیار باریک و انتخابی در جاده ها ، کمی به سمت خود جلب کنند ، هرچند در مورد اینکه آیا این آزمایش به خودی خود مجاز است یا خیر ، اختلاف نظر وجود دارد (همه ما در یک آزمایش خوکچه هندی زنده یا مرگ هستیم) برخی از آنها ادعا می كنند كه در بزرگراهها و گذرگاههای ما در حال انجام است این لینک در اینجا).
از آنجا که اتومبیل های نیمه خودمختار به یک راننده انسانی احتیاج دارند ، تصویب آن دسته از اتومبیل ها تفاوت چندانی با رانندگی وسایل نقلیه معمولی نخواهد داشت ، بنابراین به تنهایی چیز جدیدی برای پوشش آنها در این موضوع وجود ندارد (هر چند ، همانطور که خواهید دید در یک لحظه ، نکات بعدی که بطور کلی اعمال می شود).
در مورد اتومبیل های نیمه خودمختار ، مهم است که در مورد جنبه نگران کننده ای که اخیراً بوجود آمده است ، هشدار داده شود ، یعنی این که با وجود آن رانندگان انسانی که با ارسال فیلم هایی از خودشان ، در حال خوابیدن در چرخ یک اتومبیل سطح 2 یا سطح 3 هستند. ، همه ما باید از اینكه گمان نرود راننده بتواند هنگام رانندگی یك اتومبیل نیمه خودمختار ، توجه خود را از وظیفه رانندگی دور كند ، خودداری كنیم.
شما مسئولیت اقدامات رانندگی وسیله نقلیه ، صرفنظر از میزان اتوماسیون در سطح 2 یا سطح 3 ، مسئولیت مسئولیت مسئولیت شما می باشد.
خودروهای خودران و قوانین هوش مصنوعی پرچم قرمز
برای وسایل نقلیه خود رانندگی واقعی سطح 4 و سطح 5 ، یک راننده انسانی درگیر در وظیفه رانندگی نخواهد بود.
همه سرنشینان مسافر خواهند بود.
هوش مصنوعی رانندگی را انجام می دهد.
یک جنبه برای بحث فوری این واقعیت را در بر دارد که هوش مصنوعی در سیستم های رانندگی هوش مصنوعی امروزی حساس نیست. به عبارت دیگر ، هوش مصنوعی در مجموع مجموعه ای از برنامه نویسی و الگوریتم های مبتنی بر رایانه است و مطمئناً قادر به استدلال به همان روشی نیست که انسان می تواند.
چرا این تاکید اضافی در مورد هوش مصنوعی نیست؟
از آنجا که می خواهم تأکید کنم هنگام بحث در مورد نقش سیستم رانندگی AI ، من خصوصیات انسانی را به AI نسبت نمی دهم. لطفاً توجه داشته باشید که این روزها تمایل مستمر و خطرناکی برای انسان سازی AI وجود دارد. در حقیقت ، افراد حساسیتی شبیه انسان به هوش مصنوعی امروزی دارند ، علی رغم این واقعیت انکارناپذیر و غیرقابل انکار که هنوز چنین هوش مصنوعی وجود ندارد.
با این توضیحات ، می توانید تصور کنید که سیستم رانندگی هوش مصنوعی بطور طبیعی از جنبه های رانندگی "آگاهی" نداشته باشد. رانندگی و همه آنچه که شامل می شود باید به عنوان بخشی از سخت افزار و نرم افزار اتومبیل خودران برنامه ریزی شوند.
بیایید به جنبه های بی شماری بپردازیم که در این موضوع بازی می شوند.
اول، مهم است که بدانیم همه خودروهای خودران با هوش مصنوعی یکسان نیستند. هر خودروساز و شرکت فناوری خودران رویکرد خود را برای ابداع خودروهای خودران در پیش گرفته است. به این ترتیب، اظهار نظر گسترده در مورد اینکه سیستم های رانندگی هوش مصنوعی چه کاری انجام خواهند داد یا انجام نمی دهند، دشوار است.
علاوه بر این ، هرگاه بیان شود که سیستم رانندگی هوش مصنوعی کار خاصی انجام نمی دهد ، بعداً توسعه دهندگانی که در واقع کامپیوتر را برای انجام این کار برنامه ریزی می کنند ، می توانند از این امر پیشی بگیرند. گام به گام ، سیستم های رانندگی هوش مصنوعی به تدریج در حال بهبود و گسترش هستند. امروزه محدودیت موجود ممکن است دیگر در نسخه یا نسخه بعدی سیستم وجود نداشته باشد.
امیدوارم که اخطارهای فراوانی را برای زیربنای آنچه که می خواهم بیان کنم، ارائه دهد.
بیایید سناریویی را ترسیم کنیم که ممکن است از قانون هوش مصنوعی پرچم قرمز استفاده کند.
سوار یک ماشین خودران مبتنی بر هوش مصنوعی میشوید و میخواهید که وسیله نقلیه خودران شما را به فروشگاه مواد غذایی محلیتان برساند. در طول سفر نسبتاً کوتاه، هوش مصنوعی مسیری را طی می کند که به نظر شما تا حدودی اشتباه است. هوش مصنوعی به جای اینکه مستقیمترین مسیر را طی کند، به سمت خیابانهای دور از مسیر حرکت میکند که باعث میشود زمان رانندگی بالاتر از حد معمول باشد.
چه خبره؟
با فرض اینکه هزینه استفاده از ماشین خودران را پرداخت میکنید، ممکن است مشکوک باشید که هوش مصنوعی طوری برنامهریزی شده است که مسیر طولانیتری را طی کند تا کرایه یا هزینه سفر را بالا ببرد. هر کسی که تا به حال از یک تاکسی معمولی که توسط انسان هدایت می شود استفاده کرده باشد، از حقه هایی که می تواند برای بدست آوردن خمیر بیشتر روی متر انجام شود، می داند. البته، با داشتن جی پی اس در گوشی های هوشمند خود در حالی که سوار تاکسی یا مشابه آن هستند، می توانید به راحتی راننده انسانی را بگیرید که به نظر می رسد یواشکی مسیرهای طولانی غیر ضروری را طی می کند.
معلوم می شود که شما نگرانی دیگری در مورد انتخاب مسیر دارید، چیزی که واقعاً شما را آزار می دهد.
فرض کنید مسیریابی برای اجتناب از نقاط خاصی از شهر به دلیل جنبه های نژادی انجام شده است. موارد مستندی از رانندگان انسانی وجود دارد که در حال انجام چنین انتخابهایی دستگیر شدهاند، بحث من را در اینجا ببینید پیوند اینجا. شاید هوش مصنوعی بر اساس آن برنامه ریزی شده باشد.
شما تصمیم می گیرید که یک پرچم قرمز به اهتزاز در آورید.
بیایید برای بحث فرض کنیم که قانون هوش مصنوعی پرچم قرمز وضع شده است که حوزه قضایی شما را پوشش می دهد. ممکن است قوانین محلی، قوانین ایالتی، قوانین فدرال یا بین المللی باشد. برای تحلیلی که من با ابتکار سیاست خودروهای خودمختار هاروارد (AVPI) در مورد اهمیت روزافزون رهبری محلی در زمانی که جوامع استفاده از خودروهای خودران را می پذیرند، به نگارش درآورده ام، نگاه کنید به پیوند اینجا.
بنابراین، شما به صورت آنلاین به پایگاه داده هوش مصنوعی Red Flag می روید. در پایگاه داده حوادث، اطلاعات سفر با ماشین خودران را وارد می کنید. این شامل تاریخ و زمان سفر رانندگی به همراه مارک و مدل خودروی خودران است. سپس وارد مسیر ناوبری میشوید که مشکوک به نظر میرسد، و پیشنهاد میکنید یا ممکن است صریح ادعا کنید که هوش مصنوعی با هدف و ظرفیتهای مغرضانه یا تبعیضآمیز ابداع شده است.
ما باید در مورد سایر جزئیات قانون هوش مصنوعی پرچم قرمز حدس بزنیم که در این سناریوی خاص چه اتفاقی می افتد. در تئوری، مقرراتی برای کسی وجود دارد که پرچم قرمز را بررسی کند. آنها احتمالاً به دنبال این هستند که خودروساز یا شرکت فناوری خودران را بخواهند که دیدگاه خود را در مورد پرچم قرمز ثبت شده توضیح دهد. چند پرچم قرمز دیگر به ثبت رسیده است؟ آن پرچم های قرمز چه نتایجی به همراه داشت؟
و به همین ترتیب ادامه خواهد داشت.
نتیجه
مضحک، برخی از شکاکان توصیه می کنند.
ما به قوانین هوش مصنوعی پرچم قرمز نیاز نداریم، آنها به شدت اعمال می کنند. وقتی صحبت از سرعت و پیشرفت هوش مصنوعی به میان میآید، انجام هر کاری از این دست، کار را از بین میبرد. هر گونه چنین قوانینی سخت خواهد بود. شما مشکلی ایجاد می کنید که مشکلی را حل نمی کند. راه های دیگری برای مقابله با هوش مصنوعی وجود دارد که بد هستند. برای مقابله با هوش مصنوعی مغرضانه، کورکورانه نی ها را نگیرید.
با تعویض دنده، همه ما می دانیم که گاوبازها از شنل های قرمز رنگ برای جلب توجه گاو خشمگین استفاده می کنند. اگرچه قرمز رنگی است که ما بیشتر با این عمل مرتبط میدانیم، ممکن است تعجب کنید اگر بدانید که دانشمندان میگویند گاو نر رنگ قرمز مولتا را درک نمیکند (آنها تا قرمز کور رنگ هستند). نمایش محبوب افسانه ها یک بررسی کاملا سرگرم کننده از این موضوع انجام داد. حرکت شنل به جای رنگ انتخابی، عنصر کلیدی است.
برای کسانی که نیاز به قوانین هوش مصنوعی پرچم قرمز را کنار میگذارند، یک ادعای متقابل این است که ما به چیزی با ماهیت دراماتیک و غیرقابل انکار نیاز داریم تا مطمئن شویم که توسعهدهندگان و شرکتهای هوش مصنوعی از هوش مصنوعی مغرضانه یا بد دوری میکنند. اگر برای یک پرچم قرمز نباشد، شاید یک شنل در اهتزاز یا اساساً هر نوع رویکرد هشدار دهنده ممکن است در محدوده توجه قرار گیرد.
ما مطمئناً می دانیم که هوش مصنوعی بد وجود دارد و هوش مصنوعی بد بیشتری در مسیر ما قرار خواهد گرفت. یافتن راه هایی برای محافظت از خود در برابر هوش مصنوعی نامطلوب بسیار مهم است. به همین ترتیب، تعیین نردههای محافظ برای جلوگیری از ورود هوش مصنوعی بد به جهان به همان اندازه مهم است.
ارنست همینگوی به قول معروفی می گوید که هیچ کس به جز گاوبازها تا آخر عمر زندگی نمی کند. ما باید مطمئن شویم که انسانها میتوانند زندگی خود را در تمام طول مسیر زندگی کنند، علیرغم هر بدی یا جنون هوش مصنوعی که بر ما تبلیغ میشود.
منبع: https://www.forbes.com/sites/lanceeliot/2022/06/29/ai-ethics-skeptical-about-establishing-so-called-red-flag-ai-laws-for-calling-out- الگوریتمهای-طرفدار-در-سیستمهای-هوش-مستقل/