احتیاط اخلاقی هوش مصنوعی در مورد بدتر شدن عدم تقارن هوش مصنوعی در میان انسان‌ها

گاهی اوقات شما در انتهای چوب اشتباه هستید.

این محاوره را می توان برای مفهوم عدم تقارن به کار برد.

بله، من در مورد عدم تقارن صحبت خواهم کرد. همانطور که احتمالاً در این دنیای پیچیده ای که ما در آن زندگی می کنیم با آن مواجه شده اید، مواردی وجود دارد که ممکن است متوجه شوید که در مورد موضوعی که برای شما نسبتاً مهم است دانش کمتری دارید. این به طور رسمی به عنوان نامیده می شود عدم تقارن اطلاعاتی.

نکته کلیدی این است که شما دانش یا اطلاعات کمتری نسبت به آنچه آرزو داشتید دارید، به علاوه قطعاً کمتر از طرف دیگر درگیر در این موضوع دارید. شما در مقایسه با طرف مقابل در یک نقطه ضعف مشخص هستید. آنها چیزی می دانند که شما نمی دانید. آن‌ها می‌توانند از آنچه می‌دانند استفاده کنند، به‌ویژه در مورد چیزهایی که شما نمی‌دانید، و در هر مذاکره یا مذاکره‌ای با شما دست بالا را به دست آورند.

خوب، یک بچه جدید در شهر وجود دارد، به نام عدم تقارن هوش مصنوعی.

این آخرین عبارت به این احتمال اشاره دارد که شما در مقابل فردی مسلح به هوش مصنوعی قرار می گیرید، در حالی که شما چندان مسلح نیستید.

آنها هوش مصنوعی را در کنار خود دارند، در حالی که شما، خوب، فقط شما را دارید. چیزها کج اندیش هستند. شما در یک ضرر فرضی قرار دارید. طرف مقابل به دلیل تقویت شده توسط هوش مصنوعی قادر خواهد بود تا دور شما حلقه بزند. ممکن است این جمله معروفی باشد که می گوید در عشق و جنگ همه چیز عادلانه است (ضرب المثل دیرینه ای که در آن ابداع شده است اوفوس توسط جان لیلی، 1578)، اگرچه پویایی و خطرات عدم تقارن هوش مصنوعی، مسائل چالش برانگیز هوش مصنوعی اخلاقی را ایجاد می کند. برای پوشش مداوم و گسترده من از اخلاق هوش مصنوعی و هوش مصنوعی اخلاقی، رجوع کنید پیوند اینجا و پیوند اینجا، فقط به نام چند.

قبل از اینکه به قلمرو هوش مصنوعی و پیچیدگی‌های فراوان آن در رابطه با عدم تقارن هوش مصنوعی بپردازیم، اجازه دهید ابتدا نسخه معمولی روزمره از عدم تقارن اطلاعات قدیمی را بررسی کنیم. این زمینه را برای لبه زدن به ضرب المثل بچه جدید هوش مصنوعی در بلوک فراهم می کند.

یک داستان کوتاه و هدفمند روشنگر ممکن است اشتهای شما را تحریک کند.

روز دیگر در حالی که در جاده بودم یک لاستیک پنچر شده بود و به دنبال یافتن جایگزین مناسبی بودم که به راحتی بتوان آن را بلافاصله نصب کرد. با استفاده از گوشی هوشمندم، به فروشگاه‌های لاستیک اطراف به صورت آنلاین نگاهی انداختم تا بفهمم چه مسافتی را باید با لاستیک خود طی کنم و آیا فروشگاه‌هایی باز هستند یا خیر. علاوه بر این، ارزیابی سریعی از نظرات مشتریان آنلاین آنها انجام دادم و سعی کردم چیز مفیدی در مورد مدت زمانی که آنها در تجارت بوده اند و سایر عواملی که ممکن است شایستگی آنها را نشان دهد جمع آوری کنم.

با تماس با یکی از لاستیک‌فروشی‌ها، منشی به من قیمت لاستیک و نصب آن را به من داد. لاستیک دقیقاً آن چیزی نبود که در ذهنم بود، اما کارمند به من اطمینان داد که آنها تنها مغازه ای در منطقه خواهند بود که می توانند بلافاصله کار را انجام دهند. به گفته منشی، هیچ یک از تایرفروشی‌های نزدیک دیگر چنین لاستیک‌هایی در انبار ندارند و حداقل یک روز طول می‌کشد تا آن رقبا یک تایر مناسب را از انبارهای نیمه دور تهیه کنند.

من در میان عدم تقارن اطلاعاتی بودم.

منشی اظهار داشت که درباره وضعیت محلی فروشگاه های تایر و به ویژه نوع لاستیک مورد نیاز من اطلاعات بیشتری دارد. من در منطقه ای بودم که فقط در حال عبور از آن بودم و هیچ اطلاعات دست اولی در مورد لاستیک فروشی های آن منطقه جغرافیایی خاص نداشتم. با همه چیزهایی که من می دانستم، منشی کاملاً دقیق بود و حقیقت بی رنگ را به من می داد.

اما آیا منشی این کار را می کرد؟

شاید آره شاید نه.

ممکن است کارمند تمام آنچه را که به من منتقل می شد، صادقانه باور داشته باشد. از نظر منشی، این حقیقت بود. یا شاید کارمند تا حدودی حقیقت را آشکار می کرد. این امکان وجود داشت که آنچه گفته می‌شود می‌تواند حقیقت داشته باشد، اگرچه نحوه نمایش آن حاکی از آن بود که آن حقیقت مطلق و انکارناپذیر است. البته، می‌توانست کاملاً بی‌تفاوت باشد و منشی صرفاً یک شیلینگ برای فروشگاه تایر می‌خواست تا تجارت من را به دست آورد. آیا ممکن است یک کمیسیون آبدار در خط باشد؟

به جرات می توانم بگویم که هیچ کس دوست ندارد در چنین موقعیت ضعیفی قرار بگیرد.

مخاطرات موقعیت عاملی حیاتی در میزان اهمیت عدم تقارن اطلاعاتی است. اگر سوال مورد بحث ماهیت مرگ یا زندگی است، حضور در سگ‌خانه و اتکا به طرف مقابل برای دانستن یا دانستن آن، وضعیتی نامطلوب و بسیار نامطلوب است. وقتی خطرات کم است. مثلاً شام خود را در یک رستوران سفارش دهید و سرور به شما بگوید که غذای ماهی بهشتی است، اما قبلاً در آنجا غذا نخورده‌اید و اطلاعات کافی ندارید، می‌توانید با این مقدار کمی از عدم تقارن اطلاعاتی بدون نگرانی همراه باشید (من همچنین فرض کنید که شما شرط می‌بندید که سرور ریسک نمی‌کند توصیه‌های بدی بدهد و از دریافت انعام مناسب غافل شود).

با بازگشت به داستان لاستیک های فرسوده (یک جناس!)، هیچ راهی آنی نداشتم تا بفهمم آیا منشی بینش های قابل اعتماد و آموزنده ای به من می دهد یا خیر. شاید تعجب کنید که چه اتفاقی افتاده است. تصمیم گرفتم با چندین تایرفروشی دیگر در اطراف تماس بگیرم.

آیا برای چیزی که من کشف کردم آماده اید؟

همه لاستیک‌فروشی‌های دیگر لاستیک مورد نظر من را در انبار داشتند و قصد نداشتند تلاش کنند و چشمک بزنند و مرا متقاعد کنند تا لاستیک دیگری بخرم (همانطور که اولین کارمند سعی کرد انجام دهد). آنها همچنین می توانند کار را در همان بازه زمانی با اولین فروشگاه لاستیک که من احتمالاً با آن تماس گرفتم انجام دهند. تقریبا با همین قیمت

من به شما اطمینان می دهم که یک آه راحت از طرف من رخ داد.

از قضا، در قانون بدشانسی مورفی، اولین جایی که من با آن تماس گرفتم تنها جایی بود که به نظر می رسید برای ناهار بیرون آمده بود. خوشحالم که به دنبال کسب اطلاعات بیشتر بودم. این شکاف عدم تقارن اطلاعاتی را کاهش داد. خودم را تشویق کردم که به اسلحه‌هایم چسبیده بودم و به اولین جایی که زنگ زدم نرسیدم.

همانطور که گفته شد، دستیابی به اطلاعات اضافی من هزینه مشخصی داشت. من تقریباً چهار تماس گرفتم که هر کدام حدود پانزده تا بیست دقیقه طول کشید تا به طور کامل انجام شود. از این نظر، من حدود یک ساعت و نیم را مصرف کردم در حالی که می‌دانستم ماشینم را کجا ببرم. اگر من فوراً ماشینم را به آن مکان اول می بردم، لاستیک جدید تقریباً در آن زمان روی ماشین من بود. از سوی دیگر، تقریباً مطمئناً، بعداً، از تصمیم سریعی که در زمانی که در یک پیوند افتضاح عدم تقارن اطلاعاتی گرفتم، پشیمان می شدم.

گاهی اوقات شما باید دندان های خود را به هم فشار دهید و عدم تقارن اطلاعاتی وحشتناک را همانطور که می آید قبول کنید. فقط امیدوار هستید که هر تصمیمی که می گیرید به اندازه کافی خوب باشد. ممکن است این یک تصمیم "عالی" نباشد و بعداً از انتخاب انجام شده پشیمان شوید. زاویه دیگر این است که می توانید سعی کنید طرف خود را از معادله اطلاعات تقویت کنید، اگرچه این لزوماً هزینه ای ندارد و ممکن است زمان گرانبهایی را نیز مصرف کند، بسته به این که آیا زمان گرامی اهمیت دارد یا خیر.

اکنون که بدون شک از اینکه می‌دانید ماشین من با لاستیک کاملاً جدید و درست خود به خوبی کار می‌کند، راحت هستید، می‌توانم به ظهور عدم تقارن هوش مصنوعی روی بیاورم.

یک داستان وای در هوش مصنوعی را در نظر بگیرید.

شما به دنبال دریافت وام مسکن هستید. یک تحلیلگر آنلاین درخواست وام مسکن وجود دارد که یک بانک خاص از آن استفاده می کند. سیستم آنلاین از قابلیت های پیشرفته هوش مصنوعی امروزی استفاده می کند. نیازی به صحبت با نماینده اعطای وام انسانی نیست. هوش مصنوعی همه کارها را انجام می دهد.

سیستم هوش مصنوعی شما را از طریق یک سری دستورات راهنمایی می کند. شما محترمانه فرم ها را پر می کنید و به سیستم هوش مصنوعی پاسخ می دهید. این هوش مصنوعی بسیار پرحرف است. در حالی که شما در گذشته ممکن است از یک سیستم فرمی مبتنی بر رایانه معمولی استفاده کرده باشید، این نوع هوش مصنوعی بیشتر شبیه تعامل با یک عامل انسانی است. نه کاملاً، اما به اندازه ای است که تقریباً می توانید باور کنید که یک انسان در طرف دیگر این فعالیت قرار دارد.

پس از انجام تمام تلاش خود برای "بحث" درخواست خود با این هوش مصنوعی، در پایان به شما اطلاع می دهد که متاسفانه درخواست وام تایید نمی شود. به‌نظر می‌رسد که هوش مصنوعی عذرخواهی می‌کند، انگار هوش مصنوعی می‌خواهد وام را تأیید کند، اما آن انسان‌های بداخلاق که بر بانک نظارت می‌کنند اجازه نمی‌دهند هوش مصنوعی این کار را بکند. برای پوشش من در مورد اینکه این نوع عذرخواهی های ادعایی هوش مصنوعی چقدر گمراه کننده هستند، ببینید پیوند اینجا.

شما نمی دانید که چرا رد شدید. هوش مصنوعی هیچ توضیحی ارائه نمی دهد. شاید هوش مصنوعی اشتباه کرده یا محاسباتش را خراب کرده است. بدتر از آن، فرض کنید هوش مصنوعی هنگام تصمیم گیری در مورد وام از ملاحظات بسیار مشکوک مانند نژاد یا جنسیت شما استفاده کرده است. تنها چیزی که می دانید این است که به نظر می رسید وقت خود را تلف کرده اید و همچنین در همین حین تعداد زیادی داده خصوصی را به هوش مصنوعی و بانک تحویل داده اید. هوش مصنوعی آنها شما را بهتر کرده است.

این به عنوان نمونه ای از عدم تقارن هوش مصنوعی برچسب گذاری می شود.

تو علیه بانک بودی این بانک مجهز به هوش مصنوعی بود. شما به همان اندازه مسلح نبودید. شما عقل و خرد خود را داشتید، اما هیچ هوش مصنوعی در جیب پشتی شما وجود نداشت. ذهن در برابر یک ماشین متأسفانه دستگاه در این مورد برنده شد.

داری چیکار کنی؟

اول، ما باید بر اساس اجتماعی متوجه شویم که این عدم تقارن هوش مصنوعی در حال رشد است و تقریباً در همه جا حاضر می شود. انسان‌ها در تمام سیستم‌هایی که روزانه با آن‌ها در تعامل هستیم، با هوش مصنوعی مواجه می‌شوند. گاهی اوقات هوش مصنوعی تنها عنصری است که ما با آن تعامل داریم، مانند این مثال در مورد درخواست وام. در موارد دیگر، یک انسان ممکن است در حلقه ای باشد که برای کمک به او در انجام یک سرویس خاص به هوش مصنوعی متکی است. برای وام، ممکن است بانک بخواهد به جای تعامل با هوش مصنوعی با یک عامل انسانی صحبت کنید، اما برای این وام، عامل انسانی از یک سیستم کامپیوتری برای دسترسی به هوش مصنوعی استفاده می کند که عامل انسانی را در طول فرآیند درخواست وام راهنمایی می کند. (و تقریباً همیشه مطمئن هستید که عامل انسانی به گونه‌ای عمل می‌کند که گویی زندانی شده‌اند و باید هر کاری را که هوش مصنوعی به آن‌ها می‌گوید را به شدت انجام دهند).

در هر صورت، هوش مصنوعی همچنان در ترکیب است.

دوم، ما باید تلاش کنیم و اطمینان حاصل کنیم که عدم تقارن هوش مصنوعی حداقل بر اساس اصول اخلاقی AI انجام می شود.

اجازه دهید آن سخنان به ظاهر عجیب را توضیح دهم. ببینید، اگر بتوانیم تا حدودی مطمئن باشیم که هوش مصنوعی به شیوه‌ای اخلاقی درست عمل می‌کند، ممکن است در مورد عدم تقارن موجود آرامش داشته باشیم. ممکن است بگوییم که اگر تعامل من با اولین فروشنده لاستیک‌فروشی دستورالعمل‌های اخلاقی سخت‌گیرانه‌ای داشت و اجرا می‌شد، ممکن است بگوییم بر اساس یک مبنا مشابه، اما ممکن است بگوییم، شاید داستانی که به من گفته شده به من گفته نمی‌شد، یا حداقل من شاید مجبور نبودم فوراً به دنبال کشف اینکه آیا یک داستان بلند به من داده شده است یا خیر.

من به زودی در مورد اخلاق هوش مصنوعی بیشتر توضیح خواهم داد.

سوم، ما باید به دنبال راه هایی برای کاهش عدم تقارن هوش مصنوعی باشیم. اگر هوش مصنوعی داشتید که در کنار شما بود و تلاش می کرد مربی یا محافظ شما باشد، ممکن است بتوانید از آن هوش مصنوعی برای مقابله با هوش مصنوعی دیگری که می خواهید با آن روبه رو شوید استفاده کنید. همانطور که می گویند، گاهی اوقات مبارزه با آتش با آتش بسیار منطقی است.

قبل از پرداختن به گوشت و سیب‌زمینی بیشتر در مورد ملاحظات وحشی و پشمی زیربنای عدم تقارن هوش مصنوعی، اجازه دهید برخی اصول اضافی را در مورد موضوعات بسیار ضروری ایجاد کنیم. ما باید به طور مختصر به اخلاق هوش مصنوعی و به ویژه ظهور یادگیری ماشینی (ML) و یادگیری عمیق (DL) نگاهی بیاندازیم.

ممکن است به طور مبهم آگاه باشید که یکی از بلندترین صداها این روزها در زمینه هوش مصنوعی و حتی خارج از حوزه هوش مصنوعی، فریاد زدن برای ظاهری بیشتر از هوش مصنوعی اخلاقی است. بیایید نگاهی به معنای ارجاع به اخلاق هوش مصنوعی و هوش مصنوعی اخلاقی بیندازیم. علاوه بر این، وقتی از یادگیری ماشینی و یادگیری عمیق صحبت می‌کنم، منظورم را بررسی خواهیم کرد.

یک بخش یا بخش خاصی از اخلاق هوش مصنوعی که توجه رسانه ها را به خود جلب کرده است شامل هوش مصنوعی است که سوگیری ها و نابرابری های نامناسبی را نشان می دهد. ممکن است بدانید که زمانی که آخرین دوره هوش مصنوعی آغاز شد، شور و شوق زیادی برای آنچه که اکنون برخی می‌گویند وجود داشت. هوش مصنوعی برای خوب. متأسفانه، در پاشنه آن هیجان فوران، ما شروع به مشاهده کردیم هوش مصنوعی برای بد. برای مثال، سیستم‌های مختلف تشخیص چهره مبتنی بر هوش مصنوعی حاوی سوگیری‌های نژادی و سوگیری‌های جنسیتی هستند که من در مورد آن بحث کرده‌ام. پیوند اینجا.

تلاش برای مبارزه با هوش مصنوعی برای بد به طور فعال در حال انجام هستند. علاوه بر پر سر و صدا حقوقی تلاش برای مهار تخلفات، همچنین فشار اساسی به سمت پذیرش اخلاق هوش مصنوعی برای اصلاح شرارت هوش مصنوعی وجود دارد. تصور این است که ما باید اصول کلیدی هوش مصنوعی اخلاقی را برای توسعه و توسعه هوش مصنوعی اتخاذ و تأیید کنیم تا این کار را کاهش دهیم. هوش مصنوعی برای بد و به طور همزمان منادی و ترویج مرجح هوش مصنوعی برای خوب.

در یک مفهوم مرتبط، من طرفدار تلاش برای استفاده از هوش مصنوعی به عنوان بخشی از راه حل مشکلات هوش مصنوعی هستم، و با این شیوه تفکر با آتش مبارزه می کنم. برای مثال، ممکن است اجزای هوش مصنوعی اخلاقی را در یک سیستم هوش مصنوعی تعبیه کنیم که بر نحوه انجام بقیه هوش مصنوعی نظارت می‌کند و بنابراین به طور بالقوه در زمان واقعی هرگونه تلاش تبعیض آمیز را جلب می‌کند. پیوند اینجا. ما همچنین می‌توانیم یک سیستم هوش مصنوعی جداگانه داشته باشیم که به عنوان نوعی مانیتور اخلاق هوش مصنوعی عمل می‌کند. سیستم هوش مصنوعی به عنوان یک ناظر برای ردیابی و تشخیص اینکه چه زمانی هوش مصنوعی دیگر به ورطه غیراخلاقی می رود عمل می کند (تحلیل من از چنین قابلیت هایی را در اینجا ببینید. پیوند اینجا).

در یک لحظه، من برخی از اصول کلی زیربنای اخلاق هوش مصنوعی را با شما به اشتراک خواهم گذاشت. تعداد زیادی از این نوع لیست ها اینجا و آنجا شناور هستند. می توان گفت که هنوز فهرست منحصر به فردی از جذابیت و توافق جهانی وجود ندارد. این خبر تاسف بار است. خبر خوب این است که حداقل لیست‌های اخلاقی هوش مصنوعی وجود دارد که کاملاً مشابه هستند. در مجموع، این نشان می‌دهد که با نوعی همگرایی مستدل، راه خود را به سوی یک اشتراک کلی از آنچه اخلاق هوش مصنوعی تشکیل می‌دهد، پیدا می‌کنیم.

ابتدا، اجازه دهید به طور مختصر برخی از قوانین کلی اخلاقی هوش مصنوعی را پوشش دهیم تا نشان دهیم چه چیزی باید برای هر کسی که در حال ساخت، ساخت و یا استفاده از هوش مصنوعی است، اهمیت حیاتی داشته باشد.

به عنوان مثال، همانطور که توسط واتیکان در فراخوان رم برای اخلاق هوش مصنوعی و همانطور که به طور عمیق به آن پرداخته ام پیوند اینجا، این شش اصل اصلی اخلاق هوش مصنوعی شناسایی شده آنها است:

  • شفافیت: در اصل، سیستم های هوش مصنوعی باید قابل توضیح باشند
  • نقص: نیازهای همه انسانها باید مورد توجه قرار گیرد تا همه بتوانند از آن بهره ببرند و بهترین شرایط ممکن برای ابراز وجود و پیشرفت به همه افراد ارائه شود.
  • مسئوليت: کسانی که استفاده از هوش مصنوعی را طراحی و اجرا می کنند باید با مسئولیت و شفافیت پیش بروند
  • بی طرفی: از ایجاد و یا عمل بر اساس تعصب، در نتیجه حفظ انصاف و کرامت انسانی
  • قابلیت اطمینان: سیستم های هوش مصنوعی باید بتوانند به طور قابل اعتماد کار کنند
  • امنیت و حریم خصوصی: سیستم های هوش مصنوعی باید ایمن کار کنند و به حریم خصوصی کاربران احترام بگذارند.

همانطور که توسط وزارت دفاع ایالات متحده (DoD) در آنها بیان شده است اصول اخلاقی برای استفاده از هوش مصنوعی و همانطور که به طور عمیق به آن پرداخته ام پیوند اینجا، این شش اصل اصلی اخلاق هوش مصنوعی آنهاست:

  • مسئول: پرسنل وزارت دفاع سطوح مناسبی از قضاوت و مراقبت را اعمال خواهند کرد و در عین حال مسئولیت توسعه، استقرار و استفاده از قابلیت‌های هوش مصنوعی را بر عهده خواهند داشت.
  • منصفانه: این وزارتخانه اقدامات عمدی را برای به حداقل رساندن سوگیری ناخواسته در قابلیت‌های هوش مصنوعی انجام خواهد داد.
  • قابل ردیابی: قابلیت‌های هوش مصنوعی این وزارتخانه به گونه‌ای توسعه و مستقر خواهد شد که پرسنل مربوطه درک مناسبی از فناوری، فرآیندهای توسعه، و روش‌های عملیاتی قابل اجرا برای قابلیت‌های هوش مصنوعی، از جمله روش‌شناسی شفاف و قابل ممیزی، منابع داده‌ها، روش‌ها و مستندات طراحی داشته باشند.
  • قابل اعتماد: قابلیت‌های هوش مصنوعی این وزارتخانه کاربردهای مشخص و مشخصی خواهند داشت، و ایمنی، امنیت و اثربخشی چنین قابلیت‌هایی مشمول آزمایش و اطمینان در آن کاربردهای تعریف‌شده در کل چرخه عمر آن‌ها خواهد بود.
  • قابل اداره: این وزارتخانه قابلیت‌های هوش مصنوعی را طراحی و مهندسی می‌کند تا عملکردهای مورد نظر خود را انجام دهد، در حالی که توانایی شناسایی و اجتناب از پیامدهای ناخواسته را دارد، و توانایی جدا کردن یا غیرفعال کردن سیستم‌های مستقری که رفتار ناخواسته را نشان می‌دهند.

من همچنین در مورد تجزیه و تحلیل‌های جمعی مختلف از اصول اخلاق هوش مصنوعی بحث کرده‌ام، از جمله پوشش مجموعه‌ای ابداع شده توسط محققان که ماهیت بسیاری از اصول اخلاقی هوش مصنوعی ملی و بین‌المللی را در مقاله‌ای تحت عنوان «چشم‌انداز جهانی دستورالعمل‌های اخلاق هوش مصنوعی» (منتشر شده) بررسی و فشرده کرده است. که در طبیعت) و پوشش من در آن بررسی می شود پیوند اینجا، که منجر به این لیست کلیدی شد:

  • شفافیت
  • عدالت و انصاف
  • عدم سوء استفاده
  • مسئوليت
  • حریم خصوصی
  • سود رسانی
  • آزادی و خودمختاری
  • اعتماد
  • پایداری
  • کرامت
  • اتحاد

همانطور که ممکن است مستقیماً حدس بزنید، تلاش برای مشخص کردن جزئیات زیربنای این اصول می تواند بسیار سخت باشد. حتی بیشتر از آن، تلاش برای تبدیل این اصول گسترده به چیزی کاملاً ملموس و با جزئیات کافی برای استفاده در هنگام ساخت سیستم‌های هوش مصنوعی نیز یک مهره سخت است. به طور کلی می توان در مورد اینکه اصول اخلاقی هوش مصنوعی چیست و چگونه باید به طور کلی آنها را رعایت کرد، دست تکان داد، در حالی که وضعیت بسیار پیچیده تر در کدنویسی هوش مصنوعی است که باید لاستیک واقعی باشد که با جاده مطابقت می کند.

اصول اخلاق هوش مصنوعی باید توسط توسعه دهندگان هوش مصنوعی، همراه با آنهایی که تلاش های توسعه هوش مصنوعی را مدیریت می کنند، و حتی آنهایی که در نهایت سیستم های هوش مصنوعی را انجام می دهند، مورد استفاده قرار گیرد. همه ذینفعان در طول چرخه عمر توسعه و استفاده هوش مصنوعی در محدوده رعایت هنجارهای تثبیت شده هوش مصنوعی اخلاقی در نظر گرفته می شوند. این نکته مهمی است زیرا فرض معمول این است که «فقط کدنویس‌ها» یا کسانی که هوش مصنوعی را برنامه‌ریزی می‌کنند، منوط به رعایت مفاهیم اخلاقی هوش مصنوعی هستند. همانطور که قبلاً گفته شد، برای ابداع و به کارگیری هوش مصنوعی به یک دهکده نیاز است، و برای آن کل دهکده باید به اصول اخلاقی هوش مصنوعی مسلط باشد و از آن پیروی کند.

بیایید همچنین مطمئن شویم که در مورد ماهیت هوش مصنوعی امروزی همسو هستیم.

امروزه هیچ هوش مصنوعی وجود ندارد که حساس باشد. ما این را نداریم ما نمی دانیم که آیا هوش مصنوعی ممکن خواهد بود یا خیر. هیچ کس نمی تواند به درستی پیش بینی کند که آیا ما به هوش مصنوعی خواهیم رسید یا خیر، یا اینکه آیا هوش مصنوعی به طور معجزه آسایی به شکلی از ابرنواختر شناختی محاسباتی پدید خواهد آمد (که معمولاً به عنوان تکینگی شناخته می شود، پوشش من را در اینجا ببینید. پیوند اینجا).

نوع هوش مصنوعی که من روی آن تمرکز می کنم شامل هوش مصنوعی غیر حساسی است که امروز داریم. اگر بخواهیم به شدت در مورد آن حدس بزنیم با احساس هوش مصنوعی، این بحث می تواند در جهتی کاملاً متفاوت پیش رود. ظاهراً یک هوش مصنوعی با کیفیت انسانی خواهد بود. شما باید در نظر داشته باشید که هوش مصنوعی حسی معادل شناختی یک انسان است. علاوه بر این، از آنجایی که برخی گمانه زنی می کنند که ممکن است هوش مصنوعی فوق هوشمند داشته باشیم، می توان تصور کرد که چنین هوش مصنوعی می تواند در نهایت از انسان ها باهوش تر باشد (برای کاوش من در مورد هوش مصنوعی فوق هوشمند به عنوان یک احتمال، نگاه کنید به پوشش در اینجا).

بیایید همه چیز را روی زمین نگه داریم و هوش مصنوعی محاسباتی غیر حساس امروزی را در نظر بگیریم.

درک کنید که هوش مصنوعی امروزی قادر به «فکر کردن» به هیچ شکلی با تفکر انسان نیست. وقتی با الکسا یا سیری تعامل می کنید، ظرفیت های مکالمه ممکن است شبیه ظرفیت های انسانی به نظر برسد، اما واقعیت این است که محاسباتی است و فاقد شناخت انسانی است. آخرین دوره هوش مصنوعی از یادگیری ماشینی (ML) و یادگیری عمیق (DL) استفاده گسترده ای کرده است که از تطابق الگوی محاسباتی استفاده می کند. این منجر به سیستم‌های هوش مصنوعی شده است که ظاهری شبیه به تمایلات انسان دارند. در همین حال، هیچ هوش مصنوعی امروزی وجود ندارد که شباهتی به عقل سلیم داشته باشد و هیچ یک از شگفتی‌های شناختی تفکر قوی انسانی را نداشته باشد.

ML/DL نوعی تطبیق الگوی محاسباتی است. روش معمول این است که شما داده ها را در مورد یک کار تصمیم گیری جمع آوری می کنید. داده ها را به مدل های کامپیوتری ML/DL وارد می کنید. آن مدل ها به دنبال یافتن الگوهای ریاضی هستند. پس از یافتن چنین الگوهایی، در صورت یافتن، سیستم هوش مصنوعی در هنگام مواجهه با داده های جدید از آن الگوها استفاده خواهد کرد. پس از ارائه داده های جدید، الگوهای مبتنی بر داده های "قدیمی" یا تاریخی برای ارائه یک تصمیم فعلی استفاده می شود.

من فکر می کنم می توانید حدس بزنید که این به کجا می رود. اگر انسان‌هایی که بر اساس تصمیم‌گیری‌های الگو گرفته شده‌اند، سوگیری‌های نامطلوب را در خود جای داده‌اند، احتمال این وجود دارد که داده‌ها این را به روش‌های ظریف اما قابل توجهی منعکس کنند. تطبیق الگوی محاسباتی یادگیری ماشینی یا یادگیری عمیق به سادگی سعی می‌کند تا داده‌ها را مطابق با ریاضی تقلید کند. هیچ شباهتی از عقل سلیم یا سایر جنبه های حساس مدل سازی ساخته شده با هوش مصنوعی به خودی خود وجود ندارد.

علاوه بر این، توسعه دهندگان هوش مصنوعی نیز ممکن است متوجه نباشند که چه اتفاقی در حال رخ دادن است. ریاضیات محرمانه در ML/DL ممکن است کشف سوگیری های پنهان در حال حاضر را دشوار کند. شما به حق امیدوارید و انتظار دارید که توسعه‌دهندگان هوش مصنوعی سوگیری‌های بالقوه مدفون را آزمایش کنند، اگرچه این دشوارتر از آن چیزی است که به نظر می‌رسد. این احتمال وجود دارد که حتی با آزمایش نسبتاً گسترده، سوگیری‌هایی همچنان در مدل‌های تطبیق الگوی ML/DL وجود داشته باشد.

می‌توانید تا حدودی از ضرب‌المثل معروف یا بدنام زباله‌های درون زباله‌ها استفاده کنید. مسئله این است که این بیشتر شبیه سوگیری‌هایی است که به‌طور موذیانه به‌عنوان سوگیری‌هایی که در هوش مصنوعی غوطه‌ور می‌شوند، القا می‌شوند. الگوریتم تصمیم‌گیری (ADM) هوش مصنوعی به طور اصولی مملو از نابرابری‌ها می‌شود.

خوب نیست.

بیایید به تمرکز خود بر عدم تقارن هوش مصنوعی برگردیم.

یک جمع بندی سریع در مورد سه توصیه شناسایی شده من در بالا این است:

1) آگاه باشید که عدم تقارن هوش مصنوعی وجود دارد و در حال رشد است

2) سعی کنید اطمینان حاصل کنید که عدم تقارن هوش مصنوعی با اخلاق هوش مصنوعی محدود شده است

3) با مسلح شدن به هوش مصنوعی سعی کنید با عدم تقارن هوش مصنوعی مبارزه کنید

ما نگاهی دقیق تر به آخرین نقطه مبارزه با آتش با آتش خواهیم داشت.

تصور کنید وقتی به دنبال دریافت وام هستید، هوش مصنوعی دارید که در کنار تلاش شما کار می کند. این ممکن است یک برنامه مبتنی بر هوش مصنوعی در تلفن هوشمند شما باشد که برای دریافت وام طراحی شده است. این یک برنامه توسط یکی از بانک ها نیست و در عوض به طور مستقل برای عمل از طرف شما طراحی شده است. من این نوع برنامه‌ها را در کتابم درباره ربات‌های فرشته نگهبان مبتنی بر هوش مصنوعی توضیح داده‌ام، ببینید پیوند اینجا.

پس از درخواست وام، ممکن است به این برنامه مراجعه کنید زیرا در مراحل درخواست توسط هوش مصنوعی دیگر قدم گذاشته اید. این دو سیستم هوش مصنوعی متمایز و کاملاً مجزا از یکدیگر هستند. هوش مصنوعی روی گوشی هوشمند شما برای دانستن تمام ترفندهایی که توسط هوش مصنوعی دیگر استفاده می شود، "آموزش داده شده است". به این ترتیب، پاسخ هایی که به هوش مصنوعی بانک وارد می کنید، بر اساس آنچه هوش مصنوعی شما به شما توصیه می کند، خواهد بود.

نوع دیگر شامل پاسخگویی هوش مصنوعی شما به سوالات مطرح شده توسط هوش مصنوعی دیگر است. تا آنجایی که هوش مصنوعی دیگر می تواند تشخیص دهد، این شما هستید که پاسخ ها را وارد می کنید. در عوض ممکن است شما فقط نظاره گر تعاملات بین دو سیستم هوش مصنوعی باشید. این به شما امکان می دهد ببینید هوش مصنوعی شما چه چیزی را ارائه می دهد. علاوه بر این، می‌توانید به طور بالقوه هوش مصنوعی خود را بسته به اینکه آیا از کاری که هوش مصنوعی از طرف شما انجام می‌دهد راضی هستید یا خیر، تنظیم کنید.

من پیش بینی کرده ام که همه ما به تدریج به هوش مصنوعی مسلح می شویم که در این شرایط عدم تقارن هوش مصنوعی در کنار ما خواهد بود.

بیایید در نظر بگیریم که چگونه این کار انجام می شود.

اینها تأثیرات اساسی بر شرایط عدم تقارن هوش مصنوعی است که من بیان کرده بودم:

  • صاف کردن عدم تقارن هوش مصنوعی به نفع شما (شما را به سمت بالا می برد، به امید رسیدن به سطوح مساوی)
  • ایجاد عدم تقارن هوش مصنوعی به نفع شما (بالا بردن شما به یک مزیت زمانی که قبلاً برابر هستید)
  • تقویت عدم تقارن هوش مصنوعی به نفع فوق العاده شما (به دست آوردن مزیت گسترده تر زمانی که قبلاً مزیت دارید)
  • کاهش سهوی عدم تقارن هوش مصنوعی به نفع شماست (زمانی که از قبل یک مزیت داشتید و هوش مصنوعی ناخواسته شما را پایین کشید)

زمان آن رسیده است که به این احتمالات جالب توجه کنید.

صاف کردن عدم تقارن هوش مصنوعی به نفع شما

مسطح کردن عدم تقارن هوش مصنوعی واضح ترین و اغلب مورد بحث است، یعنی اینکه شما باید خود را با هوش مصنوعی مسلح کنید تا سعی کنید با هوش مصنوعی که توسط طرف مقابل در موضوع مورد نظر استفاده می شود، دست به کار شوید. تنظیم عدم تقارن هوش مصنوعی با یک نقطه ضعف مشخص شروع شد. شما هیچ هوش مصنوعی در گوشه خود نداشتید. شما طرف پایینی بودید طرف مقابل هوش مصنوعی داشت و در بالاترین سطح بود.

بنابراین، شما هوشمندانه خود را با هوش مصنوعی مسلح کردید که هدف آن قرار دادن شما و سایر هوش مصنوعی در شرایط برابر است.

یکی از نکات مهم و شاید شگفت‌انگیز که باید در نظر داشت این است که همیشه اینطور نیست که سیستم‌های هوش مصنوعی به کار گرفته شده در برابر یکدیگر به طور مساوی تعادل برقرار کنند. شما ممکن است خود را به هوش مصنوعی مسلح کنید، یعنی باید بگوییم از هوش مصنوعی که طرف مقابل از آن استفاده می کند، قوی تر است. در این صورت، خوشبختانه موقعیت نزولی خود را افزایش داده اید، اگرچه اکنون کاملاً با طرف مقابل و هوش مصنوعی آن برابر نیستید.

به همین دلیل است که من از آن به عنوان مسطح کردن عدم تقارن هوش مصنوعی یاد می کنم. ممکن است بتوانید شکاف را کم کنید، اگرچه به طور کامل شکاف را نبندید. هدف نهایی این است که از هوش مصنوعی در کنار خود استفاده کنید که شما را به وضعیتی کاملاً برابر برساند. مسئله این است که این ممکن است امکان پذیر باشد یا نباشد. طرف مقابل می‌تواند هوش مصنوعی واقعاً گران‌قیمتی داشته باشد و شما سعی می‌کنید با نسخه‌های هوشمند و مقرون به صرفه هوش مصنوعی رقابت کنید.

همه هوش مصنوعی یکسان نیستند.

ایجاد عدم تقارن هوش مصنوعی به نفع شما

این شرایط امروزه چندان مورد بحث نیست، تا حدی به این دلیل که در حال حاضر نادر است. روزی این امر عادی خواهد شد. تصور این است که فرض کنید شما بدون هوش مصنوعی هستید و در عین حال با طرفی که هوش مصنوعی دارد، برابر هستید.

خوش به حالت.

انسانها حواسشان به آنهاست.

اما ممکن است بخواهید نسبت به طرف مقابل برتری پیدا کنید. مسلح کردن خود به هوش مصنوعی شما را به سطح بالاتری می برد. اکنون عقل و هوش مصنوعی قابل اعتماد خود را در دست دارید. شما مزیتی به دست آورده اید که احتمالاً بر هوش مصنوعی طرف مقابل برتری خواهد داشت.

تقویت عدم تقارن هوش مصنوعی به نفع شماست

با استفاده از منطقی مشابه به عنوان جنبه تحریک عدم تقارن هوش مصنوعی از طرف شما، فرض کنید که شما در حال حاضر بالاتر از توانایی های طرف دیگری هستید که از هوش مصنوعی استفاده می کند. بنابراین، شما از یک وضعیت مساوی شروع نمی کنید. شما خوشبختانه در حال حاضر در سمت بالا هستید.

ممکن است بخواهید به هر حال مزیت بزرگتری را به دست آورید. بنابراین، شما خود را با هوش مصنوعی مسلح می کنید. این کار سر و شانه های شما را بالاتر از طرف دیگر می برد.

کاهش سهوی عدم تقارن هوش مصنوعی به نفع شما

من شک دارم که شما بخواهید در مورد این احتمال بشنوید. لطفاً توجه داشته باشید که سر و کار داشتن با هوش مصنوعی همه چیز گل رز و کیک بستنی نیست.

ممکن است وقتی خود را به هوش مصنوعی مسلح می کنید، در واقع خود را زیر پا بگذارید. اگر قبلاً کمتر از هوش مصنوعی طرف مقابل بودید، اکنون در یک سوراخ عمیق تر هستید. اگر در شرایط مساوی بودید، اکنون در وضعیت نامساعدی هستید. اگر بالاتر از طرف دیگر بودید، اکنون برابر یا زیر آن هستید.

چگونه ممکن است چنین اتفاقی بیفتد؟

ممکن است از این فکر کنید که هوش مصنوعی که اتخاذ می کنید شما را به بیراهه می برد، شوکه شوید. این به راحتی می تواند رخ دهد. فقط به این دلیل که هوش مصنوعی در گوشه خود دارید به این معنی نیست که مفید است. ممکن است از هوش مصنوعی استفاده کنید و توصیه هایی را ارائه می دهد که لزوماً فکر نمی کنید مناسب باشد، اما به هر حال تصمیم می گیرید با آن همراه شوید. منطق شما در آن زمان این بود که از آنجایی که برای به دست آوردن هوش مصنوعی دچار مشکل شده اید، ممکن است به آن وابسته باشید.

ممکن است هوش مصنوعی مورد استفاده شما معیوب باشد. یا ممکن است ضعیف طراحی شده باشد. دلایل متعددی وجود دارد که چرا هوش مصنوعی ممکن است به شما توصیه های متزلزلی بدهد. کسانی که کورکورانه هر کاری را که هوش مصنوعی می‌گوید می‌پذیرند، حتماً خود را در دنیایی از آسیب خواهند دید. من چنین مشکلاتی را در ستون خود پوشش داده ام، مانند پیوند اینجا.

نکته اصلی این است که مطلقاً هیچ تضمینی وجود ندارد که فقط به این دلیل که خود را با هوش مصنوعی مسلح می کنید، در بازی AI Asymmetry برنده شوید.

ممکن است به یک زمین بازی مساوی برسید. ممکن است یک مزیت به دست آورید. و، متأسفانه، باید محتاط باشید، زیرا ممکن است در صورت مسلح شدن به هوش مصنوعی، به سطوح پایینی سقوط کنید.

تا حدودی، به همین دلیل است که اخلاق هوش مصنوعی و هوش مصنوعی اخلاقی یک موضوع بسیار مهم است. دستورات اخلاق هوش مصنوعی ما را وادار می کند که هوشیار بمانیم. فن‌آوران هوش مصنوعی ممکن است در مواقعی با فناوری، به‌ویژه بهینه‌سازی فناوری‌های پیشرفته، مشغول شوند. آنها لزوماً پیامدهای اجتماعی بزرگتر را در نظر نمی گیرند. داشتن ذهنیت اخلاقی هوش مصنوعی و انجام این کار به طور یکپارچه در توسعه و میدان‌دهی هوش مصنوعی برای تولید هوش مصنوعی مناسب حیاتی است.

علاوه بر استفاده از اخلاق هوش مصنوعی، یک سوال مربوط به این موضوع وجود دارد که آیا باید قوانینی برای کنترل کاربردهای مختلف هوش مصنوعی داشته باشیم. قوانین جدیدی در سطوح فدرال، ایالتی و محلی وضع می شود که به محدوده و ماهیت چگونگی ابداع هوش مصنوعی مربوط می شود. تلاش برای تدوین و تصویب چنین قوانینی تدریجی است. اخلاق هوش مصنوعی حداقل به عنوان یک توقف در نظر گرفته شده عمل می کند و تقریباً مطمئناً تا حدی مستقیماً در آن قوانین جدید گنجانده می شود.

توجه داشته باشید که برخی قاطعانه استدلال می کنند که ما به قوانین جدیدی که هوش مصنوعی را پوشش می دهد نیازی نداریم و قوانین موجود ما کافی است. در واقع، آنها از قبل هشدار می‌دهند که اگر برخی از این قوانین هوش مصنوعی را به اجرا بگذاریم، با مهار پیشرفت‌های هوش مصنوعی که مزایای اجتماعی عظیمی را ارائه می‌کند، غاز طلایی را خواهیم کشت. به عنوان مثال پوشش من را در پیوند اینجا و پیوند اینجا.

در این مقطع از این بحث سنگین، شرط می بندم که شما خواهان نمونه های گویا هستید که ممکن است این موضوع را به نمایش بگذارد. مجموعه‌ای از نمونه‌های خاص و مطمئناً محبوب وجود دارد که به دلم نشسته است. ببینید، به عنوان یک متخصص در زمینه هوش مصنوعی از جمله پیامدهای اخلاقی و قانونی، اغلب از من خواسته می‌شود که نمونه‌های واقع‌بینانه‌ای را که معضلات اخلاقی هوش مصنوعی را نشان می‌دهند شناسایی کنم تا بتوان ماهیت تا حدودی نظری موضوع را راحت‌تر درک کرد. یکی از جذاب‌ترین زمینه‌هایی که این معضل اخلاقی هوش مصنوعی را به وضوح نشان می‌دهد، ظهور خودروهای خودران واقعی مبتنی بر هوش مصنوعی است. این به عنوان یک مورد استفاده مفید یا نمونه ای برای بحث و گفتگوی کافی در مورد موضوع خواهد بود.

پس در اینجا یک سوال قابل توجه وجود دارد که قابل تامل است: آیا ظهور خودروهای خودران واقعی مبتنی بر هوش مصنوعی چیزی را در مورد عدم تقارن هوش مصنوعی روشن می کند، و اگر چنین است، این چه چیزی را به نمایش می گذارد؟

یک لحظه به من اجازه دهید تا پرسش را باز کنم.

اول، توجه داشته باشید که هیچ راننده انسانی در یک ماشین خودران واقعی دخیل نیست. به خاطر داشته باشید که خودروهای خودران واقعی از طریق سیستم رانندگی هوش مصنوعی هدایت می شوند. نه نیازی به راننده انسان پشت فرمان وجود دارد و نه پیش بینی ای برای رانندگی وسیله نقلیه توسط انسان وجود دارد. برای پوشش گسترده و مداوم من در مورد وسایل نقلیه خودران (AVs) و به خصوص خودروهای خودران، نگاه کنید به پیوند اینجا.

مایلم بیشتر توضیح دهم که منظور از خودروهای خودران واقعی چیست.

درک سطح اتومبیل های خودران

به عنوان یک توضیح، خودروهای خودران واقعی، خودروهایی هستند که هوش مصنوعی خودرو را کاملاً به تنهایی رانندگی می کند و هیچ کمک انسانی در طول کار رانندگی وجود ندارد.

این وسایل نقلیه بدون راننده سطح 4 و سطح 5 در نظر گرفته می شوند (توضیحات من را در اینجا ببینید این لینک در اینجا) ، در حالی که خودرویی که نیاز به یک راننده انسانی برای مشارکت در رانندگی دارد معمولاً در سطح 2 یا سطح 3 در نظر گرفته می شود. افزودنی های خودکار که به عنوان ADAS (سیستم های کمک راننده پیشرفته) شناخته می شوند.

هنوز یک خودروی خودران واقعی در سطح 5 وجود ندارد، و ما هنوز حتی نمی دانیم که آیا امکان دستیابی به آن وجود دارد یا خیر، و نه اینکه چقدر طول می کشد تا به آنجا برسیم.

در همین حال ، تلاش های سطح 4 به تدریج در تلاشند تا با انجام آزمایشات عمومی بسیار باریک و انتخابی در جاده ها ، کمی به سمت خود جلب کنند ، هرچند در مورد اینکه آیا این آزمایش به خودی خود مجاز است یا خیر ، اختلاف نظر وجود دارد (همه ما در یک آزمایش خوکچه هندی زنده یا مرگ هستیم) برخی از آنها ادعا می كنند كه در بزرگراهها و گذرگاههای ما در حال انجام است این لینک در اینجا).

از آنجا که اتومبیل های نیمه خودمختار به یک راننده انسانی احتیاج دارند ، تصویب آن دسته از اتومبیل ها تفاوت چندانی با رانندگی وسایل نقلیه معمولی نخواهد داشت ، بنابراین به تنهایی چیز جدیدی برای پوشش آنها در این موضوع وجود ندارد (هر چند ، همانطور که خواهید دید در یک لحظه ، نکات بعدی که بطور کلی اعمال می شود).

در مورد اتومبیل های نیمه خودمختار ، مهم است که در مورد جنبه نگران کننده ای که اخیراً بوجود آمده است ، هشدار داده شود ، یعنی این که با وجود آن رانندگان انسانی که با ارسال فیلم هایی از خودشان ، در حال خوابیدن در چرخ یک اتومبیل سطح 2 یا سطح 3 هستند. ، همه ما باید از اینكه گمان نرود راننده بتواند هنگام رانندگی یك اتومبیل نیمه خودمختار ، توجه خود را از وظیفه رانندگی دور كند ، خودداری كنیم.

شما مسئولیت اقدامات رانندگی وسیله نقلیه ، صرفنظر از میزان اتوماسیون در سطح 2 یا سطح 3 ، مسئولیت مسئولیت مسئولیت شما می باشد.

خودروهای خودران و عدم تقارن هوش مصنوعی

برای وسایل نقلیه خود رانندگی واقعی سطح 4 و سطح 5 ، یک راننده انسانی درگیر در وظیفه رانندگی نخواهد بود.

همه سرنشینان مسافر خواهند بود.

هوش مصنوعی رانندگی را انجام می دهد.

یک جنبه برای بحث فوری این واقعیت را در بر دارد که هوش مصنوعی در سیستم های رانندگی هوش مصنوعی امروزی حساس نیست. به عبارت دیگر ، هوش مصنوعی در مجموع مجموعه ای از برنامه نویسی و الگوریتم های مبتنی بر رایانه است و مطمئناً قادر به استدلال به همان روشی نیست که انسان می تواند.

چرا این تاکید اضافی در مورد هوش مصنوعی نیست؟

از آنجا که می خواهم تأکید کنم هنگام بحث در مورد نقش سیستم رانندگی AI ، من خصوصیات انسانی را به AI نسبت نمی دهم. لطفاً توجه داشته باشید که این روزها تمایل مستمر و خطرناکی برای انسان سازی AI وجود دارد. در حقیقت ، افراد حساسیتی شبیه انسان به هوش مصنوعی امروزی دارند ، علی رغم این واقعیت انکارناپذیر و غیرقابل انکار که هنوز چنین هوش مصنوعی وجود ندارد.

با این توضیحات ، می توانید تصور کنید که سیستم رانندگی هوش مصنوعی بطور طبیعی از جنبه های رانندگی "آگاهی" نداشته باشد. رانندگی و همه آنچه که شامل می شود باید به عنوان بخشی از سخت افزار و نرم افزار اتومبیل خودران برنامه ریزی شوند.

بیایید به جنبه های بی شماری بپردازیم که در این موضوع بازی می شوند.

اول، مهم است که بدانیم همه خودروهای خودران با هوش مصنوعی یکسان نیستند. هر خودروساز و شرکت فناوری خودران رویکرد خود را برای ابداع خودروهای خودران در پیش گرفته است. به این ترتیب، اظهار نظر گسترده در مورد اینکه سیستم های رانندگی هوش مصنوعی چه کاری انجام خواهند داد یا انجام نمی دهند، دشوار است.

علاوه بر این ، هرگاه بیان شود که سیستم رانندگی هوش مصنوعی کار خاصی انجام نمی دهد ، بعداً توسعه دهندگانی که در واقع کامپیوتر را برای انجام این کار برنامه ریزی می کنند ، می توانند از این امر پیشی بگیرند. گام به گام ، سیستم های رانندگی هوش مصنوعی به تدریج در حال بهبود و گسترش هستند. امروزه محدودیت موجود ممکن است دیگر در نسخه یا نسخه بعدی سیستم وجود نداشته باشد.

امیدوارم که اخطارهای فراوانی را برای زیربنای آنچه که می خواهم بیان کنم، ارائه دهد.

بیایید سناریویی را ترسیم کنیم که عدم تقارن هوش مصنوعی را نشان می دهد.

به این موضوع به ظاهر بی‌اهمیت فکر کنید که ماشین‌های خودران در کجا پرسه می‌زنند تا مسافران را سوار کنند. به نظر می رسد این یک موضوع بسیار بی ضرر است.

در ابتدا، فرض کنید که خودروهای خودران با هوش مصنوعی در کل شهرها پرسه می زنند. هر کسی که بخواهد سوار ماشین خودران شود، اساساً شانس یکسانی دارد. بتدریج هوش مصنوعی شروع به پرسه زدن خودروهای خودران تنها در یک بخش از شهر می کند. این بخش پولساز بزرگتری است و هوش مصنوعی به گونه ای برنامه ریزی شده است که تلاش کند به حداکثر رساندن درآمدها به عنوان بخشی از استفاده در جامعه به طور کلی (این امر بر طرز فکر زیربنایی بهینه سازی، یعنی تمرکز بر یک معیار خاص و نادیده گرفتن سایر عوامل حیاتی در فرآیند تأکید می کند).

به نظر می رسد که اعضای جامعه در بخش های فقیر شهر کمتر احتمال دارد که بتوانند از یک ماشین خودران سوار شوند. این به این دلیل است که اتومبیل های خودران دورتر بودند و در بخش درآمد بالاتر شهر پرسه می زدند. هنگامی که درخواستی از نقطه‌ای دور از شهر می‌آید، هر درخواست دیگری از مکان نزدیک‌تر اولویت بیشتری دارد. در نهایت، دسترسی به یک ماشین خودران در هر مکانی غیر از بخش ثروتمندتر شهر تقریبا غیرممکن است، برای کسانی که در مناطقی که اکنون کمبود منابع زندگی می کنند، بسیار غیرممکن است.

رویاهایی که ماشین های خودران قرار است برای همه به ارمغان بیاورند، از بین می رود.

شما می توانید ادعا کنید که هوش مصنوعی به طور کلی بر روی نوعی سوگیری آماری و محاسباتی قرار گرفته است، شبیه به نوعی از تبعیض پروکسی (که اغلب به عنوان تبعیض غیرمستقیم نیز شناخته می شود). بدانید که هوش مصنوعی برای جلوگیری از آن محله های فقیرتر برنامه ریزی نشده است. بیایید در این مورد در مورد آن شفاف باشیم. نه، در عوض صرفاً برای بهینه سازی درآمد، هدفی به ظاهر قابل قبول، ابداع شد، اما این کار بدون اینکه توسعه دهندگان هوش مصنوعی به پیامدهای احتمالی دیگر فکر کنند، انجام شد. آن بهینه سازی به نوبه خود ناخواسته و ناگزیر منجر به یک نتیجه نامطلوب شد.

اگر آنها ملاحظات اخلاقی هوش مصنوعی را به عنوان بخشی از ذهنیت بهینه‌سازی خود لحاظ می‌کردند، ممکن بود از قبل متوجه می‌شدند که اگر هوش مصنوعی را طوری بسازند که با این نوع بزرگ‌سازی تنها با یک معیار کنار بیاید، ممکن است از چنین نتایج نامطلوبی جلوگیری کنند. برای اطلاعات بیشتر در مورد این نوع مسائل که پذیرش گسترده وسایل نقلیه خودران و خودروهای خودران احتمالاً متحمل می شوند، به پوشش من در این لینک در اینجا، مطالعه ای را که به رهبری هاروارد انجام شده است را توصیف می کند که با همکاری من در مورد این موضوعات نوشته شده است.

در هر صورت، فرض کنید که اسب در حال حاضر از انبار خارج شده است و وضعیت بلافاصله پاسخگوی راه حل های کلی نیست.

کسانی که می خواهند از آن ماشین های خودران استفاده کنند چه کاری می توانند انجام دهند؟

آشکارترین رویکرد این است که با رهبران جامعه همکاری کنیم تا خودروساز یا شرکت فناوری خودران در مورد نحوه راه اندازی هوش مصنوعی تجدید نظر کنند. شاید بر هر گونه مجوز یا مجوزهایی که برای استقرار آن خودروهای خودران در آن شهر یا شهرک داده شده است، فشار بیاورید. اینها احتمالاً ابزارهای مناسبی برای ایجاد تغییرات مثبت هستند، اگرچه ممکن است مدتی طول بکشد تا این تلاش ها به ثمر بنشینند.

زاویه دیگر این است که خود را با هوش مصنوعی مسلح کنید.

تصور کنید که شخصی هوشمندانه یک برنامه مبتنی بر هوش مصنوعی ابداع کرده است که روی گوشی هوشمند شما کار می‌کند و با هوش مصنوعی خودروساز یا اپراتور ناوگانی که درخواست‌های سواری را دریافت می‌کند، سروکار دارد. ممکن است هوش مصنوعی که از آن استفاده می‌کنید از عناصر کلیدی هوش مصنوعی دیگر بهره‌برداری کند، به طوری که درخواست خودروی خودران توسط شما اولویت بیشتری دارد. توجه داشته باشید که من پیشنهاد نمی‌کنم که چیزی غیرقانونی اتفاق بیفتد، بلکه در عوض هوش مصنوعی طرف شما بر اساس «ویژگی‌های» یا حتی حفره‌های کشف شده در هوش مصنوعی دیگر توسعه یافته است.

نتیجه

داستان مبارزه وقیحانه با هوش مصنوعی اپراتور ناوگان خودروهای خودران با مسلح شدن به هوش مصنوعی، بحث‌ها و ملاحظات اخلاقی دیگری را مطرح می‌کند.

مثلا:

  • اگر یک نفر بتواند از هوش مصنوعی استفاده کند تا به او نسبت به هوش مصنوعی سیستم دیگری برتری دهد، این امر تا چه حد می تواند از لحاظ احتمال عبور از مرزهای اخلاقی هوش مصنوعی پیش برود (من ماشین های خودران را متقاعد می کنم که به سراغ من و دوستانم بیایند، به استثنای بقیه)؟
  • همچنین، آیا شباهتی از ملاحظات اخلاقی AI وجود دارد که اگر کسی در مورد نبرد با هوش مصنوعی دیگر از هوش مصنوعی مطلع باشد یا مسلح به آن باشد، آیا افراد باقی مانده که آن هوش مصنوعی متعادل کننده را ندارند باید به نحوی به هوش مصنوعی هشدار داده شوند و بتوانند خود را مسلح کنند. بر این اساس بیش از حد؟

در پایان، همه این‌ها ما را به آینده‌ای می‌برد که وهم‌آور به نظر می‌رسد، متشکل از یک مسابقه تسلیحاتی هوش مصنوعی. چه کسی هوش مصنوعی لازم را برای دور زدن و زنده ماندن خواهد داشت و چه کسی نخواهد داشت؟ آیا همیشه یک هوش مصنوعی دیگر وجود خواهد داشت که از راه می رسد و نیاز به یک هوش مصنوعی متعادل کننده را ایجاد می کند؟

کارل سیگان، دانشمند ارجمند، این حکمت حکیمانه را در مورد مسابقات تسلیحاتی فاجعه بار ارائه کرد: "مسابقه تسلیحات هسته ای مانند دو دشمن قسم خورده است که کمرشان در بنزین ایستاده است، یکی با سه کبریت، دیگری با پنج کبریت."

ما باید قاطعانه هدفمان این باشد که وقتی نوبت به مسابقه تسلیحاتی هوش مصنوعی می رسد، پاهایمان را خشک نگه داریم و سرمان را روشن نگه داریم.

منبع: https://www.forbes.com/sites/lanceeliot/2022/08/19/ai-ethics-wary-about-worsening-of-ai-asymmetry-amid-humans-getting-the-short-end- از روی چوب/