گاهی اوقات شما در انتهای چوب اشتباه هستید.
این محاوره را می توان برای مفهوم عدم تقارن به کار برد.
بله، من در مورد عدم تقارن صحبت خواهم کرد. همانطور که احتمالاً در این دنیای پیچیده ای که ما در آن زندگی می کنیم با آن مواجه شده اید، مواردی وجود دارد که ممکن است متوجه شوید که در مورد موضوعی که برای شما نسبتاً مهم است دانش کمتری دارید. این به طور رسمی به عنوان نامیده می شود عدم تقارن اطلاعاتی.
نکته کلیدی این است که شما دانش یا اطلاعات کمتری نسبت به آنچه آرزو داشتید دارید، به علاوه قطعاً کمتر از طرف دیگر درگیر در این موضوع دارید. شما در مقایسه با طرف مقابل در یک نقطه ضعف مشخص هستید. آنها چیزی می دانند که شما نمی دانید. آنها میتوانند از آنچه میدانند استفاده کنند، بهویژه در مورد چیزهایی که شما نمیدانید، و در هر مذاکره یا مذاکرهای با شما دست بالا را به دست آورند.
خوب، یک بچه جدید در شهر وجود دارد، به نام عدم تقارن هوش مصنوعی.
این آخرین عبارت به این احتمال اشاره دارد که شما در مقابل فردی مسلح به هوش مصنوعی قرار می گیرید، در حالی که شما چندان مسلح نیستید.
آنها هوش مصنوعی را در کنار خود دارند، در حالی که شما، خوب، فقط شما را دارید. چیزها کج اندیش هستند. شما در یک ضرر فرضی قرار دارید. طرف مقابل به دلیل تقویت شده توسط هوش مصنوعی قادر خواهد بود تا دور شما حلقه بزند. ممکن است این جمله معروفی باشد که می گوید در عشق و جنگ همه چیز عادلانه است (ضرب المثل دیرینه ای که در آن ابداع شده است اوفوس توسط جان لیلی، 1578)، اگرچه پویایی و خطرات عدم تقارن هوش مصنوعی، مسائل چالش برانگیز هوش مصنوعی اخلاقی را ایجاد می کند. برای پوشش مداوم و گسترده من از اخلاق هوش مصنوعی و هوش مصنوعی اخلاقی، رجوع کنید پیوند اینجا و پیوند اینجا، فقط به نام چند.
قبل از اینکه به قلمرو هوش مصنوعی و پیچیدگیهای فراوان آن در رابطه با عدم تقارن هوش مصنوعی بپردازیم، اجازه دهید ابتدا نسخه معمولی روزمره از عدم تقارن اطلاعات قدیمی را بررسی کنیم. این زمینه را برای لبه زدن به ضرب المثل بچه جدید هوش مصنوعی در بلوک فراهم می کند.
یک داستان کوتاه و هدفمند روشنگر ممکن است اشتهای شما را تحریک کند.
روز دیگر در حالی که در جاده بودم یک لاستیک پنچر شده بود و به دنبال یافتن جایگزین مناسبی بودم که به راحتی بتوان آن را بلافاصله نصب کرد. با استفاده از گوشی هوشمندم، به فروشگاههای لاستیک اطراف به صورت آنلاین نگاهی انداختم تا بفهمم چه مسافتی را باید با لاستیک خود طی کنم و آیا فروشگاههایی باز هستند یا خیر. علاوه بر این، ارزیابی سریعی از نظرات مشتریان آنلاین آنها انجام دادم و سعی کردم چیز مفیدی در مورد مدت زمانی که آنها در تجارت بوده اند و سایر عواملی که ممکن است شایستگی آنها را نشان دهد جمع آوری کنم.
با تماس با یکی از لاستیکفروشیها، منشی به من قیمت لاستیک و نصب آن را به من داد. لاستیک دقیقاً آن چیزی نبود که در ذهنم بود، اما کارمند به من اطمینان داد که آنها تنها مغازه ای در منطقه خواهند بود که می توانند بلافاصله کار را انجام دهند. به گفته منشی، هیچ یک از تایرفروشیهای نزدیک دیگر چنین لاستیکهایی در انبار ندارند و حداقل یک روز طول میکشد تا آن رقبا یک تایر مناسب را از انبارهای نیمه دور تهیه کنند.
من در میان عدم تقارن اطلاعاتی بودم.
منشی اظهار داشت که درباره وضعیت محلی فروشگاه های تایر و به ویژه نوع لاستیک مورد نیاز من اطلاعات بیشتری دارد. من در منطقه ای بودم که فقط در حال عبور از آن بودم و هیچ اطلاعات دست اولی در مورد لاستیک فروشی های آن منطقه جغرافیایی خاص نداشتم. با همه چیزهایی که من می دانستم، منشی کاملاً دقیق بود و حقیقت بی رنگ را به من می داد.
اما آیا منشی این کار را می کرد؟
شاید آره شاید نه.
ممکن است کارمند تمام آنچه را که به من منتقل می شد، صادقانه باور داشته باشد. از نظر منشی، این حقیقت بود. یا شاید کارمند تا حدودی حقیقت را آشکار می کرد. این امکان وجود داشت که آنچه گفته میشود میتواند حقیقت داشته باشد، اگرچه نحوه نمایش آن حاکی از آن بود که آن حقیقت مطلق و انکارناپذیر است. البته، میتوانست کاملاً بیتفاوت باشد و منشی صرفاً یک شیلینگ برای فروشگاه تایر میخواست تا تجارت من را به دست آورد. آیا ممکن است یک کمیسیون آبدار در خط باشد؟
به جرات می توانم بگویم که هیچ کس دوست ندارد در چنین موقعیت ضعیفی قرار بگیرد.
مخاطرات موقعیت عاملی حیاتی در میزان اهمیت عدم تقارن اطلاعاتی است. اگر سوال مورد بحث ماهیت مرگ یا زندگی است، حضور در سگخانه و اتکا به طرف مقابل برای دانستن یا دانستن آن، وضعیتی نامطلوب و بسیار نامطلوب است. وقتی خطرات کم است. مثلاً شام خود را در یک رستوران سفارش دهید و سرور به شما بگوید که غذای ماهی بهشتی است، اما قبلاً در آنجا غذا نخوردهاید و اطلاعات کافی ندارید، میتوانید با این مقدار کمی از عدم تقارن اطلاعاتی بدون نگرانی همراه باشید (من همچنین فرض کنید که شما شرط میبندید که سرور ریسک نمیکند توصیههای بدی بدهد و از دریافت انعام مناسب غافل شود).
با بازگشت به داستان لاستیک های فرسوده (یک جناس!)، هیچ راهی آنی نداشتم تا بفهمم آیا منشی بینش های قابل اعتماد و آموزنده ای به من می دهد یا خیر. شاید تعجب کنید که چه اتفاقی افتاده است. تصمیم گرفتم با چندین تایرفروشی دیگر در اطراف تماس بگیرم.
آیا برای چیزی که من کشف کردم آماده اید؟
همه لاستیکفروشیهای دیگر لاستیک مورد نظر من را در انبار داشتند و قصد نداشتند تلاش کنند و چشمک بزنند و مرا متقاعد کنند تا لاستیک دیگری بخرم (همانطور که اولین کارمند سعی کرد انجام دهد). آنها همچنین می توانند کار را در همان بازه زمانی با اولین فروشگاه لاستیک که من احتمالاً با آن تماس گرفتم انجام دهند. تقریبا با همین قیمت
من به شما اطمینان می دهم که یک آه راحت از طرف من رخ داد.
از قضا، در قانون بدشانسی مورفی، اولین جایی که من با آن تماس گرفتم تنها جایی بود که به نظر می رسید برای ناهار بیرون آمده بود. خوشحالم که به دنبال کسب اطلاعات بیشتر بودم. این شکاف عدم تقارن اطلاعاتی را کاهش داد. خودم را تشویق کردم که به اسلحههایم چسبیده بودم و به اولین جایی که زنگ زدم نرسیدم.
همانطور که گفته شد، دستیابی به اطلاعات اضافی من هزینه مشخصی داشت. من تقریباً چهار تماس گرفتم که هر کدام حدود پانزده تا بیست دقیقه طول کشید تا به طور کامل انجام شود. از این نظر، من حدود یک ساعت و نیم را مصرف کردم در حالی که میدانستم ماشینم را کجا ببرم. اگر من فوراً ماشینم را به آن مکان اول می بردم، لاستیک جدید تقریباً در آن زمان روی ماشین من بود. از سوی دیگر، تقریباً مطمئناً، بعداً، از تصمیم سریعی که در زمانی که در یک پیوند افتضاح عدم تقارن اطلاعاتی گرفتم، پشیمان می شدم.
گاهی اوقات شما باید دندان های خود را به هم فشار دهید و عدم تقارن اطلاعاتی وحشتناک را همانطور که می آید قبول کنید. فقط امیدوار هستید که هر تصمیمی که می گیرید به اندازه کافی خوب باشد. ممکن است این یک تصمیم "عالی" نباشد و بعداً از انتخاب انجام شده پشیمان شوید. زاویه دیگر این است که می توانید سعی کنید طرف خود را از معادله اطلاعات تقویت کنید، اگرچه این لزوماً هزینه ای ندارد و ممکن است زمان گرانبهایی را نیز مصرف کند، بسته به این که آیا زمان گرامی اهمیت دارد یا خیر.
اکنون که بدون شک از اینکه میدانید ماشین من با لاستیک کاملاً جدید و درست خود به خوبی کار میکند، راحت هستید، میتوانم به ظهور عدم تقارن هوش مصنوعی روی بیاورم.
یک داستان وای در هوش مصنوعی را در نظر بگیرید.
شما به دنبال دریافت وام مسکن هستید. یک تحلیلگر آنلاین درخواست وام مسکن وجود دارد که یک بانک خاص از آن استفاده می کند. سیستم آنلاین از قابلیت های پیشرفته هوش مصنوعی امروزی استفاده می کند. نیازی به صحبت با نماینده اعطای وام انسانی نیست. هوش مصنوعی همه کارها را انجام می دهد.
سیستم هوش مصنوعی شما را از طریق یک سری دستورات راهنمایی می کند. شما محترمانه فرم ها را پر می کنید و به سیستم هوش مصنوعی پاسخ می دهید. این هوش مصنوعی بسیار پرحرف است. در حالی که شما در گذشته ممکن است از یک سیستم فرمی مبتنی بر رایانه معمولی استفاده کرده باشید، این نوع هوش مصنوعی بیشتر شبیه تعامل با یک عامل انسانی است. نه کاملاً، اما به اندازه ای است که تقریباً می توانید باور کنید که یک انسان در طرف دیگر این فعالیت قرار دارد.
پس از انجام تمام تلاش خود برای "بحث" درخواست خود با این هوش مصنوعی، در پایان به شما اطلاع می دهد که متاسفانه درخواست وام تایید نمی شود. بهنظر میرسد که هوش مصنوعی عذرخواهی میکند، انگار هوش مصنوعی میخواهد وام را تأیید کند، اما آن انسانهای بداخلاق که بر بانک نظارت میکنند اجازه نمیدهند هوش مصنوعی این کار را بکند. برای پوشش من در مورد اینکه این نوع عذرخواهی های ادعایی هوش مصنوعی چقدر گمراه کننده هستند، ببینید پیوند اینجا.
شما نمی دانید که چرا رد شدید. هوش مصنوعی هیچ توضیحی ارائه نمی دهد. شاید هوش مصنوعی اشتباه کرده یا محاسباتش را خراب کرده است. بدتر از آن، فرض کنید هوش مصنوعی هنگام تصمیم گیری در مورد وام از ملاحظات بسیار مشکوک مانند نژاد یا جنسیت شما استفاده کرده است. تنها چیزی که می دانید این است که به نظر می رسید وقت خود را تلف کرده اید و همچنین در همین حین تعداد زیادی داده خصوصی را به هوش مصنوعی و بانک تحویل داده اید. هوش مصنوعی آنها شما را بهتر کرده است.
این به عنوان نمونه ای از عدم تقارن هوش مصنوعی برچسب گذاری می شود.
تو علیه بانک بودی این بانک مجهز به هوش مصنوعی بود. شما به همان اندازه مسلح نبودید. شما عقل و خرد خود را داشتید، اما هیچ هوش مصنوعی در جیب پشتی شما وجود نداشت. ذهن در برابر یک ماشین متأسفانه دستگاه در این مورد برنده شد.
داری چیکار کنی؟
اول، ما باید بر اساس اجتماعی متوجه شویم که این عدم تقارن هوش مصنوعی در حال رشد است و تقریباً در همه جا حاضر می شود. انسانها در تمام سیستمهایی که روزانه با آنها در تعامل هستیم، با هوش مصنوعی مواجه میشوند. گاهی اوقات هوش مصنوعی تنها عنصری است که ما با آن تعامل داریم، مانند این مثال در مورد درخواست وام. در موارد دیگر، یک انسان ممکن است در حلقه ای باشد که برای کمک به او در انجام یک سرویس خاص به هوش مصنوعی متکی است. برای وام، ممکن است بانک بخواهد به جای تعامل با هوش مصنوعی با یک عامل انسانی صحبت کنید، اما برای این وام، عامل انسانی از یک سیستم کامپیوتری برای دسترسی به هوش مصنوعی استفاده می کند که عامل انسانی را در طول فرآیند درخواست وام راهنمایی می کند. (و تقریباً همیشه مطمئن هستید که عامل انسانی به گونهای عمل میکند که گویی زندانی شدهاند و باید هر کاری را که هوش مصنوعی به آنها میگوید را به شدت انجام دهند).
در هر صورت، هوش مصنوعی همچنان در ترکیب است.
دوم، ما باید تلاش کنیم و اطمینان حاصل کنیم که عدم تقارن هوش مصنوعی حداقل بر اساس اصول اخلاقی AI انجام می شود.
اجازه دهید آن سخنان به ظاهر عجیب را توضیح دهم. ببینید، اگر بتوانیم تا حدودی مطمئن باشیم که هوش مصنوعی به شیوهای اخلاقی درست عمل میکند، ممکن است در مورد عدم تقارن موجود آرامش داشته باشیم. ممکن است بگوییم که اگر تعامل من با اولین فروشنده لاستیکفروشی دستورالعملهای اخلاقی سختگیرانهای داشت و اجرا میشد، ممکن است بگوییم بر اساس یک مبنا مشابه، اما ممکن است بگوییم، شاید داستانی که به من گفته شده به من گفته نمیشد، یا حداقل من شاید مجبور نبودم فوراً به دنبال کشف اینکه آیا یک داستان بلند به من داده شده است یا خیر.
من به زودی در مورد اخلاق هوش مصنوعی بیشتر توضیح خواهم داد.
سوم، ما باید به دنبال راه هایی برای کاهش عدم تقارن هوش مصنوعی باشیم. اگر هوش مصنوعی داشتید که در کنار شما بود و تلاش می کرد مربی یا محافظ شما باشد، ممکن است بتوانید از آن هوش مصنوعی برای مقابله با هوش مصنوعی دیگری که می خواهید با آن روبه رو شوید استفاده کنید. همانطور که می گویند، گاهی اوقات مبارزه با آتش با آتش بسیار منطقی است.
قبل از پرداختن به گوشت و سیبزمینی بیشتر در مورد ملاحظات وحشی و پشمی زیربنای عدم تقارن هوش مصنوعی، اجازه دهید برخی اصول اضافی را در مورد موضوعات بسیار ضروری ایجاد کنیم. ما باید به طور مختصر به اخلاق هوش مصنوعی و به ویژه ظهور یادگیری ماشینی (ML) و یادگیری عمیق (DL) نگاهی بیاندازیم.
ممکن است به طور مبهم آگاه باشید که یکی از بلندترین صداها این روزها در زمینه هوش مصنوعی و حتی خارج از حوزه هوش مصنوعی، فریاد زدن برای ظاهری بیشتر از هوش مصنوعی اخلاقی است. بیایید نگاهی به معنای ارجاع به اخلاق هوش مصنوعی و هوش مصنوعی اخلاقی بیندازیم. علاوه بر این، وقتی از یادگیری ماشینی و یادگیری عمیق صحبت میکنم، منظورم را بررسی خواهیم کرد.
یک بخش یا بخش خاصی از اخلاق هوش مصنوعی که توجه رسانه ها را به خود جلب کرده است شامل هوش مصنوعی است که سوگیری ها و نابرابری های نامناسبی را نشان می دهد. ممکن است بدانید که زمانی که آخرین دوره هوش مصنوعی آغاز شد، شور و شوق زیادی برای آنچه که اکنون برخی میگویند وجود داشت. هوش مصنوعی برای خوب. متأسفانه، در پاشنه آن هیجان فوران، ما شروع به مشاهده کردیم هوش مصنوعی برای بد. برای مثال، سیستمهای مختلف تشخیص چهره مبتنی بر هوش مصنوعی حاوی سوگیریهای نژادی و سوگیریهای جنسیتی هستند که من در مورد آن بحث کردهام. پیوند اینجا.
تلاش برای مبارزه با هوش مصنوعی برای بد به طور فعال در حال انجام هستند. علاوه بر پر سر و صدا حقوقی تلاش برای مهار تخلفات، همچنین فشار اساسی به سمت پذیرش اخلاق هوش مصنوعی برای اصلاح شرارت هوش مصنوعی وجود دارد. تصور این است که ما باید اصول کلیدی هوش مصنوعی اخلاقی را برای توسعه و توسعه هوش مصنوعی اتخاذ و تأیید کنیم تا این کار را کاهش دهیم. هوش مصنوعی برای بد و به طور همزمان منادی و ترویج مرجح هوش مصنوعی برای خوب.
در یک مفهوم مرتبط، من طرفدار تلاش برای استفاده از هوش مصنوعی به عنوان بخشی از راه حل مشکلات هوش مصنوعی هستم، و با این شیوه تفکر با آتش مبارزه می کنم. برای مثال، ممکن است اجزای هوش مصنوعی اخلاقی را در یک سیستم هوش مصنوعی تعبیه کنیم که بر نحوه انجام بقیه هوش مصنوعی نظارت میکند و بنابراین به طور بالقوه در زمان واقعی هرگونه تلاش تبعیض آمیز را جلب میکند. پیوند اینجا. ما همچنین میتوانیم یک سیستم هوش مصنوعی جداگانه داشته باشیم که به عنوان نوعی مانیتور اخلاق هوش مصنوعی عمل میکند. سیستم هوش مصنوعی به عنوان یک ناظر برای ردیابی و تشخیص اینکه چه زمانی هوش مصنوعی دیگر به ورطه غیراخلاقی می رود عمل می کند (تحلیل من از چنین قابلیت هایی را در اینجا ببینید. پیوند اینجا).
در یک لحظه، من برخی از اصول کلی زیربنای اخلاق هوش مصنوعی را با شما به اشتراک خواهم گذاشت. تعداد زیادی از این نوع لیست ها اینجا و آنجا شناور هستند. می توان گفت که هنوز فهرست منحصر به فردی از جذابیت و توافق جهانی وجود ندارد. این خبر تاسف بار است. خبر خوب این است که حداقل لیستهای اخلاقی هوش مصنوعی وجود دارد که کاملاً مشابه هستند. در مجموع، این نشان میدهد که با نوعی همگرایی مستدل، راه خود را به سوی یک اشتراک کلی از آنچه اخلاق هوش مصنوعی تشکیل میدهد، پیدا میکنیم.
ابتدا، اجازه دهید به طور مختصر برخی از قوانین کلی اخلاقی هوش مصنوعی را پوشش دهیم تا نشان دهیم چه چیزی باید برای هر کسی که در حال ساخت، ساخت و یا استفاده از هوش مصنوعی است، اهمیت حیاتی داشته باشد.
به عنوان مثال، همانطور که توسط واتیکان در فراخوان رم برای اخلاق هوش مصنوعی و همانطور که به طور عمیق به آن پرداخته ام پیوند اینجا، این شش اصل اصلی اخلاق هوش مصنوعی شناسایی شده آنها است:
- شفافیت: در اصل، سیستم های هوش مصنوعی باید قابل توضیح باشند
- نقص: نیازهای همه انسانها باید مورد توجه قرار گیرد تا همه بتوانند از آن بهره ببرند و بهترین شرایط ممکن برای ابراز وجود و پیشرفت به همه افراد ارائه شود.
- مسئوليت: کسانی که استفاده از هوش مصنوعی را طراحی و اجرا می کنند باید با مسئولیت و شفافیت پیش بروند
- بی طرفی: از ایجاد و یا عمل بر اساس تعصب، در نتیجه حفظ انصاف و کرامت انسانی
- قابلیت اطمینان: سیستم های هوش مصنوعی باید بتوانند به طور قابل اعتماد کار کنند
- امنیت و حریم خصوصی: سیستم های هوش مصنوعی باید ایمن کار کنند و به حریم خصوصی کاربران احترام بگذارند.
همانطور که توسط وزارت دفاع ایالات متحده (DoD) در آنها بیان شده است اصول اخلاقی برای استفاده از هوش مصنوعی و همانطور که به طور عمیق به آن پرداخته ام پیوند اینجا، این شش اصل اصلی اخلاق هوش مصنوعی آنهاست:
- مسئول: پرسنل وزارت دفاع سطوح مناسبی از قضاوت و مراقبت را اعمال خواهند کرد و در عین حال مسئولیت توسعه، استقرار و استفاده از قابلیتهای هوش مصنوعی را بر عهده خواهند داشت.
- منصفانه: این وزارتخانه اقدامات عمدی را برای به حداقل رساندن سوگیری ناخواسته در قابلیتهای هوش مصنوعی انجام خواهد داد.
- قابل ردیابی: قابلیتهای هوش مصنوعی این وزارتخانه به گونهای توسعه و مستقر خواهد شد که پرسنل مربوطه درک مناسبی از فناوری، فرآیندهای توسعه، و روشهای عملیاتی قابل اجرا برای قابلیتهای هوش مصنوعی، از جمله روششناسی شفاف و قابل ممیزی، منابع دادهها، روشها و مستندات طراحی داشته باشند.
- قابل اعتماد: قابلیتهای هوش مصنوعی این وزارتخانه کاربردهای مشخص و مشخصی خواهند داشت، و ایمنی، امنیت و اثربخشی چنین قابلیتهایی مشمول آزمایش و اطمینان در آن کاربردهای تعریفشده در کل چرخه عمر آنها خواهد بود.
- قابل اداره: این وزارتخانه قابلیتهای هوش مصنوعی را طراحی و مهندسی میکند تا عملکردهای مورد نظر خود را انجام دهد، در حالی که توانایی شناسایی و اجتناب از پیامدهای ناخواسته را دارد، و توانایی جدا کردن یا غیرفعال کردن سیستمهای مستقری که رفتار ناخواسته را نشان میدهند.
من همچنین در مورد تجزیه و تحلیلهای جمعی مختلف از اصول اخلاق هوش مصنوعی بحث کردهام، از جمله پوشش مجموعهای ابداع شده توسط محققان که ماهیت بسیاری از اصول اخلاقی هوش مصنوعی ملی و بینالمللی را در مقالهای تحت عنوان «چشمانداز جهانی دستورالعملهای اخلاق هوش مصنوعی» (منتشر شده) بررسی و فشرده کرده است. که در طبیعت) و پوشش من در آن بررسی می شود پیوند اینجا، که منجر به این لیست کلیدی شد:
- شفافیت
- عدالت و انصاف
- عدم سوء استفاده
- مسئوليت
- حریم خصوصی
- سود رسانی
- آزادی و خودمختاری
- اعتماد
- پایداری
- کرامت
- اتحاد
همانطور که ممکن است مستقیماً حدس بزنید، تلاش برای مشخص کردن جزئیات زیربنای این اصول می تواند بسیار سخت باشد. حتی بیشتر از آن، تلاش برای تبدیل این اصول گسترده به چیزی کاملاً ملموس و با جزئیات کافی برای استفاده در هنگام ساخت سیستمهای هوش مصنوعی نیز یک مهره سخت است. به طور کلی می توان در مورد اینکه اصول اخلاقی هوش مصنوعی چیست و چگونه باید به طور کلی آنها را رعایت کرد، دست تکان داد، در حالی که وضعیت بسیار پیچیده تر در کدنویسی هوش مصنوعی است که باید لاستیک واقعی باشد که با جاده مطابقت می کند.
اصول اخلاق هوش مصنوعی باید توسط توسعه دهندگان هوش مصنوعی، همراه با آنهایی که تلاش های توسعه هوش مصنوعی را مدیریت می کنند، و حتی آنهایی که در نهایت سیستم های هوش مصنوعی را انجام می دهند، مورد استفاده قرار گیرد. همه ذینفعان در طول چرخه عمر توسعه و استفاده هوش مصنوعی در محدوده رعایت هنجارهای تثبیت شده هوش مصنوعی اخلاقی در نظر گرفته می شوند. این نکته مهمی است زیرا فرض معمول این است که «فقط کدنویسها» یا کسانی که هوش مصنوعی را برنامهریزی میکنند، منوط به رعایت مفاهیم اخلاقی هوش مصنوعی هستند. همانطور که قبلاً گفته شد، برای ابداع و به کارگیری هوش مصنوعی به یک دهکده نیاز است، و برای آن کل دهکده باید به اصول اخلاقی هوش مصنوعی مسلط باشد و از آن پیروی کند.
بیایید همچنین مطمئن شویم که در مورد ماهیت هوش مصنوعی امروزی همسو هستیم.
امروزه هیچ هوش مصنوعی وجود ندارد که حساس باشد. ما این را نداریم ما نمی دانیم که آیا هوش مصنوعی ممکن خواهد بود یا خیر. هیچ کس نمی تواند به درستی پیش بینی کند که آیا ما به هوش مصنوعی خواهیم رسید یا خیر، یا اینکه آیا هوش مصنوعی به طور معجزه آسایی به شکلی از ابرنواختر شناختی محاسباتی پدید خواهد آمد (که معمولاً به عنوان تکینگی شناخته می شود، پوشش من را در اینجا ببینید. پیوند اینجا).
نوع هوش مصنوعی که من روی آن تمرکز می کنم شامل هوش مصنوعی غیر حساسی است که امروز داریم. اگر بخواهیم به شدت در مورد آن حدس بزنیم با احساس هوش مصنوعی، این بحث می تواند در جهتی کاملاً متفاوت پیش رود. ظاهراً یک هوش مصنوعی با کیفیت انسانی خواهد بود. شما باید در نظر داشته باشید که هوش مصنوعی حسی معادل شناختی یک انسان است. علاوه بر این، از آنجایی که برخی گمانه زنی می کنند که ممکن است هوش مصنوعی فوق هوشمند داشته باشیم، می توان تصور کرد که چنین هوش مصنوعی می تواند در نهایت از انسان ها باهوش تر باشد (برای کاوش من در مورد هوش مصنوعی فوق هوشمند به عنوان یک احتمال، نگاه کنید به پوشش در اینجا).
بیایید همه چیز را روی زمین نگه داریم و هوش مصنوعی محاسباتی غیر حساس امروزی را در نظر بگیریم.
درک کنید که هوش مصنوعی امروزی قادر به «فکر کردن» به هیچ شکلی با تفکر انسان نیست. وقتی با الکسا یا سیری تعامل می کنید، ظرفیت های مکالمه ممکن است شبیه ظرفیت های انسانی به نظر برسد، اما واقعیت این است که محاسباتی است و فاقد شناخت انسانی است. آخرین دوره هوش مصنوعی از یادگیری ماشینی (ML) و یادگیری عمیق (DL) استفاده گسترده ای کرده است که از تطابق الگوی محاسباتی استفاده می کند. این منجر به سیستمهای هوش مصنوعی شده است که ظاهری شبیه به تمایلات انسان دارند. در همین حال، هیچ هوش مصنوعی امروزی وجود ندارد که شباهتی به عقل سلیم داشته باشد و هیچ یک از شگفتیهای شناختی تفکر قوی انسانی را نداشته باشد.
ML/DL نوعی تطبیق الگوی محاسباتی است. روش معمول این است که شما داده ها را در مورد یک کار تصمیم گیری جمع آوری می کنید. داده ها را به مدل های کامپیوتری ML/DL وارد می کنید. آن مدل ها به دنبال یافتن الگوهای ریاضی هستند. پس از یافتن چنین الگوهایی، در صورت یافتن، سیستم هوش مصنوعی در هنگام مواجهه با داده های جدید از آن الگوها استفاده خواهد کرد. پس از ارائه داده های جدید، الگوهای مبتنی بر داده های "قدیمی" یا تاریخی برای ارائه یک تصمیم فعلی استفاده می شود.
من فکر می کنم می توانید حدس بزنید که این به کجا می رود. اگر انسانهایی که بر اساس تصمیمگیریهای الگو گرفته شدهاند، سوگیریهای نامطلوب را در خود جای دادهاند، احتمال این وجود دارد که دادهها این را به روشهای ظریف اما قابل توجهی منعکس کنند. تطبیق الگوی محاسباتی یادگیری ماشینی یا یادگیری عمیق به سادگی سعی میکند تا دادهها را مطابق با ریاضی تقلید کند. هیچ شباهتی از عقل سلیم یا سایر جنبه های حساس مدل سازی ساخته شده با هوش مصنوعی به خودی خود وجود ندارد.
علاوه بر این، توسعه دهندگان هوش مصنوعی نیز ممکن است متوجه نباشند که چه اتفاقی در حال رخ دادن است. ریاضیات محرمانه در ML/DL ممکن است کشف سوگیری های پنهان در حال حاضر را دشوار کند. شما به حق امیدوارید و انتظار دارید که توسعهدهندگان هوش مصنوعی سوگیریهای بالقوه مدفون را آزمایش کنند، اگرچه این دشوارتر از آن چیزی است که به نظر میرسد. این احتمال وجود دارد که حتی با آزمایش نسبتاً گسترده، سوگیریهایی همچنان در مدلهای تطبیق الگوی ML/DL وجود داشته باشد.
میتوانید تا حدودی از ضربالمثل معروف یا بدنام زبالههای درون زبالهها استفاده کنید. مسئله این است که این بیشتر شبیه سوگیریهایی است که بهطور موذیانه بهعنوان سوگیریهایی که در هوش مصنوعی غوطهور میشوند، القا میشوند. الگوریتم تصمیمگیری (ADM) هوش مصنوعی به طور اصولی مملو از نابرابریها میشود.
خوب نیست.
بیایید به تمرکز خود بر عدم تقارن هوش مصنوعی برگردیم.
یک جمع بندی سریع در مورد سه توصیه شناسایی شده من در بالا این است:
1) آگاه باشید که عدم تقارن هوش مصنوعی وجود دارد و در حال رشد است
2) سعی کنید اطمینان حاصل کنید که عدم تقارن هوش مصنوعی با اخلاق هوش مصنوعی محدود شده است
3) با مسلح شدن به هوش مصنوعی سعی کنید با عدم تقارن هوش مصنوعی مبارزه کنید
ما نگاهی دقیق تر به آخرین نقطه مبارزه با آتش با آتش خواهیم داشت.
تصور کنید وقتی به دنبال دریافت وام هستید، هوش مصنوعی دارید که در کنار تلاش شما کار می کند. این ممکن است یک برنامه مبتنی بر هوش مصنوعی در تلفن هوشمند شما باشد که برای دریافت وام طراحی شده است. این یک برنامه توسط یکی از بانک ها نیست و در عوض به طور مستقل برای عمل از طرف شما طراحی شده است. من این نوع برنامهها را در کتابم درباره رباتهای فرشته نگهبان مبتنی بر هوش مصنوعی توضیح دادهام، ببینید پیوند اینجا.
پس از درخواست وام، ممکن است به این برنامه مراجعه کنید زیرا در مراحل درخواست توسط هوش مصنوعی دیگر قدم گذاشته اید. این دو سیستم هوش مصنوعی متمایز و کاملاً مجزا از یکدیگر هستند. هوش مصنوعی روی گوشی هوشمند شما برای دانستن تمام ترفندهایی که توسط هوش مصنوعی دیگر استفاده می شود، "آموزش داده شده است". به این ترتیب، پاسخ هایی که به هوش مصنوعی بانک وارد می کنید، بر اساس آنچه هوش مصنوعی شما به شما توصیه می کند، خواهد بود.
نوع دیگر شامل پاسخگویی هوش مصنوعی شما به سوالات مطرح شده توسط هوش مصنوعی دیگر است. تا آنجایی که هوش مصنوعی دیگر می تواند تشخیص دهد، این شما هستید که پاسخ ها را وارد می کنید. در عوض ممکن است شما فقط نظاره گر تعاملات بین دو سیستم هوش مصنوعی باشید. این به شما امکان می دهد ببینید هوش مصنوعی شما چه چیزی را ارائه می دهد. علاوه بر این، میتوانید به طور بالقوه هوش مصنوعی خود را بسته به اینکه آیا از کاری که هوش مصنوعی از طرف شما انجام میدهد راضی هستید یا خیر، تنظیم کنید.
من پیش بینی کرده ام که همه ما به تدریج به هوش مصنوعی مسلح می شویم که در این شرایط عدم تقارن هوش مصنوعی در کنار ما خواهد بود.
بیایید در نظر بگیریم که چگونه این کار انجام می شود.
اینها تأثیرات اساسی بر شرایط عدم تقارن هوش مصنوعی است که من بیان کرده بودم:
- صاف کردن عدم تقارن هوش مصنوعی به نفع شما (شما را به سمت بالا می برد، به امید رسیدن به سطوح مساوی)
- ایجاد عدم تقارن هوش مصنوعی به نفع شما (بالا بردن شما به یک مزیت زمانی که قبلاً برابر هستید)
- تقویت عدم تقارن هوش مصنوعی به نفع فوق العاده شما (به دست آوردن مزیت گسترده تر زمانی که قبلاً مزیت دارید)
- کاهش سهوی عدم تقارن هوش مصنوعی به نفع شماست (زمانی که از قبل یک مزیت داشتید و هوش مصنوعی ناخواسته شما را پایین کشید)
زمان آن رسیده است که به این احتمالات جالب توجه کنید.
صاف کردن عدم تقارن هوش مصنوعی به نفع شما
مسطح کردن عدم تقارن هوش مصنوعی واضح ترین و اغلب مورد بحث است، یعنی اینکه شما باید خود را با هوش مصنوعی مسلح کنید تا سعی کنید با هوش مصنوعی که توسط طرف مقابل در موضوع مورد نظر استفاده می شود، دست به کار شوید. تنظیم عدم تقارن هوش مصنوعی با یک نقطه ضعف مشخص شروع شد. شما هیچ هوش مصنوعی در گوشه خود نداشتید. شما طرف پایینی بودید طرف مقابل هوش مصنوعی داشت و در بالاترین سطح بود.
بنابراین، شما هوشمندانه خود را با هوش مصنوعی مسلح کردید که هدف آن قرار دادن شما و سایر هوش مصنوعی در شرایط برابر است.
یکی از نکات مهم و شاید شگفتانگیز که باید در نظر داشت این است که همیشه اینطور نیست که سیستمهای هوش مصنوعی به کار گرفته شده در برابر یکدیگر به طور مساوی تعادل برقرار کنند. شما ممکن است خود را به هوش مصنوعی مسلح کنید، یعنی باید بگوییم از هوش مصنوعی که طرف مقابل از آن استفاده می کند، قوی تر است. در این صورت، خوشبختانه موقعیت نزولی خود را افزایش داده اید، اگرچه اکنون کاملاً با طرف مقابل و هوش مصنوعی آن برابر نیستید.
به همین دلیل است که من از آن به عنوان مسطح کردن عدم تقارن هوش مصنوعی یاد می کنم. ممکن است بتوانید شکاف را کم کنید، اگرچه به طور کامل شکاف را نبندید. هدف نهایی این است که از هوش مصنوعی در کنار خود استفاده کنید که شما را به وضعیتی کاملاً برابر برساند. مسئله این است که این ممکن است امکان پذیر باشد یا نباشد. طرف مقابل میتواند هوش مصنوعی واقعاً گرانقیمتی داشته باشد و شما سعی میکنید با نسخههای هوشمند و مقرون به صرفه هوش مصنوعی رقابت کنید.
همه هوش مصنوعی یکسان نیستند.
ایجاد عدم تقارن هوش مصنوعی به نفع شما
این شرایط امروزه چندان مورد بحث نیست، تا حدی به این دلیل که در حال حاضر نادر است. روزی این امر عادی خواهد شد. تصور این است که فرض کنید شما بدون هوش مصنوعی هستید و در عین حال با طرفی که هوش مصنوعی دارد، برابر هستید.
خوش به حالت.
انسانها حواسشان به آنهاست.
اما ممکن است بخواهید نسبت به طرف مقابل برتری پیدا کنید. مسلح کردن خود به هوش مصنوعی شما را به سطح بالاتری می برد. اکنون عقل و هوش مصنوعی قابل اعتماد خود را در دست دارید. شما مزیتی به دست آورده اید که احتمالاً بر هوش مصنوعی طرف مقابل برتری خواهد داشت.
تقویت عدم تقارن هوش مصنوعی به نفع شماست
با استفاده از منطقی مشابه به عنوان جنبه تحریک عدم تقارن هوش مصنوعی از طرف شما، فرض کنید که شما در حال حاضر بالاتر از توانایی های طرف دیگری هستید که از هوش مصنوعی استفاده می کند. بنابراین، شما از یک وضعیت مساوی شروع نمی کنید. شما خوشبختانه در حال حاضر در سمت بالا هستید.
ممکن است بخواهید به هر حال مزیت بزرگتری را به دست آورید. بنابراین، شما خود را با هوش مصنوعی مسلح می کنید. این کار سر و شانه های شما را بالاتر از طرف دیگر می برد.
کاهش سهوی عدم تقارن هوش مصنوعی به نفع شما
من شک دارم که شما بخواهید در مورد این احتمال بشنوید. لطفاً توجه داشته باشید که سر و کار داشتن با هوش مصنوعی همه چیز گل رز و کیک بستنی نیست.
ممکن است وقتی خود را به هوش مصنوعی مسلح می کنید، در واقع خود را زیر پا بگذارید. اگر قبلاً کمتر از هوش مصنوعی طرف مقابل بودید، اکنون در یک سوراخ عمیق تر هستید. اگر در شرایط مساوی بودید، اکنون در وضعیت نامساعدی هستید. اگر بالاتر از طرف دیگر بودید، اکنون برابر یا زیر آن هستید.
چگونه ممکن است چنین اتفاقی بیفتد؟
ممکن است از این فکر کنید که هوش مصنوعی که اتخاذ می کنید شما را به بیراهه می برد، شوکه شوید. این به راحتی می تواند رخ دهد. فقط به این دلیل که هوش مصنوعی در گوشه خود دارید به این معنی نیست که مفید است. ممکن است از هوش مصنوعی استفاده کنید و توصیه هایی را ارائه می دهد که لزوماً فکر نمی کنید مناسب باشد، اما به هر حال تصمیم می گیرید با آن همراه شوید. منطق شما در آن زمان این بود که از آنجایی که برای به دست آوردن هوش مصنوعی دچار مشکل شده اید، ممکن است به آن وابسته باشید.
ممکن است هوش مصنوعی مورد استفاده شما معیوب باشد. یا ممکن است ضعیف طراحی شده باشد. دلایل متعددی وجود دارد که چرا هوش مصنوعی ممکن است به شما توصیه های متزلزلی بدهد. کسانی که کورکورانه هر کاری را که هوش مصنوعی میگوید میپذیرند، حتماً خود را در دنیایی از آسیب خواهند دید. من چنین مشکلاتی را در ستون خود پوشش داده ام، مانند پیوند اینجا.
نکته اصلی این است که مطلقاً هیچ تضمینی وجود ندارد که فقط به این دلیل که خود را با هوش مصنوعی مسلح می کنید، در بازی AI Asymmetry برنده شوید.
ممکن است به یک زمین بازی مساوی برسید. ممکن است یک مزیت به دست آورید. و، متأسفانه، باید محتاط باشید، زیرا ممکن است در صورت مسلح شدن به هوش مصنوعی، به سطوح پایینی سقوط کنید.
تا حدودی، به همین دلیل است که اخلاق هوش مصنوعی و هوش مصنوعی اخلاقی یک موضوع بسیار مهم است. دستورات اخلاق هوش مصنوعی ما را وادار می کند که هوشیار بمانیم. فنآوران هوش مصنوعی ممکن است در مواقعی با فناوری، بهویژه بهینهسازی فناوریهای پیشرفته، مشغول شوند. آنها لزوماً پیامدهای اجتماعی بزرگتر را در نظر نمی گیرند. داشتن ذهنیت اخلاقی هوش مصنوعی و انجام این کار به طور یکپارچه در توسعه و میداندهی هوش مصنوعی برای تولید هوش مصنوعی مناسب حیاتی است.
علاوه بر استفاده از اخلاق هوش مصنوعی، یک سوال مربوط به این موضوع وجود دارد که آیا باید قوانینی برای کنترل کاربردهای مختلف هوش مصنوعی داشته باشیم. قوانین جدیدی در سطوح فدرال، ایالتی و محلی وضع می شود که به محدوده و ماهیت چگونگی ابداع هوش مصنوعی مربوط می شود. تلاش برای تدوین و تصویب چنین قوانینی تدریجی است. اخلاق هوش مصنوعی حداقل به عنوان یک توقف در نظر گرفته شده عمل می کند و تقریباً مطمئناً تا حدی مستقیماً در آن قوانین جدید گنجانده می شود.
توجه داشته باشید که برخی قاطعانه استدلال می کنند که ما به قوانین جدیدی که هوش مصنوعی را پوشش می دهد نیازی نداریم و قوانین موجود ما کافی است. در واقع، آنها از قبل هشدار میدهند که اگر برخی از این قوانین هوش مصنوعی را به اجرا بگذاریم، با مهار پیشرفتهای هوش مصنوعی که مزایای اجتماعی عظیمی را ارائه میکند، غاز طلایی را خواهیم کشت. به عنوان مثال پوشش من را در پیوند اینجا و پیوند اینجا.
در این مقطع از این بحث سنگین، شرط می بندم که شما خواهان نمونه های گویا هستید که ممکن است این موضوع را به نمایش بگذارد. مجموعهای از نمونههای خاص و مطمئناً محبوب وجود دارد که به دلم نشسته است. ببینید، به عنوان یک متخصص در زمینه هوش مصنوعی از جمله پیامدهای اخلاقی و قانونی، اغلب از من خواسته میشود که نمونههای واقعبینانهای را که معضلات اخلاقی هوش مصنوعی را نشان میدهند شناسایی کنم تا بتوان ماهیت تا حدودی نظری موضوع را راحتتر درک کرد. یکی از جذابترین زمینههایی که این معضل اخلاقی هوش مصنوعی را به وضوح نشان میدهد، ظهور خودروهای خودران واقعی مبتنی بر هوش مصنوعی است. این به عنوان یک مورد استفاده مفید یا نمونه ای برای بحث و گفتگوی کافی در مورد موضوع خواهد بود.
پس در اینجا یک سوال قابل توجه وجود دارد که قابل تامل است: آیا ظهور خودروهای خودران واقعی مبتنی بر هوش مصنوعی چیزی را در مورد عدم تقارن هوش مصنوعی روشن می کند، و اگر چنین است، این چه چیزی را به نمایش می گذارد؟
یک لحظه به من اجازه دهید تا پرسش را باز کنم.
اول، توجه داشته باشید که هیچ راننده انسانی در یک ماشین خودران واقعی دخیل نیست. به خاطر داشته باشید که خودروهای خودران واقعی از طریق سیستم رانندگی هوش مصنوعی هدایت می شوند. نه نیازی به راننده انسان پشت فرمان وجود دارد و نه پیش بینی ای برای رانندگی وسیله نقلیه توسط انسان وجود دارد. برای پوشش گسترده و مداوم من در مورد وسایل نقلیه خودران (AVs) و به خصوص خودروهای خودران، نگاه کنید به پیوند اینجا.
مایلم بیشتر توضیح دهم که منظور از خودروهای خودران واقعی چیست.
درک سطح اتومبیل های خودران
به عنوان یک توضیح، خودروهای خودران واقعی، خودروهایی هستند که هوش مصنوعی خودرو را کاملاً به تنهایی رانندگی می کند و هیچ کمک انسانی در طول کار رانندگی وجود ندارد.
این وسایل نقلیه بدون راننده سطح 4 و سطح 5 در نظر گرفته می شوند (توضیحات من را در اینجا ببینید این لینک در اینجا) ، در حالی که خودرویی که نیاز به یک راننده انسانی برای مشارکت در رانندگی دارد معمولاً در سطح 2 یا سطح 3 در نظر گرفته می شود. افزودنی های خودکار که به عنوان ADAS (سیستم های کمک راننده پیشرفته) شناخته می شوند.
هنوز یک خودروی خودران واقعی در سطح 5 وجود ندارد، و ما هنوز حتی نمی دانیم که آیا امکان دستیابی به آن وجود دارد یا خیر، و نه اینکه چقدر طول می کشد تا به آنجا برسیم.
در همین حال ، تلاش های سطح 4 به تدریج در تلاشند تا با انجام آزمایشات عمومی بسیار باریک و انتخابی در جاده ها ، کمی به سمت خود جلب کنند ، هرچند در مورد اینکه آیا این آزمایش به خودی خود مجاز است یا خیر ، اختلاف نظر وجود دارد (همه ما در یک آزمایش خوکچه هندی زنده یا مرگ هستیم) برخی از آنها ادعا می كنند كه در بزرگراهها و گذرگاههای ما در حال انجام است این لینک در اینجا).
از آنجا که اتومبیل های نیمه خودمختار به یک راننده انسانی احتیاج دارند ، تصویب آن دسته از اتومبیل ها تفاوت چندانی با رانندگی وسایل نقلیه معمولی نخواهد داشت ، بنابراین به تنهایی چیز جدیدی برای پوشش آنها در این موضوع وجود ندارد (هر چند ، همانطور که خواهید دید در یک لحظه ، نکات بعدی که بطور کلی اعمال می شود).
در مورد اتومبیل های نیمه خودمختار ، مهم است که در مورد جنبه نگران کننده ای که اخیراً بوجود آمده است ، هشدار داده شود ، یعنی این که با وجود آن رانندگان انسانی که با ارسال فیلم هایی از خودشان ، در حال خوابیدن در چرخ یک اتومبیل سطح 2 یا سطح 3 هستند. ، همه ما باید از اینكه گمان نرود راننده بتواند هنگام رانندگی یك اتومبیل نیمه خودمختار ، توجه خود را از وظیفه رانندگی دور كند ، خودداری كنیم.
شما مسئولیت اقدامات رانندگی وسیله نقلیه ، صرفنظر از میزان اتوماسیون در سطح 2 یا سطح 3 ، مسئولیت مسئولیت مسئولیت شما می باشد.
خودروهای خودران و عدم تقارن هوش مصنوعی
برای وسایل نقلیه خود رانندگی واقعی سطح 4 و سطح 5 ، یک راننده انسانی درگیر در وظیفه رانندگی نخواهد بود.
همه سرنشینان مسافر خواهند بود.
هوش مصنوعی رانندگی را انجام می دهد.
یک جنبه برای بحث فوری این واقعیت را در بر دارد که هوش مصنوعی در سیستم های رانندگی هوش مصنوعی امروزی حساس نیست. به عبارت دیگر ، هوش مصنوعی در مجموع مجموعه ای از برنامه نویسی و الگوریتم های مبتنی بر رایانه است و مطمئناً قادر به استدلال به همان روشی نیست که انسان می تواند.
چرا این تاکید اضافی در مورد هوش مصنوعی نیست؟
از آنجا که می خواهم تأکید کنم هنگام بحث در مورد نقش سیستم رانندگی AI ، من خصوصیات انسانی را به AI نسبت نمی دهم. لطفاً توجه داشته باشید که این روزها تمایل مستمر و خطرناکی برای انسان سازی AI وجود دارد. در حقیقت ، افراد حساسیتی شبیه انسان به هوش مصنوعی امروزی دارند ، علی رغم این واقعیت انکارناپذیر و غیرقابل انکار که هنوز چنین هوش مصنوعی وجود ندارد.
با این توضیحات ، می توانید تصور کنید که سیستم رانندگی هوش مصنوعی بطور طبیعی از جنبه های رانندگی "آگاهی" نداشته باشد. رانندگی و همه آنچه که شامل می شود باید به عنوان بخشی از سخت افزار و نرم افزار اتومبیل خودران برنامه ریزی شوند.
بیایید به جنبه های بی شماری بپردازیم که در این موضوع بازی می شوند.
اول، مهم است که بدانیم همه خودروهای خودران با هوش مصنوعی یکسان نیستند. هر خودروساز و شرکت فناوری خودران رویکرد خود را برای ابداع خودروهای خودران در پیش گرفته است. به این ترتیب، اظهار نظر گسترده در مورد اینکه سیستم های رانندگی هوش مصنوعی چه کاری انجام خواهند داد یا انجام نمی دهند، دشوار است.
علاوه بر این ، هرگاه بیان شود که سیستم رانندگی هوش مصنوعی کار خاصی انجام نمی دهد ، بعداً توسعه دهندگانی که در واقع کامپیوتر را برای انجام این کار برنامه ریزی می کنند ، می توانند از این امر پیشی بگیرند. گام به گام ، سیستم های رانندگی هوش مصنوعی به تدریج در حال بهبود و گسترش هستند. امروزه محدودیت موجود ممکن است دیگر در نسخه یا نسخه بعدی سیستم وجود نداشته باشد.
امیدوارم که اخطارهای فراوانی را برای زیربنای آنچه که می خواهم بیان کنم، ارائه دهد.
بیایید سناریویی را ترسیم کنیم که عدم تقارن هوش مصنوعی را نشان می دهد.
به این موضوع به ظاهر بیاهمیت فکر کنید که ماشینهای خودران در کجا پرسه میزنند تا مسافران را سوار کنند. به نظر می رسد این یک موضوع بسیار بی ضرر است.
در ابتدا، فرض کنید که خودروهای خودران با هوش مصنوعی در کل شهرها پرسه می زنند. هر کسی که بخواهد سوار ماشین خودران شود، اساساً شانس یکسانی دارد. بتدریج هوش مصنوعی شروع به پرسه زدن خودروهای خودران تنها در یک بخش از شهر می کند. این بخش پولساز بزرگتری است و هوش مصنوعی به گونه ای برنامه ریزی شده است که تلاش کند به حداکثر رساندن درآمدها به عنوان بخشی از استفاده در جامعه به طور کلی (این امر بر طرز فکر زیربنایی بهینه سازی، یعنی تمرکز بر یک معیار خاص و نادیده گرفتن سایر عوامل حیاتی در فرآیند تأکید می کند).
به نظر می رسد که اعضای جامعه در بخش های فقیر شهر کمتر احتمال دارد که بتوانند از یک ماشین خودران سوار شوند. این به این دلیل است که اتومبیل های خودران دورتر بودند و در بخش درآمد بالاتر شهر پرسه می زدند. هنگامی که درخواستی از نقطهای دور از شهر میآید، هر درخواست دیگری از مکان نزدیکتر اولویت بیشتری دارد. در نهایت، دسترسی به یک ماشین خودران در هر مکانی غیر از بخش ثروتمندتر شهر تقریبا غیرممکن است، برای کسانی که در مناطقی که اکنون کمبود منابع زندگی می کنند، بسیار غیرممکن است.
رویاهایی که ماشین های خودران قرار است برای همه به ارمغان بیاورند، از بین می رود.
شما می توانید ادعا کنید که هوش مصنوعی به طور کلی بر روی نوعی سوگیری آماری و محاسباتی قرار گرفته است، شبیه به نوعی از تبعیض پروکسی (که اغلب به عنوان تبعیض غیرمستقیم نیز شناخته می شود). بدانید که هوش مصنوعی برای جلوگیری از آن محله های فقیرتر برنامه ریزی نشده است. بیایید در این مورد در مورد آن شفاف باشیم. نه، در عوض صرفاً برای بهینه سازی درآمد، هدفی به ظاهر قابل قبول، ابداع شد، اما این کار بدون اینکه توسعه دهندگان هوش مصنوعی به پیامدهای احتمالی دیگر فکر کنند، انجام شد. آن بهینه سازی به نوبه خود ناخواسته و ناگزیر منجر به یک نتیجه نامطلوب شد.
اگر آنها ملاحظات اخلاقی هوش مصنوعی را به عنوان بخشی از ذهنیت بهینهسازی خود لحاظ میکردند، ممکن بود از قبل متوجه میشدند که اگر هوش مصنوعی را طوری بسازند که با این نوع بزرگسازی تنها با یک معیار کنار بیاید، ممکن است از چنین نتایج نامطلوبی جلوگیری کنند. برای اطلاعات بیشتر در مورد این نوع مسائل که پذیرش گسترده وسایل نقلیه خودران و خودروهای خودران احتمالاً متحمل می شوند، به پوشش من در این لینک در اینجا، مطالعه ای را که به رهبری هاروارد انجام شده است را توصیف می کند که با همکاری من در مورد این موضوعات نوشته شده است.
در هر صورت، فرض کنید که اسب در حال حاضر از انبار خارج شده است و وضعیت بلافاصله پاسخگوی راه حل های کلی نیست.
کسانی که می خواهند از آن ماشین های خودران استفاده کنند چه کاری می توانند انجام دهند؟
آشکارترین رویکرد این است که با رهبران جامعه همکاری کنیم تا خودروساز یا شرکت فناوری خودران در مورد نحوه راه اندازی هوش مصنوعی تجدید نظر کنند. شاید بر هر گونه مجوز یا مجوزهایی که برای استقرار آن خودروهای خودران در آن شهر یا شهرک داده شده است، فشار بیاورید. اینها احتمالاً ابزارهای مناسبی برای ایجاد تغییرات مثبت هستند، اگرچه ممکن است مدتی طول بکشد تا این تلاش ها به ثمر بنشینند.
زاویه دیگر این است که خود را با هوش مصنوعی مسلح کنید.
تصور کنید که شخصی هوشمندانه یک برنامه مبتنی بر هوش مصنوعی ابداع کرده است که روی گوشی هوشمند شما کار میکند و با هوش مصنوعی خودروساز یا اپراتور ناوگانی که درخواستهای سواری را دریافت میکند، سروکار دارد. ممکن است هوش مصنوعی که از آن استفاده میکنید از عناصر کلیدی هوش مصنوعی دیگر بهرهبرداری کند، به طوری که درخواست خودروی خودران توسط شما اولویت بیشتری دارد. توجه داشته باشید که من پیشنهاد نمیکنم که چیزی غیرقانونی اتفاق بیفتد، بلکه در عوض هوش مصنوعی طرف شما بر اساس «ویژگیهای» یا حتی حفرههای کشف شده در هوش مصنوعی دیگر توسعه یافته است.
نتیجه
داستان مبارزه وقیحانه با هوش مصنوعی اپراتور ناوگان خودروهای خودران با مسلح شدن به هوش مصنوعی، بحثها و ملاحظات اخلاقی دیگری را مطرح میکند.
مثلا:
- اگر یک نفر بتواند از هوش مصنوعی استفاده کند تا به او نسبت به هوش مصنوعی سیستم دیگری برتری دهد، این امر تا چه حد می تواند از لحاظ احتمال عبور از مرزهای اخلاقی هوش مصنوعی پیش برود (من ماشین های خودران را متقاعد می کنم که به سراغ من و دوستانم بیایند، به استثنای بقیه)؟
- همچنین، آیا شباهتی از ملاحظات اخلاقی AI وجود دارد که اگر کسی در مورد نبرد با هوش مصنوعی دیگر از هوش مصنوعی مطلع باشد یا مسلح به آن باشد، آیا افراد باقی مانده که آن هوش مصنوعی متعادل کننده را ندارند باید به نحوی به هوش مصنوعی هشدار داده شوند و بتوانند خود را مسلح کنند. بر این اساس بیش از حد؟
در پایان، همه اینها ما را به آیندهای میبرد که وهمآور به نظر میرسد، متشکل از یک مسابقه تسلیحاتی هوش مصنوعی. چه کسی هوش مصنوعی لازم را برای دور زدن و زنده ماندن خواهد داشت و چه کسی نخواهد داشت؟ آیا همیشه یک هوش مصنوعی دیگر وجود خواهد داشت که از راه می رسد و نیاز به یک هوش مصنوعی متعادل کننده را ایجاد می کند؟
کارل سیگان، دانشمند ارجمند، این حکمت حکیمانه را در مورد مسابقات تسلیحاتی فاجعه بار ارائه کرد: "مسابقه تسلیحات هسته ای مانند دو دشمن قسم خورده است که کمرشان در بنزین ایستاده است، یکی با سه کبریت، دیگری با پنج کبریت."
ما باید قاطعانه هدفمان این باشد که وقتی نوبت به مسابقه تسلیحاتی هوش مصنوعی می رسد، پاهایمان را خشک نگه داریم و سرمان را روشن نگه داریم.
منبع: https://www.forbes.com/sites/lanceeliot/2022/08/19/ai-ethics-wary-about-worsening-of-ai-asymmetry-amid-humans-getting-the-short-end- از روی چوب/