اخلاق هوش مصنوعی و قانون هوش مصنوعی روشن می کند که در واقع هوش مصنوعی قابل اعتماد چیست

اعتماد همه چیز است، بنابراین آنها می گویند.

فیلسوف مشهور لائوتسه می گوید کسانی که به اندازه کافی اعتماد ندارند مورد اعتماد نخواهند بود. ارنست همینگوی، رمان نویس ارجمند، اظهار داشت که بهترین راه برای فهمیدن اینکه آیا می توان به کسی اعتماد کرد، اعتماد کردن به اوست.

در این میان، به نظر می رسد که اعتماد هم ارزشمند است و هم شکننده. اعتمادی که فرد دارد می تواند مانند خانه ای از کارت فرو بریزد یا ناگهان مانند یک بادکنک ترکیده بترکند.

سوفوکل، تراژدی‌دان یونانی باستان، اظهار داشت که اعتماد می‌میرد اما بی‌اعتمادی شکوفا می‌شود. دکارت، فیلسوف و ریاضیدان فرانسوی معتقد است که عاقلانه است که هرگز به طور کامل به کسانی که حتی یک بار ما را فریب داده اند اعتماد نکنیم. وارن بافت، سرمایه‌گذار تجاری بی‌نظیر، میلیاردر، توصیه می‌کند که بیست سال طول می‌کشد تا شهرت قابل اعتمادی ایجاد شود و پنج دقیقه طول می‌کشد تا آن را از بین ببریم.

ممکن است تعجب کنید اگر بدانید که همه این دیدگاه های متنوع و نظرات تحریک آمیز در مورد اعتماد برای ظهور هوش مصنوعی (AI) بسیار مهم هستند.

بله، چیزی وجود دارد که به شدت به آن اشاره می شود هوش مصنوعی قابل اعتماد که این روزها توجه زیادی را به خود جلب می کند، از جمله دست زدن به تماس های با دست از درون حوزه هوش مصنوعی و همچنین طغیان های شدید توسط افرادی که خارج از قلمرو هوش مصنوعی هستند. مفهوم کلی مستلزم این است که آیا جامعه مایل است به سیستم‌های هوش مصنوعی اعتماد کند یا خیر.

احتمالاً، اگر جامعه به هوش مصنوعی اعتماد نکند یا نتواند به آن اعتماد کند، احتمال اینکه سیستم‌های هوش مصنوعی نتوانند کشش پیدا کنند، وجود دارد. هوش مصنوعی همانطور که در حال حاضر می دانیم کنار زده می شود و صرفا گرد و غبار را جمع می کند. به‌طور تکان‌دهنده، هوش مصنوعی می‌تواند به انبوهی از آشغال‌ها ختم شود، که از نظر تاریخی به چیزی بیش از یک آزمایش ناامیدانه آزمایش شده، اما به طرز شگفت‌انگیزی شکست خورده در فن‌آوری بالا تنزل داده شده است. هر گونه تلاشی برای تقویت هوش مصنوعی به طور بالقوه با یک نبرد سخت عظیم روبرو خواهد شد و با هر گونه اعتراض و اعتراض آشکار متوقف خواهد شد. ظاهراً به دلیل عدم اعتماد به هوش مصنوعی.

کدام باید باشد، آیا به هوش مصنوعی اعتماد کنیم یا به هوش مصنوعی اعتماد نکنیم؟

در اصل، آیا ما واقعاً هوش مصنوعی قابل اعتمادی خواهیم داشت؟

اینها سوالاتی قدیمی و حل نشده هستند. بیایید آن را باز کنیم.

اخلاق هوش مصنوعی و مبارزه برای هوش مصنوعی قابل اعتماد

باور بسیاری از هوش مصنوعی این است که توسعه دهندگان سیستم های هوش مصنوعی می توانند با ابداع درست هوش مصنوعی قابل اعتماد، به هوش مصنوعی اعتماد کنند. ماهیت این است که اگر هوش مصنوعی در شروع کار به ظاهر قابل اعتماد نباشد، نمی توانید امیدوار باشید که به آن اعتماد کنید. با ساختن سیستم‌های هوش مصنوعی به گونه‌ای که قابل اعتماد تلقی می‌شود، این احتمال وجود دارد که مردم هوش مصنوعی را بپذیرند و از هوش مصنوعی استفاده کنند.

یکی از ابهاماتی که در حال حاضر در مورد این ملاحظات قابل اعتماد هوش مصنوعی آزاردهنده است این است که ما ممکن است در حال حاضر در یک وضعیت قرار داشته باشیم کسری اعتماد عمومی وقتی صحبت از هوش مصنوعی می شود. می‌توان گفت که هوش مصنوعی که قبلاً دیده‌ایم، حفره‌ای حفر کرده و در مقادیر بسیار زیاد اعتماد را از بین برده است. بنابراین، به‌جای اینکه هوش مصنوعی از پایه‌های کافی اعتماد شروع کند، باید به طرز شگفت‌آوری از کسری خارج شود، و برای هر اونس اعتماد اضافی که برای متقاعد کردن مردم به این که هوش مصنوعی در واقع قابل اعتماد است، پنجه بزند.

در این چالش، اخلاق هوش مصنوعی و قانون هوش مصنوعی مطرح می شود.

اخلاق هوش مصنوعی و قانون هوش مصنوعی به شدت در تلاش هستند تا بفهمند چه چیزی برای قابل اعتماد کردن هوش مصنوعی لازم است. برخی معتقدند که یک فرمول یا قوانین آهنین وجود دارد که هوش مصنوعی را به آسمان های قابل اعتماد خواهد برد. برخی دیگر نشان می‌دهند که برای جلب اعتماد جامعه به کار سخت و پایبندی مداوم و بی‌وقفه به اصول اخلاق هوش مصنوعی و قوانین هوش مصنوعی نیاز است.

معمای معاصر در مورد اعتماد به هوش مصنوعی فی نفسه جدید نیست.

شما به راحتی می توانید به اواخر دهه 1990 برگردید و ظهور یک میل به دنبال "محاسبات قابل اعتماد" را از آن روزها دنبال کنید. این یک تلاش صنعت فناوری در مقیاس بزرگ بود تا تشخیص دهد که آیا کامپیوترها می توانند به گونه ای ساخته شوند که توسط جامعه قابل اعتماد تلقی شود.

سوالات کلیدی عبارت بودند از:

  • آیا می توان سخت افزار کامپیوتر را به گونه ای ساخت که قابل اعتماد باشد؟
  • آیا می توان نرم افزار را طوری ساخت که قابل اعتماد باشد؟
  • آیا می‌توانیم رایانه‌های شبکه‌ای جهانی را راه‌اندازی کنیم که قابل اعتماد باشند؟
  • و به همین ترتیب.

احساس غالب در آن زمان و تا امروز ادامه دارد این است که محاسبات قابل اعتماد نوعی جام مقدس باقی می ماند که متأسفانه هنوز کاملاً در دسترس ما نیست (همانطور که در مقاله ای با عنوان "هوش مصنوعی قابل اعتماد" در ارتباطات ACM). شما می توانید به طور قانع کننده ای استدلال کنید که هوش مصنوعی یکی دیگر از اجزای پوشش قابل اعتماد محاسباتی است، با این حال هوش مصنوعی باعث می شود که پیگیری اعتماد چالش برانگیزتر و نامطمئن تر شود. هوش مصنوعی تبدیل به اسپویلر بالقوه در مبارزه برای دستیابی به محاسبات قابل اعتماد شده است. احتمالا ضعیف ترین حلقه در این زنجیره، همانطور که بود.

بیایید نگاهی اجمالی به این موضوع بیندازیم که چرا هوش مصنوعی باعث شده است که ما کمتر از آن قابل اعتماد باشیم. علاوه بر این، ما اصول اخلاق هوش مصنوعی را بررسی خواهیم کرد که امیدواریم به تقویت اعتماد (یا بی اعتمادی حباب‌کننده) هوش مصنوعی امروزی کمک کند. برای پوشش مداوم و گسترده من از اخلاق هوش مصنوعی، نگاه کنید پیوند اینجا و پیوند اینجا، فقط به نام چند.

یک بخش یا بخش خاصی از اخلاق هوش مصنوعی که توجه رسانه ها را به خود جلب کرده است شامل هوش مصنوعی است که سوگیری ها و نابرابری های نامناسبی را نشان می دهد. ممکن است بدانید که زمانی که آخرین دوره هوش مصنوعی آغاز شد، شور و شوق زیادی برای آنچه که اکنون برخی می‌گویند وجود داشت. هوش مصنوعی برای خوب. متأسفانه، در پاشنه آن هیجان فوران، ما شروع به مشاهده کردیم هوش مصنوعی برای بد. برای مثال، سیستم‌های مختلف تشخیص چهره مبتنی بر هوش مصنوعی حاوی سوگیری‌های نژادی و سوگیری‌های جنسیتی هستند که من در مورد آن بحث کرده‌ام. پیوند اینجا.

تلاش برای مبارزه با هوش مصنوعی برای بد به طور فعال در حال انجام هستند. علاوه بر پر سر و صدا حقوقی تلاش برای مهار تخلفات، همچنین فشار اساسی به سمت پذیرش اخلاق هوش مصنوعی برای اصلاح شرارت هوش مصنوعی وجود دارد. تصور این است که ما باید اصول کلیدی هوش مصنوعی اخلاقی را برای توسعه و توسعه هوش مصنوعی اتخاذ و تأیید کنیم تا این کار را کاهش دهیم. هوش مصنوعی برای بد و به طور همزمان منادی و ترویج مرجح هوش مصنوعی برای خوب.

در یک مفهوم مرتبط، من طرفدار تلاش برای استفاده از هوش مصنوعی به عنوان بخشی از راه حل مشکلات هوش مصنوعی هستم، و با این شیوه تفکر با آتش مبارزه می کنم. برای مثال، ممکن است اجزای هوش مصنوعی اخلاقی را در یک سیستم هوش مصنوعی تعبیه کنیم که بر نحوه انجام بقیه هوش مصنوعی نظارت می‌کند و بنابراین به طور بالقوه در زمان واقعی هرگونه تلاش تبعیض آمیز را جلب می‌کند. پیوند اینجا. ما همچنین می‌توانیم یک سیستم هوش مصنوعی جداگانه داشته باشیم که به عنوان نوعی مانیتور اخلاق هوش مصنوعی عمل می‌کند. سیستم هوش مصنوعی به عنوان یک ناظر برای ردیابی و تشخیص اینکه چه زمانی هوش مصنوعی دیگر به ورطه غیراخلاقی می رود عمل می کند (تحلیل من از چنین قابلیت هایی را در اینجا ببینید. پیوند اینجا).

در یک لحظه، من برخی از اصول کلی زیربنای اخلاق هوش مصنوعی را با شما به اشتراک خواهم گذاشت. تعداد زیادی از این نوع لیست ها اینجا و آنجا شناور هستند. می توان گفت که هنوز فهرست منحصر به فردی از جذابیت و توافق جهانی وجود ندارد. این خبر تاسف بار است. خبر خوب این است که حداقل لیست‌های اخلاقی هوش مصنوعی وجود دارد که کاملاً مشابه هستند. در مجموع، این نشان می‌دهد که با نوعی همگرایی مستدل، راه خود را به سوی یک اشتراک کلی از آنچه اخلاق هوش مصنوعی تشکیل می‌دهد، پیدا می‌کنیم.

ابتدا، اجازه دهید به طور مختصر برخی از قوانین کلی اخلاقی هوش مصنوعی را پوشش دهیم تا نشان دهیم چه چیزی باید برای هر کسی که در حال ساخت، ساخت و یا استفاده از هوش مصنوعی است، اهمیت حیاتی داشته باشد.

به عنوان مثال، همانطور که توسط واتیکان در فراخوان رم برای اخلاق هوش مصنوعی و همانطور که به طور عمیق به آن پرداخته ام پیوند اینجا، این شش اصل اصلی اخلاق هوش مصنوعی شناسایی شده آنها است:

  • شفافیت: در اصل، سیستم های هوش مصنوعی باید قابل توضیح باشند
  • نقص: نیازهای همه انسانها باید مورد توجه قرار گیرد تا همه بتوانند از آن بهره ببرند و بهترین شرایط ممکن برای ابراز وجود و پیشرفت به همه افراد ارائه شود.
  • مسئوليت: کسانی که استفاده از هوش مصنوعی را طراحی و اجرا می کنند باید با مسئولیت و شفافیت پیش بروند
  • بی طرفی: از ایجاد و یا عمل بر اساس تعصب، در نتیجه حفظ انصاف و کرامت انسانی
  • قابلیت اطمینان: سیستم های هوش مصنوعی باید بتوانند به طور قابل اعتماد کار کنند
  • امنیت و حریم خصوصی: سیستم های هوش مصنوعی باید ایمن کار کنند و به حریم خصوصی کاربران احترام بگذارند.

همانطور که توسط وزارت دفاع ایالات متحده (DoD) در آنها بیان شده است اصول اخلاقی برای استفاده از هوش مصنوعی و همانطور که به طور عمیق به آن پرداخته ام پیوند اینجا، این شش اصل اصلی اخلاق هوش مصنوعی آنهاست:

  • مسئول: پرسنل وزارت دفاع سطوح مناسبی از قضاوت و مراقبت را اعمال خواهند کرد و در عین حال مسئولیت توسعه، استقرار و استفاده از قابلیت‌های هوش مصنوعی را بر عهده خواهند داشت.
  • منصفانه: این وزارتخانه اقدامات عمدی را برای به حداقل رساندن سوگیری ناخواسته در قابلیت‌های هوش مصنوعی انجام خواهد داد.
  • قابل ردیابی: قابلیت‌های هوش مصنوعی این وزارتخانه به گونه‌ای توسعه و مستقر خواهد شد که پرسنل مربوطه درک مناسبی از فناوری، فرآیندهای توسعه، و روش‌های عملیاتی قابل اجرا برای قابلیت‌های هوش مصنوعی، از جمله روش‌شناسی شفاف و قابل ممیزی، منابع داده‌ها، روش‌ها و مستندات طراحی داشته باشند.
  • قابل اعتماد: قابلیت‌های هوش مصنوعی این وزارتخانه کاربردهای مشخص و مشخصی خواهند داشت، و ایمنی، امنیت و اثربخشی چنین قابلیت‌هایی مشمول آزمایش و اطمینان در آن کاربردهای تعریف‌شده در کل چرخه عمر آن‌ها خواهد بود.
  • قابل اداره: این وزارتخانه قابلیت‌های هوش مصنوعی را طراحی و مهندسی می‌کند تا عملکردهای مورد نظر خود را انجام دهد، در حالی که توانایی شناسایی و اجتناب از پیامدهای ناخواسته را دارد، و توانایی جدا کردن یا غیرفعال کردن سیستم‌های مستقری که رفتار ناخواسته را نشان می‌دهند.

من همچنین در مورد تجزیه و تحلیل‌های جمعی مختلف از اصول اخلاق هوش مصنوعی بحث کرده‌ام، از جمله پوشش مجموعه‌ای ابداع شده توسط محققان که ماهیت بسیاری از اصول اخلاقی هوش مصنوعی ملی و بین‌المللی را در مقاله‌ای تحت عنوان «چشم‌انداز جهانی دستورالعمل‌های اخلاق هوش مصنوعی» (منتشر شده) بررسی و فشرده کرده است. که در طبیعت) و پوشش من در آن بررسی می شود پیوند اینجا، که منجر به این لیست کلیدی شد:

  • شفافیت
  • عدالت و انصاف
  • عدم سوء استفاده
  • مسئوليت
  • حریم خصوصی
  • سود رسانی
  • آزادی و خودمختاری
  • اعتماد
  • پایداری
  • کرامت
  • اتحاد

همانطور که ممکن است مستقیماً حدس بزنید، تلاش برای مشخص کردن جزئیات زیربنای این اصول می تواند بسیار سخت باشد. حتی بیشتر از آن، تلاش برای تبدیل این اصول گسترده به چیزی کاملاً ملموس و با جزئیات کافی برای استفاده در هنگام ساخت سیستم‌های هوش مصنوعی نیز یک مهره سخت است. به طور کلی می توان در مورد اینکه اصول اخلاقی هوش مصنوعی چیست و چگونه باید به طور کلی آنها را رعایت کرد، دست تکان داد، در حالی که وضعیت بسیار پیچیده تر در کدنویسی هوش مصنوعی است که باید لاستیک واقعی باشد که با جاده مطابقت می کند.

اصول اخلاق هوش مصنوعی باید توسط توسعه دهندگان هوش مصنوعی، همراه با آنهایی که تلاش های توسعه هوش مصنوعی را مدیریت می کنند، و حتی آنهایی که در نهایت سیستم های هوش مصنوعی را انجام می دهند، مورد استفاده قرار گیرد. همه ذینفعان در طول چرخه عمر توسعه و استفاده هوش مصنوعی در محدوده رعایت هنجارهای تثبیت شده هوش مصنوعی اخلاقی در نظر گرفته می شوند. این نکته مهمی است زیرا فرض معمول این است که «فقط کدنویس‌ها» یا کسانی که هوش مصنوعی را برنامه‌ریزی می‌کنند، منوط به رعایت مفاهیم اخلاقی هوش مصنوعی هستند. همانطور که قبلاً گفته شد، برای ابداع و به کارگیری هوش مصنوعی به یک دهکده نیاز است، و برای آن کل دهکده باید به اصول اخلاقی هوش مصنوعی مسلط باشد و از آن پیروی کند.

بیایید همچنین مطمئن شویم که در مورد ماهیت هوش مصنوعی امروزی همسو هستیم.

امروزه هیچ هوش مصنوعی وجود ندارد که حساس باشد. ما این را نداریم ما نمی دانیم که آیا هوش مصنوعی ممکن خواهد بود یا خیر. هیچ کس نمی تواند به درستی پیش بینی کند که آیا ما به هوش مصنوعی خواهیم رسید یا خیر، یا اینکه آیا هوش مصنوعی به طور معجزه آسایی به شکلی از ابرنواختر شناختی محاسباتی پدید خواهد آمد (که معمولاً به عنوان تکینگی شناخته می شود، پوشش من را در اینجا ببینید. پیوند اینجا).

نوع هوش مصنوعی که من روی آن تمرکز می کنم شامل هوش مصنوعی غیر حساسی است که امروز داریم. اگر بخواهیم به شدت در مورد آن حدس بزنیم با احساس هوش مصنوعی، این بحث می تواند در جهتی کاملاً متفاوت پیش رود. ظاهراً یک هوش مصنوعی با کیفیت انسانی خواهد بود. شما باید در نظر داشته باشید که هوش مصنوعی حسی معادل شناختی یک انسان است. علاوه بر این، از آنجایی که برخی گمانه زنی می کنند که ممکن است هوش مصنوعی فوق هوشمند داشته باشیم، می توان تصور کرد که چنین هوش مصنوعی می تواند در نهایت از انسان ها باهوش تر باشد (برای کاوش من در مورد هوش مصنوعی فوق هوشمند به عنوان یک احتمال، نگاه کنید به پوشش در اینجا).

بیایید همه چیز را روی زمین نگه داریم و هوش مصنوعی محاسباتی غیر حساس امروزی را در نظر بگیریم.

درک کنید که هوش مصنوعی امروزی قادر به «فکر کردن» به هیچ شکلی با تفکر انسان نیست. وقتی با الکسا یا سیری تعامل می کنید، ظرفیت های مکالمه ممکن است شبیه ظرفیت های انسانی به نظر برسد، اما واقعیت این است که محاسباتی است و فاقد شناخت انسانی است. آخرین دوره هوش مصنوعی از یادگیری ماشینی (ML) و یادگیری عمیق (DL) استفاده گسترده ای کرده است که از تطابق الگوی محاسباتی استفاده می کند. این منجر به سیستم‌های هوش مصنوعی شده است که ظاهری شبیه به تمایلات انسان دارند. در همین حال، هیچ هوش مصنوعی امروزی وجود ندارد که شباهتی به عقل سلیم داشته باشد و هیچ یک از شگفتی‌های شناختی تفکر قوی انسانی را نداشته باشد.

ML/DL نوعی تطبیق الگوی محاسباتی است. روش معمول این است که شما داده ها را در مورد یک کار تصمیم گیری جمع آوری می کنید. داده ها را به مدل های کامپیوتری ML/DL وارد می کنید. آن مدل ها به دنبال یافتن الگوهای ریاضی هستند. پس از یافتن چنین الگوهایی، در صورت یافتن، سیستم هوش مصنوعی در هنگام مواجهه با داده های جدید از آن الگوها استفاده خواهد کرد. پس از ارائه داده های جدید، الگوهای مبتنی بر داده های "قدیمی" یا تاریخی برای ارائه یک تصمیم فعلی استفاده می شود.

من فکر می کنم می توانید حدس بزنید که این به کجا می رود. اگر انسان‌هایی که بر اساس تصمیم‌گیری‌های الگو گرفته شده‌اند، سوگیری‌های نامطلوب را در خود جای داده‌اند، احتمال این وجود دارد که داده‌ها این را به روش‌های ظریف اما قابل توجهی منعکس کنند. تطبیق الگوی محاسباتی یادگیری ماشینی یا یادگیری عمیق به سادگی سعی می‌کند تا داده‌ها را مطابق با ریاضی تقلید کند. هیچ شباهتی از عقل سلیم یا سایر جنبه های حساس مدل سازی ساخته شده با هوش مصنوعی به خودی خود وجود ندارد.

علاوه بر این، توسعه دهندگان هوش مصنوعی نیز ممکن است متوجه نباشند که چه اتفاقی در حال رخ دادن است. ریاضیات محرمانه در ML/DL ممکن است کشف سوگیری های پنهان در حال حاضر را دشوار کند. شما به حق امیدوارید و انتظار دارید که توسعه‌دهندگان هوش مصنوعی سوگیری‌های بالقوه مدفون را آزمایش کنند، اگرچه این دشوارتر از آن چیزی است که به نظر می‌رسد. این احتمال وجود دارد که حتی با آزمایش نسبتاً گسترده، سوگیری‌هایی همچنان در مدل‌های تطبیق الگوی ML/DL وجود داشته باشد.

می‌توانید تا حدودی از ضرب‌المثل معروف یا بدنام زباله‌های درون زباله‌ها استفاده کنید. مسئله این است که این بیشتر شبیه سوگیری‌هایی است که به‌طور موذیانه به‌عنوان سوگیری‌هایی که در هوش مصنوعی غوطه‌ور می‌شوند، القا می‌شوند. الگوریتم تصمیم‌گیری (ADM) هوش مصنوعی به طور اصولی مملو از نابرابری‌ها می‌شود.

خوب نیست.

بیایید این را به سوال در مورد هوش مصنوعی قابل اعتماد گره بزنیم

مطمئناً به نظر نمی رسد که مایل باشیم به هوش مصنوعی اعتماد کنیم که سوگیری های نامطلوب و اقدامات تبعیض آمیز را نشان می دهد. در این صورت، اعتقاد ما این است که چنین هوش مصنوعی مطمئناً قابل اعتماد نیست، بنابراین ما به سمت بی اعتمادی فعالانه به هوش مصنوعی متمایل می شویم. بدون افراط در مقایسه انسان‌سازی (من در یک لحظه بیشتر در مورد انسان‌سازی هوش مصنوعی خواهم گفت)، انسانی که سوگیری‌های نامطلوب از خود نشان می‌دهد نیز به عنوان غیرقابل اعتماد رتبه‌بندی می‌شود.

کاوش در اعتماد و قابل اعتماد بودن

شاید ما باید نگاهی به منظورمان بیندازیم وقتی ادعا می کنیم به کسی یا چیزی اعتماد داریم یا نداریم. ابتدا چندین تعریف فرهنگ لغت روزمره از اعتماد را در نظر بگیرید.

نمونه هایی از معنای تعریفی اعتماد عبارتند از:

  • اتکای مطمئن به شخصیت، توانایی، قدرت یا حقیقت کسی یا چیزی (فرهنگ لغت آنلاین Merriam-Webster).
  • تکیه بر تمامیت، قدرت، توانایی، تضمین و غیره یک شخص یا چیز (Dictionary.com)
  • اعتقاد راسخ به قابلیت اطمینان، حقیقت، توانایی یا قدرت کسی یا چیزی (فرهنگ لغت آنلاین زبان آکسفورد).

مایلم اشاره کنم که همه آن تعاریف به "کسی" اشاره دارد و به همین ترتیب به "چیزی" به عنوان قابل اعتماد بودن بالقوه اشاره دارد. این قابل توجه است زیرا ممکن است برخی اصرار داشته باشند که ما فقط به انسان ها اعتماد کنیم و عمل اعتماد منحصراً برای نوع بشر به عنوان هدف قابل اعتماد بودن محفوظ است. اینطور نیست. شما می توانید به توستر آشپزخانه خود اعتماد داشته باشید. اگر به نظر می رسد که نان تست شما را با اطمینان درست می کند و به طور معمول برای انجام آن کار می کند، مطمئناً می توانید در مورد اینکه آیا واقعاً توستر قابل اعتماد است یا خیر، اعتماد دارید.

در همان خط فکری، هوش مصنوعی نیز می تواند موضوع دیدگاه اعتماد ما باشد. این احتمال وجود دارد که اعتماد مرتبط با هوش مصنوعی بسیار پیچیده تر از یک توستر معمولی باشد. یک توستر معمولاً فقط می تواند چند کار انجام دهد. یک سیستم هوش مصنوعی احتمالاً بسیار پیچیده‌تر است و به نظر می‌رسد کمتر شفاف عمل می‌کند. توانایی ما برای ارزیابی و اطمینان از قابل اعتماد بودن هوش مصنوعی بسیار سخت تر است و چالش های متمایز را ارائه می دهد.

علاوه بر اینکه یک سیستم هوش مصنوعی معمولی پیچیده تر است، گفته می شود که غیر قطعی و بالقوه خود تنظیم یا خود تنظیم کننده است. ما می توانیم به طور خلاصه آن مفهوم را بررسی کنیم.

یک ماشین قطعی تمایل دارد کارهای مشابه را بارها و بارها انجام دهد، به طور قابل پیش بینی و با یک الگوی قابل تشخیص از نحوه عملکرد آن. ممکن است بگویید که یک توستر معمولی تقریباً به همان روش برشته می‌شود و دارای کنترل‌های برشته‌کاری است که برشته‌کاری را تعدیل می‌کند، که همه اینها عموماً توسط شخصی که از توستر استفاده می‌کند قابل پیش‌بینی است. در مقابل، سیستم‌های پیچیده هوش مصنوعی اغلب غیر قطعی طراحی می‌شوند، به این معنی که ممکن است کارهای کاملاً متفاوتی فراتر از آنچه شما انتظار داشتید انجام دهند. اگر هوش مصنوعی برای تنظیم خود نوشته شده باشد، این می تواند تا حدی بیشتر تقویت شود، جنبه ای که می تواند به طور سودمند به هوش مصنوعی اجازه دهد در مورد ML/DL بهبود یابد، هرچند همچنین می تواند به طور نگران کننده ای باعث تزلزل هوش مصنوعی یا وارد شدن به رتبه شود. بد بودن هوش مصنوعی ممکن است ندانید چه چیزی در صحبت کردن به شما ضربه زده است، زیرا کاملاً توسط اقدامات هوش مصنوعی گرفتار شده اید.

برای اینکه هوش مصنوعی را به قابلیت اعتماد نزدیک‌تر کنیم، چه کاری می‌توانیم انجام دهیم؟

یک رویکرد شامل تلاش برای اطمینان از این است که کسانی که هوش مصنوعی می‌سازند و به کار می‌گیرند، مجموعه‌ای از اصول اخلاقی هوش مصنوعی را رعایت می‌کنند. همانطور که توسط این محققان هوش مصنوعی ذکر شده است: "اعتماد نگرشی است که یک عامل همانطور که انتظار می رود رفتار می کند و می توان برای رسیدن به هدفش به آن اعتماد کرد. اعتماد پس از یک خطا یا سوء تفاهم بین عامل و فرد قابل اعتماد از بین می رود. وضعیت روانشناختی اعتماد به هوش مصنوعی ویژگی نوظهور یک سیستم پیچیده است که معمولاً شامل چرخه‌های بسیاری از طراحی، آموزش، استقرار، اندازه‌گیری عملکرد، تنظیم، طراحی مجدد، و بازآموزی است. ارتباطات ACM، "اعتماد، مقررات و هوش مصنوعی انسان در حلقه در منطقه اروپا" توسط استوارت میدلتون، امانوئل لتوز، علی حسینی و آدریان چاپمن، آوریل 2022).

اصل ماجرا این است که اگر بتوانیم توسعه دهندگان هوش مصنوعی را وادار کنیم که از هوش مصنوعی اخلاقی پیروی کنند، امیدواریم در نهایت آنها هوش مصنوعی قابل اعتمادی تولید کنند. این همه خوب و خوب است، اما در دنیای واقعی تا حدودی غیرعملی به نظر می رسد، اگرچه کاملاً راهی است که ارزش دنبال کردن را دارد.

در اینجا منظورم چیست؟

فرض کنید توسعه‌دهندگان هوش مصنوعی تلاش مجدانه‌ای انجام می‌دهند که یک سیستم هوش مصنوعی را برای اهدافی که ما عموماً آن را X می‌نامیم ایجاد می‌کنند. آنها به شدت اطمینان می دهند که حریم خصوصی به طور مناسب در هوش مصنوعی تعبیه شده است. برای تقریباً تمام اصول معمول اخلاق هوش مصنوعی، سازندگان هوش مصنوعی به طور کامل اطمینان حاصل می کنند که هوش مصنوعی با دستور داده شده مطابقت دارد.

آیا اکنون باید به آن هوش مصنوعی اعتماد کنید؟

اجازه دهید به من کمک کنم تا نظرات شما را در مورد آن سوال باز مطرح کنم.

معلوم شد که کلاهبرداران سایبری توانسته‌اند به هوش مصنوعی نفوذ کنند و یواشکی هوش مصنوعی را به انجام X وادار کنند و در عین حال تمام داده‌هایی را که هوش مصنوعی جمع‌آوری می‌کند، به هکرهای سایبری تغذیه کنند. با انجام این کار، این بدخواهان به طور موذیانه قوانین حریم خصوصی را زیر پا می گذارند. شما با سعادت غافل هستید که این اتفاق در زیر کلاه هوش مصنوعی رخ می دهد.

با این اطلاعات اضافه شده، دوباره همین سوال را از شما خواهم پرسید.

آیا به آن هوش مصنوعی اعتماد دارید؟

به جرات می توانم بگویم که اکثر مردم بلافاصله اعلام می کنند که مطمئناً این کار را می کنند نه به این هوش مصنوعی خاص اعتماد کنید. شاید زودتر به آن اعتماد می کردند. آنها اکنون ترجیح می دهند دیگر هوش مصنوعی را قابل اعتماد ندانند.

چند بینش کلیدی بر اساس این مثال ساده قابل تامل است:

  • دینامیک اعتماد حتی بهترین نیت برای پوشش دادن همه مبانی حصول اطمینان از اینکه اخلاق هوش مصنوعی در یک سیستم هوش مصنوعی تعبیه شده است، هیچ تضمینی برای آنچه که AI ممکن است تبدیل به یا تبدیل شود، نیست. هنگامی که هوش مصنوعی مورد استفاده قرار می گیرد، افراد خارجی به طور بالقوه می توانند انباشته های هوش مصنوعی اخلاقی را تضعیف کنند.
  • کاهش اعتماد از درون عمل تضعیف قابلیت اعتماد لزوماً نباید خارجی باشد. شخصی که به طور منظم از سیستم هوش مصنوعی نگهداری می کند، ممکن است هوش مصنوعی را اشتباه کند و آن را ضعیف کند تا کمتر قابل اعتماد باشد. این توسعه‌دهنده هوش مصنوعی ممکن است از آنچه که انجام داده‌اند بی‌اطلاع باشد.
  • مصالحه سهوی اعتماد یک هوش مصنوعی خود تنظیم یا خودتنظیمی ممکن است در مقطعی خودش را تنظیم کند و به قلمرو غیرقابل اعتماد منحرف شود. شاید هوش مصنوعی تلاش می کند شفافیت هوش مصنوعی را تقویت کند و در عین حال به طور همزمان و نامناسب جنبه های حریم خصوصی را به خطر می اندازد.
  • پراکندگی اعتماد. تلاش برای دستیابی به همه اصول اخلاقی هوش مصنوعی با حداکثر درجه قابل اعتماد بودن معمولاً به آسانی قابل دوام نیست، زیرا آنها اغلب در اهداف متقابل هستند یا تضادهای بالقوه ذاتی دیگری دارند. این یک دیدگاه نسبتاً ایده آل است که باور کنیم همه احکام اخلاقی هوش مصنوعی به صورت رویایی در یک راستا قرار دارند و همه آنها تا حدی حداکثر قابل دستیابی هستند.
  • اعتماد می تواند پرهزینه باشد. هزینه تلاش برای دستیابی به ظاهری عالی از هوش مصنوعی قابل اعتماد از طریق انجام مراحل مختلف گسترده و جامع و رعایت اصول اخلاقی هوش مصنوعی نسبتاً بالا خواهد بود. شما به راحتی می توانید استدلال کنید که هزینه از نظر استفاده از برخی از سیستم های هوش مصنوعی که در غیر این صورت دارای ارزش مهمی برای جامعه هستند، بسیار بالا خواهد بود، حتی اگر هوش مصنوعی بود، باید بگوییم کمتر از ایده آل بودن از روی میل قابل اعتماد بودن.
  • و به همین ترتیب.

اظهارات قبلی را اشتباه تفسیر نکنید تا پیشنهاد کنید که ما باید به نحوی از تلاش برای ساختن و ایجاد هوش مصنوعی قابل اعتماد کاملاً جلوگیری کنیم. به طور خلاصه، کودک را با آب حمام بیرون می اندازید. تفسیر مناسب این است که ما باید آن فعالیت‌های قابل اعتماد را انجام دهیم تا هوش مصنوعی را به یک مورد قابل اعتماد تبدیل کنیم، اما این به تنهایی یک درمان یا یک گلوله نقره‌ای نیست.

مسیرهای چندشاخه به هوش مصنوعی قابل اعتماد

راه‌های چند جانبه مهم دیگری برای تلاش برای دستیابی به هوش مصنوعی قابل اعتماد وجود دارد.

به عنوان مثال، همانطور که قبلاً در ستون های خود توضیح داده ام، تعداد بی شماری از قوانین و مقررات تازه در حال ظهور در مورد هوش مصنوعی با هدف سوق دادن سازندگان هوش مصنوعی به سمت ابداع هوش مصنوعی قابل اعتماد می باشد. پیوند اینجا و پیوند اینجا.

این حفاظ‌های قانونی به‌عنوان ابزاری فراگیر برای اطمینان از اینکه کسانی که هوش مصنوعی را طراحی می‌کنند، کاملاً در قبال هوش مصنوعی خود پاسخگو هستند، حیاتی هستند. بدون چنین راه‌حل‌های قانونی بالقوه و مجازات‌های قانونی، کسانی که هوش مصنوعی را به بازار می‌زنند، احتمالاً بدون توجه جدی به هوش مصنوعی قابل اعتماد به این کار ادامه می‌دهند. به طور قابل توجهی می‌توانم اضافه کنم که اگر آن قوانین و مقررات به خوبی تدوین نشده باشند یا به طور ناکافی اجرا شوند، متأسفانه می‌توانند تلاش برای هوش مصنوعی قابل اعتماد را تضعیف کنند، شاید به طرز طعنه‌ای و عجیبی هوش مصنوعی غیرقابل اعتماد را نسبت به هوش مصنوعی قابل اعتماد تقویت کنند (برای توضیح بیشتر به بحث‌های ستون من مراجعه کنید).

من همچنین مدافع سرسخت چیزی بوده ام که به شدت به آن اشاره کرده ام ربات های فرشته نگهبان هوش مصنوعی (پوشش من را در پیوند اینجا). این یک روش یا رویکرد آتی برای مبارزه با آتش با آتش است، یعنی استفاده از هوش مصنوعی برای کمک به ما در برخورد با هوش مصنوعی دیگری که ممکن است قابل اعتماد باشد یا نباشد.

اول، برخی زمینه های پس زمینه مفید خواهد بود.

فرض کنید تصمیم می‌گیرید به یک سیستم هوش مصنوعی اعتماد کنید که از قابل اعتماد بودن آن مطمئن نیستید. یک نگرانی اصلی می تواند این باشد که شما در تلاش خود برای تشخیص اینکه آیا هوش مصنوعی قابل اعتماد است یا خیر تنها هستید. هوش مصنوعی به طور بالقوه از نظر محاسباتی سریعتر از شماست و می تواند از مزایای شما استفاده کند. شما به کسی یا چیزی در کنارتان نیاز دارید که کمک کند.

یک دیدگاه این است که همیشه باید یک انسان در حلقه وجود داشته باشد که در استفاده از یک سیستم هوش مصنوعی به شما کمک کند. اگرچه این یک راه حل مشکل ساز است. اگر هوش مصنوعی در زمان واقعی کار می کند، در مورد ظهور خودروهای خودران مبتنی بر هوش مصنوعی به طور لحظه ای در مورد آن صحبت خواهیم کرد، وجود انسان در حلقه ممکن است کافی نباشد. هوش مصنوعی می تواند در زمان واقعی عمل کند و زمانی که یک انسان در حلقه مشخص شده وارد تصویر شود تا بفهمد آیا هوش مصنوعی به درستی کار می کند یا خیر، ممکن است یک نتیجه فاجعه بار رخ داده باشد.

به عنوان گذشته، این عامل دیگری را در مورد اعتماد به ارمغان می آورد. ما معمولاً یک سطح اعتماد را بر اساس زمینه یا شرایطی که با آن روبرو هستیم تعیین می کنیم. ممکن است کاملاً به پسر یا دختر نوپای خود اعتماد داشته باشید که به شما وفادار باشد، اما اگر در پیاده‌روی هستید و تصمیم می‌گیرید به کودک نوپا تکیه کنید تا به شما بگوید قدم گذاشتن روی لبه صخره ایمن است یا خیر، فکر می‌کنم عاقل باشید. در نظر گرفتن اینکه آیا کودک نوپا می تواند چنین توصیه هایی برای زندگی یا مرگ ارائه دهد یا خیر. ممکن است کودک این کار را با جدیت و صمیمانه انجام دهد، و با این وجود، نتواند به اندازه کافی چنین توصیه ای را ارائه دهد.

وقتی صحبت از هوش مصنوعی به میان می آید، همین مفهوم با اعتماد مرتبط است. یک سیستم هوش مصنوعی که برای بازی چکرز یا شطرنج استفاده می کنید احتمالاً در هیچ بحث مرگ یا زندگی دخالت ندارد. شما می توانید با تکلیف اعتماد خود راحت تر باشید. یک خودروی خودران مبتنی بر هوش مصنوعی که در یک بزرگراه با سرعت بالا در حال حرکت است به سطح بسیار شدیدتری از اعتماد نیاز دارد. کوچکترین ضربه ای توسط سیستم رانندگی هوش مصنوعی می تواند مستقیما به مرگ شما و دیگران منجر شود.

در مصاحبه منتشر شده با Beena Ammanath، مدیر اجرایی موسسه جهانی دیلویت هوش مصنوعی و نویسنده کتاب هوش مصنوعی قابل اعتماد، تاکید مشابهی بر در نظر گرفتن جنبه‌های زمینه‌ای که در آن قابل اعتماد بودن هوش مصنوعی است: «اگر در حال ساخت یک راه‌حل هوش مصنوعی هستید که تشخیص بیمار را انجام می‌دهد، انصاف و سوگیری بسیار مهم است. اما اگر در حال ساخت الگوریتمی هستید که خرابی موتور جت را پیش‌بینی می‌کند، انصاف و تعصب چندان مهم نیست. هوش مصنوعی قابل اعتماد واقعاً ساختاری است که شما را به فکر کردن درباره ابعاد اعتماد در سازمانتان می‌اندازد.VentureBeat، 22 مارس 2022).

هنگام بحث در مورد هوش مصنوعی قابل اعتماد، می توانید این موضوع را به طرق مختلف تفسیر کنید.

به عنوان مثال، هوش مصنوعی قابل اعتماد چیزی است که همه ما آن را به عنوان یک هدف مطلوب و آرزومند می دانیم، یعنی اینکه ما باید مشتاق ابداع و ترویج هوش مصنوعی قابل اعتماد باشیم. استفاده دیگری از این عبارت وجود دارد. یک کاربرد تا حدودی جایگزین این است هوش مصنوعی قابل اعتماد حالتی از شرایط یا اندازه گیری است، به طوری که کسی ممکن است ادعا کند که یک سیستم هوش مصنوعی ساخته است که نمونه ای از هوش مصنوعی قابل اعتماد است. شما همچنین می توانید از عبارت استفاده کنید هوش مصنوعی قابل اعتماد برای پیشنهاد روش یا رویکردی که می تواند برای دستیابی به قابلیت اطمینان هوش مصنوعی مورد استفاده قرار گیرد. و غیره.

در یک یادداشت مرتبط، من مطمئن هستم که شما متوجه شده اید که همه هوش مصنوعی یکسان نیستند و ما باید مراقب باشیم که در مورد همه هوش مصنوعی اظهارنظرهای کلی نکنیم. یک سیستم هوش مصنوعی خاص احتمالاً تفاوت قابل توجهی با سیستم هوش مصنوعی دیگر دارد. یکی از آن سیستم های هوش مصنوعی ممکن است بسیار قابل اعتماد باشد، در حالی که دیگری ممکن است تا حدی قابل اعتماد باشد. در این فرض که هوش مصنوعی یکپارچه است که یا کاملاً قابل اعتماد است یا کاملاً قابل اعتماد نیست، محتاط باشید.

این است که به سادگی این مورد نیست.

من می خواهم در ادامه به طور خلاصه برخی از تحقیقات در حال انجام خود را در مورد هوش مصنوعی قابل اعتماد که ممکن است برای شما جالب باشد، پوشش دهم و نقش ناشی از آن را پوشش دهم. ربات های فرشته نگهبان هوش مصنوعی.

در اینجا این است که چگونه می گذرد.

شما با یک سیستم هوش مصنوعی (یک ربات فرشته نگهبان هوش مصنوعی) مسلح خواهید شد که برای سنجش قابلیت اعتماد برخی از سیستم های هوش مصنوعی دیگر طراحی شده است. ربات فرشته نگهبان هوش مصنوعی به عنوان محور اصلی ایمنی شما را بر عهده دارد. به این فکر کنید که گویی می توانید با داشتن یک سیستم هوش مصنوعی متفاوت در جیب واقعی خود، احتمالاً روی تلفن هوشمند یا دستگاه های دیگر از این قبیل، بر هوش مصنوعی نظارت کنید. نگهبان ضرب المثل هوش مصنوعی شما می تواند بر اساس آن محاسبه کند که هوش مصنوعی که به آن تکیه می کنید نیز انجام می دهد، با سرعت بالا کار می کند و وضعیت موجود را در زمان واقعی محاسبه می کند، بسیار سریعتر از یک انسان در حلقه می تواند این کار را انجام دهد.

ممکن است در یک نگاه اولیه به این فکر کنید که هوش مصنوعی که قبلاً به آن متکی هستید باید مقداری داشته باشد. داخلی نرده‌های محافظ هوش مصنوعی که همان ربات فرشته نگهبان هوش مصنوعی را انجام می‌دهند. بله، مطمئناً مطلوب خواهد بود. یک ایراد این است که نرده‌های محافظ هوش مصنوعی تعبیه‌شده در یک سیستم هوش مصنوعی ممکن است به طور یکپارچه و به‌طور غیرقانونی با هوش مصنوعی همراستا باشند، بنابراین نرده‌های محافظ هوش مصنوعی دیگر نمی‌توانند به‌طور مستقل هوش مصنوعی را تأیید یا تأیید کنند.

ایده متضاد این است که ربات فرشته نگهبان هوش مصنوعی شما یک مکانیسم هوش مصنوعی مستقل یا شخص ثالث است که از هوش مصنوعی متمایز است. خارج از هوش مصنوعی دیگر قرار می گیرد و به شما اختصاص داده می شود و به هوش مصنوعی در حال نظارت یا ارزیابی اختصاص ندارد.

یک ابزار ساده برای تفکر در مورد این را می توان از طریق عبارت های معادله مانند ساده زیر بیان کرد. ممکن است بگوییم که "P" مایل است به طور بالقوه به "R" برای انجام یک کار خاص "X" اعتماد کند:

هنگامی که فقط افراد درگیر هستند، این موارد زیر خواهد بود:

  • شخص P به شخص R برای انجام وظیفه X اعتماد می کند.

وقتی تصمیم می‌گیریم به هوش مصنوعی تکیه کنیم، بیانیه به این شکل تغییر می‌کند:

  • شخص P برای انجام وظیفه X به AI instance-R اعتماد می کند.

با گفتن این جمله می‌توانیم ربات فرشته نگهبان هوش مصنوعی را اضافه کنیم:

  • شخص P به AI instance-R اعتماد می کند تا وظیفه X را به عنوان نمونه ربات فرشته نگهبان هوش مصنوعی انجام دهد.

ربات فرشته نگهبان هوش مصنوعی به طور خستگی ناپذیر و بی وقفه هوش مصنوعی را ارزیابی می کند که شما به آن تکیه می کنید. به این ترتیب، نگهبان دستی هوش مصنوعی شما ممکن است به شما هشدار دهد که اعتماد این هوش مصنوعی دیگر بی دلیل است. یا، نگهبان هوش مصنوعی ممکن است به صورت الکترونیکی با هوش مصنوعی دیگر تعامل داشته باشد تا اطمینان حاصل کند که هر گونه تفاوتی که از قابل اعتماد بودن نیست، به سرعت اصلاح می‌شود و غیره (به پوشش من در مورد این جزئیات مراجعه کنید. پیوند اینجا).

استعاره مخزن اعتماد معتمد

از آنجایی که ما در حال بحث در مورد سطوح مختلف اعتماد هستیم، ممکن است با در نظر گرفتن اعتماد به عنوان یک نوع مخزن، از استعاره مفیدی در مورد قابل اعتماد بودن استفاده کنید.

شما در یک شرایط خاص در یک مقطع زمانی خاص، مقدار معینی به یک شخص یا چیز خاص اعتماد دارید. سطح اعتماد بسته به اتفاق دیگری که در رابطه با آن شخص یا چیز خاص رخ می دهد افزایش یا کاهش خواهد یافت. هنگامی که شما هیچ اعتمادی به شخص یا چیزی ندارید، اعتماد می تواند در سطح صفر باشد. هنگامی که شما جرأت می کنید نسبت به آن شخص یا چیز بی اعتماد شوید، اعتماد می تواند منفی باشد.

در مورد سیستم‌های هوش مصنوعی، مخزن اعتماد شما برای هوش مصنوعی خاصی که در شرایط خاص به آن تکیه می‌کنید افزایش یا کاهش می‌یابد که بستگی به سنجش قابلیت اعتماد هوش مصنوعی شما دارد. گاهی اوقات، ممکن است به خوبی از این سطح متفاوت اعتماد در مورد هوش مصنوعی آگاه باشید، در حالی که در موارد دیگر ممکن است کمتر آگاه باشید و بیشتر با قاطعیت قضاوت در مورد قابل اعتماد بودن، آگاه باشید.

راه هایی که ما در اینجا در مورد ابزارهای افزایش سطح اعتماد برای هوش مصنوعی بحث کرده ایم عبارتند از:

  • پایبندی به اخلاق هوش مصنوعی اگر هوش مصنوعی که به آن تکیه می کنید با تلاش برای رعایت اصول اخلاقی هوش مصنوعی ابداع شده باشد، احتمالاً از این درک برای تقویت سطح مخزن اعتماد خود برای آن سیستم هوش مصنوعی خاص استفاده خواهید کرد. به عنوان یک یادداشت جانبی، همچنین ممکن است که شما ممکن است سیستم های هوش مصنوعی دیگر را در مورد قابل اعتماد بودن آنها تعمیم دهید، اگرچه این ممکن است گاهی اوقات یک شکل گمراه کننده از آنچه من می نامم باشد. هاله اعتماد هوش مصنوعی در حال گسترش است (در انجام این کار محتاط باشید!).
  • از Human-In-The-Loop استفاده کنید. اگر هوش مصنوعی دارای یک انسان در حلقه باشد، ممکن است به طور مثبت به اعتماد درک شده خود به هوش مصنوعی بیفزایید.
  • وضع قوانین و مقررات. اگر قوانین و مقررات مرتبط با این نوع خاص از هوش مصنوعی وجود دارد، ممکن است سطح اعتماد خود را نیز افزایش دهید.
  • از یک ربات فرشته نگهبان هوش مصنوعی استفاده کنید. اگر یک ربات فرشته نگهبان هوش مصنوعی آماده دارید، این نیز سطح اعتماد شما را بیشتر می‌کند.

همانطور که قبلا ذکر شد، اعتماد می تواند کاملا شکننده باشد و در یک لحظه از بین برود (به عنوان مثال، مخزن اعتماد به سرعت و به طور ناگهانی تمام اعتماد ایجاد شده را از بین می برد).

تصور کنید که در داخل یک ماشین خودران مبتنی بر هوش مصنوعی هستید و هوش مصنوعی در حال رانندگی ناگهان یک چرخش رادیکال به راست انجام می‌دهد، که باعث می‌شود چرخ‌ها جیغ بزنند و خودروی خودران تقریباً مجبور به واژگونی خطرناکی شود. چه اتفاقی برای سطح اعتماد شما خواهد افتاد؟ به نظر می رسد که حتی اگر قبلاً هوش مصنوعی را در سطح بالایی از اعتماد نگه می داشتید، به طور چشمگیری و ناگهانی سطح اعتماد خود را کاهش می دادید.

در این مقطع از این بحث سنگین، شرط می بندم که شما خواهان نمونه های گویا دیگری هستید که ممکن است ماهیت و دامنه هوش مصنوعی قابل اعتماد را به نمایش بگذارد. مجموعه‌ای از نمونه‌های خاص و مطمئناً محبوب وجود دارد که به دلم نشسته است. ببینید، به عنوان یک متخصص در زمینه هوش مصنوعی از جمله پیامدهای اخلاقی و قانونی، اغلب از من خواسته می‌شود که نمونه‌های واقع بینانه‌ای را که معضلات اخلاقی هوش مصنوعی را نشان می‌دهند شناسایی کنم تا بتوان ماهیت تا حدودی نظری موضوع را راحت‌تر درک کرد. یکی از جذاب‌ترین زمینه‌هایی که این معضل اخلاقی هوش مصنوعی را به وضوح نشان می‌دهد، ظهور خودروهای خودران واقعی مبتنی بر هوش مصنوعی است. این به عنوان یک مورد کاربردی مفید یا نمونه ای برای بحث و گفتگو در مورد موضوع مفید خواهد بود.

پس در اینجا یک سوال قابل توجه وجود دارد که قابل تامل است: آیا ظهور خودروهای خودران واقعی مبتنی بر هوش مصنوعی چیزی را در مورد پیگیری هوش مصنوعی قابل اعتماد روشن می کند، و اگر چنین است، این چه چیزی را به نمایش می گذارد؟

یک لحظه به من اجازه دهید تا پرسش را باز کنم.

اول، توجه داشته باشید که هیچ راننده انسانی در یک ماشین خودران واقعی دخیل نیست. به خاطر داشته باشید که خودروهای خودران واقعی از طریق سیستم رانندگی هوش مصنوعی هدایت می شوند. نه نیازی به راننده انسان پشت فرمان وجود دارد و نه پیش بینی ای برای رانندگی وسیله نقلیه توسط انسان وجود دارد. برای پوشش گسترده و مداوم من در مورد وسایل نقلیه خودران (AVs) و به خصوص خودروهای خودران، نگاه کنید به پیوند اینجا.

مایلم بیشتر توضیح دهم که منظور از خودروهای خودران واقعی چیست.

درک سطح اتومبیل های خودران

به عنوان یک توضیح، خودروهای خودران واقعی، خودروهایی هستند که هوش مصنوعی خودرو را کاملاً به تنهایی رانندگی می کند و هیچ کمک انسانی در طول کار رانندگی وجود ندارد.

این وسایل نقلیه بدون راننده سطح 4 و سطح 5 در نظر گرفته می شوند (توضیحات من را در اینجا ببینید این لینک در اینجا) ، در حالی که خودرویی که نیاز به یک راننده انسانی برای مشارکت در رانندگی دارد معمولاً در سطح 2 یا سطح 3 در نظر گرفته می شود. افزودنی های خودکار که به عنوان ADAS (سیستم های کمک راننده پیشرفته) شناخته می شوند.

هنوز یک خودروی خودران واقعی در سطح 5 وجود ندارد، و ما هنوز حتی نمی دانیم که آیا امکان دستیابی به آن وجود دارد یا خیر، و نه اینکه چقدر طول می کشد تا به آنجا برسیم.

در همین حال ، تلاش های سطح 4 به تدریج در تلاشند تا با انجام آزمایشات عمومی بسیار باریک و انتخابی در جاده ها ، کمی به سمت خود جلب کنند ، هرچند در مورد اینکه آیا این آزمایش به خودی خود مجاز است یا خیر ، اختلاف نظر وجود دارد (همه ما در یک آزمایش خوکچه هندی زنده یا مرگ هستیم) برخی از آنها ادعا می كنند كه در بزرگراهها و گذرگاههای ما در حال انجام است این لینک در اینجا).

از آنجا که اتومبیل های نیمه خودمختار به یک راننده انسانی احتیاج دارند ، تصویب آن دسته از اتومبیل ها تفاوت چندانی با رانندگی وسایل نقلیه معمولی نخواهد داشت ، بنابراین به تنهایی چیز جدیدی برای پوشش آنها در این موضوع وجود ندارد (هر چند ، همانطور که خواهید دید در یک لحظه ، نکات بعدی که بطور کلی اعمال می شود).

در مورد اتومبیل های نیمه خودمختار ، مهم است که در مورد جنبه نگران کننده ای که اخیراً بوجود آمده است ، هشدار داده شود ، یعنی این که با وجود آن رانندگان انسانی که با ارسال فیلم هایی از خودشان ، در حال خوابیدن در چرخ یک اتومبیل سطح 2 یا سطح 3 هستند. ، همه ما باید از اینكه گمان نرود راننده بتواند هنگام رانندگی یك اتومبیل نیمه خودمختار ، توجه خود را از وظیفه رانندگی دور كند ، خودداری كنیم.

شما مسئولیت اقدامات رانندگی وسیله نقلیه ، صرفنظر از میزان اتوماسیون در سطح 2 یا سطح 3 ، مسئولیت مسئولیت مسئولیت شما می باشد.

خودروهای خودران و هوش مصنوعی قابل اعتماد

برای وسایل نقلیه خود رانندگی واقعی سطح 4 و سطح 5 ، یک راننده انسانی درگیر در وظیفه رانندگی نخواهد بود.

همه سرنشینان مسافر خواهند بود.

هوش مصنوعی رانندگی را انجام می دهد.

یک جنبه برای بحث فوری این واقعیت را در بر دارد که هوش مصنوعی در سیستم های رانندگی هوش مصنوعی امروزی حساس نیست. به عبارت دیگر ، هوش مصنوعی در مجموع مجموعه ای از برنامه نویسی و الگوریتم های مبتنی بر رایانه است و مطمئناً قادر به استدلال به همان روشی نیست که انسان می تواند.

چرا این تاکید اضافی در مورد هوش مصنوعی نیست؟

از آنجا که می خواهم تأکید کنم هنگام بحث در مورد نقش سیستم رانندگی AI ، من خصوصیات انسانی را به AI نسبت نمی دهم. لطفاً توجه داشته باشید که این روزها تمایل مستمر و خطرناکی برای انسان سازی AI وجود دارد. در حقیقت ، افراد حساسیتی شبیه انسان به هوش مصنوعی امروزی دارند ، علی رغم این واقعیت انکارناپذیر و غیرقابل انکار که هنوز چنین هوش مصنوعی وجود ندارد.

با این توضیحات ، می توانید تصور کنید که سیستم رانندگی هوش مصنوعی بطور طبیعی از جنبه های رانندگی "آگاهی" نداشته باشد. رانندگی و همه آنچه که شامل می شود باید به عنوان بخشی از سخت افزار و نرم افزار اتومبیل خودران برنامه ریزی شوند.

بیایید به جنبه های بی شماری بپردازیم که در این موضوع بازی می شوند.

اول، مهم است که بدانیم همه خودروهای خودران با هوش مصنوعی یکسان نیستند. هر خودروساز و شرکت فناوری خودران رویکرد خود را برای ابداع خودروهای خودران در پیش گرفته است. به این ترتیب، اظهار نظر گسترده در مورد اینکه سیستم های رانندگی هوش مصنوعی چه کاری انجام خواهند داد یا انجام نمی دهند، دشوار است.

علاوه بر این ، هرگاه بیان شود که سیستم رانندگی هوش مصنوعی کار خاصی انجام نمی دهد ، بعداً توسعه دهندگانی که در واقع کامپیوتر را برای انجام این کار برنامه ریزی می کنند ، می توانند از این امر پیشی بگیرند. گام به گام ، سیستم های رانندگی هوش مصنوعی به تدریج در حال بهبود و گسترش هستند. امروزه محدودیت موجود ممکن است دیگر در نسخه یا نسخه بعدی سیستم وجود نداشته باشد.

من معتقدم که هشدارهای کافی برای تأکید بر آنچه که من در مورد آن صحبت می کنم فراهم می کند.

ما اکنون آماده ایم که به بررسی خودروهای خودران و هوش مصنوعی قابل اعتماد بپردازیم.

اعتماد همه چیز است، به خصوص در مورد خودروهای خودران مبتنی بر هوش مصنوعی.

به نظر می رسد جامعه با احتیاط به ظهور خودروهای خودران چشم دوخته است. از یک طرف، این امید بزرگ وجود دارد که ظهور خودروهای خودران واقعی به طور قابل توجهی تعداد تلفات سالانه مربوط به خودرو را کاهش دهد. تنها در ایالات متحده سالانه حدود 40,000 مرگ و میر و حدود 2.5 میلیون جراحت بر اثر تصادفات اتومبیل رخ می دهد. پیوند اینجا. انسان ها می نوشند و رانندگی می کنند. انسان ها در حالی که حواسشان پرت است رانندگی می کنند. به نظر می رسد وظیفه رانندگی ماشین شامل تمرکز مکرر و بدون خطا روی رانندگی و جلوگیری از تصادفات اتومبیل است. به این ترتیب، ممکن است رویایی امیدوار باشیم که سیستم‌های رانندگی هوش مصنوعی ماشین‌های خودران را به طور مکرر و بدون خطا راهنمایی کنند. می‌توانید اتومبیل‌های خودران را به‌عنوان یک حالت دوگانه در نظر بگیرید، که شامل کاهش میزان مرگ و میر و جراحات تصادفات رانندگی می‌شود و به‌طور بالقوه امکان تحرک را به صورت گسترده‌تر و در دسترس‌تر در دسترس قرار می‌دهد.

اما این نگرانی در عین حال بر ادراکات جامعه مبنی بر اینکه آیا خودروهای خودران به اندازه کافی ایمن هستند تا در جاده های عمومی ما به طور کلی وجود داشته باشند، وجود دارد.

اگر حتی یک خودروی خودران دچار تصادف یا برخورد شود که منجر به یک مرگ یا جراحت شدید شود، احتمالاً می‌توانید پیش‌بینی کنید که اعتماد امروزی نسبت به آن خودروهای بدون راننده مبتنی بر هوش مصنوعی به سرعت کاهش می‌یابد. ما شاهد این بودیم که این اتفاق زمانی رخ داد که این حادثه بدنام در آریزونا رخ داد که شامل یک خودروی خودران بود که تا حدودی (نه واقعاً) با یک عابر پیاده برخورد کرد و آن را کشت (به پوشش من در این لینک در اینجا).

برخی از کارشناسان خاطرنشان می‌کنند که این غیرمنصفانه و نامناسب است که اعتماد خودروهای خودران با هوش مصنوعی را بر این جنبه قرار دهیم که تنها یک تصادف یا برخورد مرگ‌آور بعدی می‌تواند آزمایش‌های جاده‌ای عمومی نسبتاً بدون تصادف را تضعیف کند. علاوه بر این، بر اساس ناعادلانه‌تر، شانس این است که مهم نیست که کدام برند یا مدل خودروی خودران با هوش مصنوعی درگیر یک حادثه غم انگیز شود، جامعه بدون شک همه برندهای خودروهای خودران را مقصر می‌داند.

کل خودروهای خودران به طور خلاصه می توانند لکه دار شوند و صنعت به عنوان یک کل ممکن است با واکنش شدیدی مواجه شود که منجر به تعطیلی احتمالی تمام آزمایشات جاده های عمومی شود.

در اعلامیه‌های مزخرف طرفداران خودروهای خودران که می‌گویند همه خودروهای بدون راننده غیرقابل تصادف خواهند بود، یکی از عوامل ایجاد چنین ضربه‌ای است. این ایده غیرقابل خراب شدن نه تنها کاملاً اشتباه است (نگاه کنید به پیوند اینجا)، به صورت موذیانه ای در حال راه اندازی صنعت خودروهای خودران برای مجموعه ای از انتظارات کاملاً نامتعارف است. این اظهارات عجیب و غریب و دست نیافتنی مبنی بر اینکه مرگ و میر ناشی از خودروهای خودران صفر خواهد بود، به این باور غلط دامن می زند که هر گونه تصادف خودروی بدون راننده نشانه مطمئنی است که کل کیت و کابودل بیهوده است.

درک این موضوع که پیشرفت به سمت خودروهای خودران و انباشت اینچ از اعتماد اجتماعی می تواند در یک لحظه از بین برود، غم و اندوه مشخصی وجود دارد. این یک ویترین در مورد شکنندگی اعتماد خواهد بود.

نتیجه

بسیاری از خودروسازان و شرکت‌های فناوری خودران عموماً از اصول اخلاق هوش مصنوعی پیروی می‌کنند و این کار را انجام می‌دهند تا هوش مصنوعی قابل اعتمادی را از نظر خودروهای خودران ایمن و قابل اعتماد مبتنی بر هوش مصنوعی بسازند و به کار ببرند. لطفاً توجه داشته باشید که برخی از این شرکت‌ها نسبت به سایرین قوی‌تر هستند و بیشتر به قوانین هوش مصنوعی اخلاقی پایبند هستند. همچنین گاه به گاه استارت‌آپ‌های حاشیه‌ای یا تازه‌کار مرتبط با خودروی خودران وجود دارند که به نظر می‌رسد بسیاری از اصول اخلاق هوش مصنوعی را کنار می‌گذارند (به بررسی من در پیوند اینجا).

از طرف دیگر، قوانین و مقررات جدیدی که خودروهای خودران را پوشش می دهد، به تدریج در کتاب های قانونی قرار گرفته است. اینکه آیا آن‌ها دندان‌های مورد نیاز برای پشتیبان‌گیری از آن‌ها را دارند یا نه، موضوع متفاوتی است، به‌علاوه اینکه آیا اجرای آن قوانین جدی گرفته می‌شود یا نادیده گرفته می‌شود (برای تجزیه و تحلیل در این مورد به ستون‌های من مراجعه کنید).

همچنین زاویه فناوری بالا نیز در این مورد وجود دارد. من پیش‌بینی کرده‌ام که به تدریج شاهد انواع ربات‌های فرشته نگهبان هوش مصنوعی خواهیم بود که در عرصه خودروهای خودران و خودروهای خودران به میدان می‌آیند. ما هنوز آنجا نیستیم زمانی که محبوبیت خودروهای خودران گسترده تر شود، این امر رایج تر خواهد شد.

این نکته آخر خط معروفی را در مورد اعتماد مطرح می‌کند که بدون شک از قبل آن را از صمیم قلب می‌دانید.

اعتماد کنید، اما تأیید کنید.

می‌توانیم به خودمان اجازه دهیم که اعتمادمان را افزایش دهیم، شاید سخاوتمندانه. در همین حال، ما نیز باید مانند شاهین نظاره گر باشیم تا اطمینان حاصل کنیم که اعتمادی که ایجاد می کنیم با گفتار و کردار تأیید می شود. بیایید کمی به هوش مصنوعی اعتماد کنیم، اما بی‌پایان تأیید کنیم که به درستی و با چشمان باز به اعتماد خود می‌پردازیم.

در این مورد می توانید به من اعتماد کنید.

منبع: https://www.forbes.com/sites/lanceeliot/2022/10/16/ai-ethics-and-ai-law-clarifying-what-in-fact-is-trustworthy-ai/