اخلاق هوش مصنوعی و قانون هوش مصنوعی روش‌های کلیدی برای اجرای آن منشور حقوق هوش مصنوعی که اخیراً منتشر شده است، از جمله و به طرز شگفت‌آوری با استفاده از هوش مصنوعی کاملاً مشخص می‌کند.

تردیدی وجود ندارد که ما در زندگی روزمره خود به طرح های اولیه نیاز داریم.

اگر قصد دارید آن خانه رویایی خود را بسازید، عاقلانه است که ابتدا یک نقشه قابل استفاده تهیه کنید.

یک طرح به شیوه‌ای ملموس و مستند، هر چشم‌انداز بینایی را که ممکن است در نوگی شما قفل شده باشد، به نمایش می‌گذارد. کسانی که قرار است از آنها خواسته شود تا خانه‌ای عزیز شما را بسازند، می‌توانند به طرح اولیه مراجعه کنند و جزئیات نحوه انجام کار را مشخص کنند. نقشه ها مفید هستند. فقدان طرح اولیه برای مقابله با هر نوع کار یا پروژه پیچیده مشکل ساز خواهد بود.

بیایید این ادای احترام تا حدودی احساساتی اما واقعی را به طرح‌های اولیه به حوزه هوش مصنوعی (AI) تغییر دهیم.

کسانی از شما که اساساً به هوش مصنوعی علاقه دارند ممکن است به طور مبهم از سیاست محوری مهم آگاه باشند طرح اخیراً در ایالات متحده منتشر شد که به وضوح به آینده هوش مصنوعی مربوط می شود. به طور غیر رسمی به عنوان منشور حقوق هوش مصنوعیعنوان رسمی وایت پیپر اعلام شده «طرح‌نامه منشور حقوق هوش مصنوعی: ساختن سیستم‌های خودکار برای مردم آمریکا» است و به‌راحتی به‌صورت آنلاین در دسترس است.

این سند نتیجه تلاش یک ساله و مطالعه آگاهانه دفتر سیاست علم و فناوری (OSTP) است. OSTP یک نهاد فدرال است که در اواسط دهه 1970 تأسیس شد و برای مشاوره به رئیس جمهور آمریکا و دفتر اجرایی ایالات متحده در مورد جنبه های مختلف فنی، علمی و مهندسی با اهمیت ملی خدمت می کند. از این نظر، می توان گفت که این منشور حقوق هوش مصنوعی، سندی است که توسط کاخ سفید موجود ایالات متحده تایید شده است.

منشور حقوق هوش مصنوعی به تصویر می کشد حقوق بشر که نوع بشر باید با توجه به ظهور هوش مصنوعی در زندگی روزمره ما داشته باشد. من بر این نکته مهم تأکید می‌کنم زیرا برخی افراد در ابتدا متحیر بودند که شاید این نوعی تصدیق داشتن شخصیت حقوقی هوش مصنوعی است و این یک سری حقوق برای هوش مصنوعی هوشیار و روبات‌های انسان‌نما است. نه، ما هنوز آنجا نیستیم. همانطور که در یک لحظه خواهید دید، علی رغم سرفصل های بنرهایی که به نظر می رسد چیز دیگری به ما می گویند، ما به هوش مصنوعی حساس نزدیک نیستیم.

خوب، پس آیا ما به طرحی نیاز داریم که حقوق بشر را در عصر هوش مصنوعی بیان کند؟

بله، ما مطمئناً انجام می دهیم.

تقریباً باید در یک غار محبوس شوید و به اینترنت دسترسی نداشته باشید تا ندانید که هوش مصنوعی در حال حاضر و به طور فزاینده ای حقوق ما را زیر پا گذاشته است. دوره اخیر هوش مصنوعی در ابتدا به عنوان یک موجود تلقی می شد هوش مصنوعی برای خوب، به این معنی که ما می توانیم از هوش مصنوعی برای بهبود بشریت استفاده کنیم. روی پاشنه های هوش مصنوعی برای خوب متوجه شدیم که ما نیز در آن غوطه ور هستیم هوش مصنوعی برای بد. این شامل هوش مصنوعی می‌شود که ابداع شده یا خود تغییر داده و تبعیض‌آمیز است و انتخاب‌های محاسباتی را با تعصبات ناروا آغشته می‌کند. گاهی اوقات هوش مصنوعی به این شکل ساخته می شود، در حالی که در موارد دیگر به آن قلمرو نامطلوب منحرف می شود.

برای پوشش و تحلیل مداوم و گسترده من در مورد قانون هوش مصنوعی، اخلاق هوش مصنوعی، و دیگر روندهای کلیدی فناوری و اجتماعی هوش مصنوعی، رجوع کنید به پیوند اینجا و پیوند اینجا، فقط به نام چند.

باز کردن منشور حقوق هوش مصنوعی

من قبلاً در مورد منشور حقوق هوش مصنوعی صحبت کرده ام و در اینجا خلاصه ای سریع انجام خواهم داد.

علاوه بر این، اگر مایلید از مزایا و معایب من در مورد منشور حقوق هوش مصنوعی که اخیراً منتشر شده است بدانید، من تجزیه و تحلیل خود را در یک پست در سایت حقوقدان، نگاه کنید به پیوند اینجا. حقوقدان یک سایت خبری حقوقی و تفسیری آنلاین قابل توجه است که به طور گسترده به عنوان یک سرویس خبری حقوقی برنده جوایز شناخته می شود که توسط یک تیم جهانی از خبرنگاران، سردبیران، مفسران، خبرنگاران و توسعه دهندگان محتوا طراحی شده است و دفتر مرکزی آن در دانشکده دانشگاه پیتسبورگ است. قانون در پیتسبورگ، جایی که بیش از 25 سال پیش آغاز شد. فریاد زدن به تیم برجسته و سخت کوش در حقوقدان.

در منشور حقوق هوش مصنوعی، پنج دسته اصلی وجود دارد:

  • سیستم های ایمن و موثر
  • حفاظت از تبعیض الگوریتمی
  • حریم خصوصی داده ها
  • تذکر و توضیح
  • جایگزین های انسانی، توجه، و بازگشت

توجه داشته باشید که من آنها را از یک تا پنج شماره نکردم زیرا انجام این کار ممکن است به این معنی باشد که آنها در یک دنباله خاص هستند یا اینکه یکی از حقوق به ظاهر مهمتر از دیگری است. ما فرض خواهیم کرد که آنها هر کدام از شایستگی های خود هستند. همه آنها به یک معنا به یک اندازه شایسته هستند.

به عنوان یک نشانه کوتاه از آنچه که هر کدام از آنها تشکیل شده است، در اینجا گزیده ای از کاغذ سفید رسمی آمده است:

  • سیستم های ایمن و موثر: "شما باید از سیستم های ناامن یا ناکارآمد محافظت کنید. سیستم‌های خودکار باید با مشورت جوامع مختلف، ذینفعان و کارشناسان حوزه توسعه داده شوند تا نگرانی‌ها، خطرات و اثرات بالقوه سیستم شناسایی شوند.»
  • حفاظت از تبعیض الگوریتمی: «نباید با تبعیض الگوریتم‌ها مواجه شوید و سیستم‌ها باید به صورت عادلانه استفاده و طراحی شوند. تبعیض الگوریتمی زمانی اتفاق می‌افتد که سیستم‌های خودکار بر اساس نژاد، رنگ، قومیت، جنسیت (از جمله بارداری، زایمان، و شرایط پزشکی مرتبط، هویت جنسی، وضعیت بین‌جنسیتی، و گرایش جنسی)، مذهب، سن، به رفتارهای متفاوت غیرقابل توجیه یا تأثیرات ناخوشایند بر افراد کمک کنند. منشاء ملی، معلولیت، وضعیت جانبازی، اطلاعات ژنتیکی یا هر طبقه بندی دیگری که توسط قانون محافظت می شود.
  • حریم خصوصی داده ها: «شما باید از طریق حفاظت‌های داخلی در برابر شیوه‌های داده‌های سوءاستفاده‌کننده محافظت شوید و باید در مورد نحوه استفاده از داده‌های مربوط به خود نمایندگی داشته باشید. شما باید از طریق انتخاب‌های طراحی که تضمین می‌کند چنین حفاظت‌هایی به‌طور پیش‌فرض گنجانده شده‌اند، از نقض حریم خصوصی محافظت شوید، از جمله اطمینان از اینکه جمع‌آوری داده‌ها با انتظارات معقول مطابقت دارد و فقط داده‌هایی که به شدت برای یک زمینه خاص ضروری هستند، جمع‌آوری می‌شوند.»
  • اطلاعیه و توضیح: شما باید بدانید که یک سیستم خودکار در حال استفاده است و بدانید که چگونه و چرا به نتایجی که بر شما تأثیر می گذارد کمک می کند. طراحان، توسعه‌دهندگان و توسعه‌دهندگان سیستم‌های خودکار باید اسنادی به زبان ساده و در دسترس عموما ارائه دهند، شامل توضیحات واضحی از عملکرد کلی سیستم و نقشی که اتوماسیون بازی می‌کند، توجه داشته باشید که چنین سیستم‌هایی در حال استفاده هستند، فرد یا سازمان مسئول سیستم، و توضیحاتی درباره نتایجی که واضح، به موقع و در دسترس باشند.»
  • جایگزین های انسانی، توجه، و بازگشت: «شما باید بتوانید، در صورت لزوم، انصراف دهید و به فردی دسترسی داشته باشید که بتواند به سرعت مشکلاتی را که با آن مواجه می‌شوید بررسی و برطرف کند. در صورت لزوم باید بتوانید از سیستم های خودکار به نفع جایگزینی انسانی انصراف دهید.

به طور کلی، اینها جنبه هایی از حقوق بشر هستند که برای مدتی طولانی در زمینه اخلاق هوش مصنوعی و قانون هوش مصنوعی محاصره شده اند، پوشش من را ببینید. پیوند اینجا. به نظر می رسد که کاغذ سفید به طور جادویی خرگوش را از کلاه بیرون نمی کشد تا حقایقی که به تازگی کشف شده یا کشف شده است که تاکنون در زمینه عصر هوش مصنوعی توضیح داده نشده است.

اشکالی نداره

می توانید ادعا کنید که گردآوری آنها در یک مجموعه منظم و بسته بندی شده و رسمی، خدمات حیاتی را ارائه می دهد. به علاوه، با مسح شدن به عنوان یک فرد تحسین شده منشور حقوق هوش مصنوعی، این بیشتر کل موضوع را آشکارا و توانا در آگاهی حوزه عمومی قرار می دهد. این مجموعه انبوهی از بحث‌های نامتجانس را در مجموعه‌ای منفرد ترکیب می‌کند که اکنون می‌توان آن را در بوق و کرنا کرد و به همه انواع ذینفعان منتقل کرد.

به من اجازه دهید این لیست از واکنش های مطلوب را به منشور حقوق هوش مصنوعی ارائه کنم:

  • مجموعه ای ضروری از اصول کیستون را ارائه می دهد
  • به عنوان یک طرح یا پایه برای ساختن بر روی آن عمل می کند
  • به عنوان یک فراخوان صدادار عمل می کند
  • علاقه را تحریک می کند و نشان می دهد که اینها ملاحظات جدی هستند
  • بسیاری از بحث های متفاوت را گرد هم می آورد
  • جرقه می زند و به تلاش های پذیرش هوش مصنوعی اخلاقی کمک می کند
  • بدون شک به ایجاد قوانین هوش مصنوعی کمک خواهد کرد
  • دیگر

ما همچنین باید واکنش‌های نه چندان مطلوب را نیز در نظر بگیریم، با در نظر گرفتن این که کارهای بسیار بیشتری باید انجام شود و این تازه شروع یک سفر طولانی در جاده دشوار مدیریت هوش مصنوعی است.

به این ترتیب، انتقادات تا حدی تند یا باید بگوییم سازنده درباره منشور حقوق هوش مصنوعی عبارتند از:

  • از نظر قانونی قابل اجرا و کاملا غیر الزام آور نیست
  • فقط مشاوره ای است و سیاست دولتی در نظر گرفته نمی شود
  • در مقایسه با سایر آثار منتشر شده، جامعیت کمتری دارد
  • اصولاً شامل مفاهیم گسترده و فاقد جزئیات اجرایی است
  • تبدیل شدن به قوانین عملی واقعی و قابل اجرا چالش برانگیز خواهد بود
  • ظاهراً در مورد موضوع احتمالی ممنوعیت احتمالی هوش مصنوعی در برخی زمینه ها سکوت کرده است
  • به طور جزئی مزایای استفاده از هوش مصنوعی که به خوبی طراحی شده است را تصدیق می کند
  • دیگر

شاید برجسته‌ترین تفسیر تند روی این واقعیت متمرکز شده باشد که این منشور حقوق هوش مصنوعی از نظر قانونی قابل اجرا نیست و بنابراین وقتی صحبت از ایجاد پست‌های هدف مشخص می‌شود، هیچ تاثیری ندارد. برخی گفته اند که اگرچه کاغذ سفید مفید و دلگرم کننده است، اما قطعاً فاقد دندان است. آنها می‌پرسند که چه چیزی می‌تواند از یک مجموعه دستورات ظریف دندان‌های توخالی حاصل شود.

من در یک لحظه به آن سخنان گزنده خواهم پرداخت.

در همین حال، کاغذ سفید به وفور محدودیت های این منشور حقوق هوش مصنوعی را بیان می کند:

  • طرح اولیه منشور حقوق هوش مصنوعی غیرالزام آور است و سیاست دولت ایالات متحده را تشکیل نمی دهد. این قانون جایگزین، اصلاح یا هدایت تفسیری از هیچ قانون اساسی، مقررات، خط مشی، یا سند بین المللی موجود نیست. این دستورالعمل الزام آور برای سازمان های عمومی یا فدرال نیست و بنابراین نیازی به رعایت اصول توضیح داده شده در اینجا ندارد. همچنین تعیین کننده نیست که موضع دولت ایالات متحده در هیچ مذاکره بین المللی چگونه خواهد بود. پذیرش این اصول ممکن است الزامات قوانین، مقررات، سیاست‌ها، یا اسناد بین‌المللی موجود یا الزامات سازمان‌های فدرال را که آنها را اجرا می‌کنند، برآورده نکند. هدف از این اصول، ممنوعیت یا محدود کردن فعالیت قانونی یک سازمان دولتی، از جمله اجرای قانون، امنیت ملی، یا فعالیت های اطلاعاتی نیست.

برای کسانی که سریعاً منشور حقوق هوش مصنوعی را به‌عنوان غیرالزام‌آور بودن تضعیف کرده‌اند، اجازه دهید کمی آزمایش فکری در مورد این ادعای گزنده انجام دهیم. فرض کنید کاغذ سفید منتشر شد و تمام قوت قانون را داشت. به جرات می توانم بگویم که نتیجه تا حدودی فاجعه آمیز خواهد بود، حداقل به میزان پاسخ های حقوقی و اجتماعی به این اعلامیه.

قانونگذاران از این که تلاش‌ها فرآیندهای هنجاری و رویه‌های قانونی را در کنار هم قرار دادن چنین قوانینی انجام نداده بودند، دست به کار خواهند شد. به حق، کسب‌وکارها خشمگین می‌شوند، زیرا قوانین جدیدی بدون اطلاع‌رسانی و آگاهی کافی از چیستی آن قوانین پدید می‌آیند. هر نوع حیرت و خشم به وجود می آمد.

راه خوبی برای جذب به سمت استحکام حقوق بشر در عصر هوش مصنوعی نیست.

به یاد بیاورید که من قبلاً این بحث را با بیان ارزش و حیاتی طرح ها آغاز کرده بودم.

تصور کنید که شخصی از مرحله ساختن نقشه ها عبور کرده و بلافاصله وارد ساخت خانه رویایی شما شده است. به نظر شما خانه چه شکلی خواهد بود؟ به نظر می رسد شرط منصفانه ای باشد که خانه به خصوص با آنچه در ذهن شما بود مطابقت نداشته باشد. خانه در نتیجه ممکن است یک آشفتگی کامل باشد.

اصل ماجرا این است که ما به طرح‌هایی نیاز داریم و اکنون به منظور پیشبرد قوانین هوش مصنوعی و توانمندسازی قوانین هوش مصنوعی اخلاقی، طرحی داریم.

بنابراین، می‌خواهم به راه‌هایی بپردازم که از طریق آن می‌توان طرح منشور حقوق هوش مصنوعی را به یک خانه تبدیل کرد. چگونه می خواهیم از طرح اولیه استفاده کنیم؟ مراحل بعدی مناسب کدامند؟ آیا این طرح اولیه می تواند کافی باشد یا نیاز به گوشت بیشتری روی استخوان دارد؟

قبل از اینکه به این موضوعات سنگین بپردازیم، ابتدا می‌خواهم مطمئن شوم که همه ما در مورد ماهیت هوش مصنوعی و وضعیت امروزی در یک صفحه هستیم.

تنظیم مستقیم رکورد در مورد هوش مصنوعی امروزی

من می خواهم یک بیانیه بسیار تاکیدی داشته باشم.

آیا شما آماده هستید؟

امروزه هیچ هوش مصنوعی وجود ندارد که حساس باشد.

ما این را نداریم ما نمی دانیم که آیا هوش مصنوعی ممکن خواهد بود یا خیر. هیچ کس نمی تواند به درستی پیش بینی کند که آیا ما به هوش مصنوعی دست خواهیم یافت یا خیر، یا اینکه آیا هوش مصنوعی به نحوی معجزه آسا خود به خود در شکلی از ابرنواخترهای شناختی محاسباتی پدید می آید (که معمولاً به عنوان تکینگی شناخته می شود، پوشش من را در اینجا ببینید. پیوند اینجا).

نوع هوش مصنوعی که من روی آن تمرکز می کنم شامل هوش مصنوعی غیر حساسی است که امروز داریم. اگر بخواهیم در مورد هوش مصنوعی حساس حدس و گمان بزنیم، این بحث می تواند در جهتی کاملاً متفاوت پیش رود. ظاهراً یک هوش مصنوعی با کیفیت انسانی خواهد بود. شما باید در نظر داشته باشید که هوش مصنوعی حسی معادل شناختی یک انسان است. علاوه بر این، از آنجایی که برخی حدس می زنند که ممکن است هوش مصنوعی فوق هوشمند داشته باشیم، می توان تصور کرد که چنین هوش مصنوعی می تواند در نهایت از انسان ها باهوش تر باشد (برای کاوش من در مورد هوش مصنوعی فوق هوشمند به عنوان یک امکان، نگاه کنید به پوشش در اینجا).

من قویاً پیشنهاد می‌کنم که همه چیز را ثابت نگه داریم و هوش مصنوعی محاسباتی غیر حساس امروزی را در نظر بگیریم.

درک کنید که هوش مصنوعی امروزی قادر به «فکر کردن» به هیچ شکلی با تفکر انسان نیست. وقتی با الکسا یا سیری تعامل می کنید، ظرفیت های مکالمه ممکن است شبیه ظرفیت های انسانی به نظر برسد، اما واقعیت این است که محاسباتی است و فاقد شناخت انسانی است. آخرین دوره هوش مصنوعی از یادگیری ماشینی (ML) و یادگیری عمیق (DL) استفاده گسترده ای کرده است که از تطابق الگوی محاسباتی استفاده می کند. این منجر به سیستم‌های هوش مصنوعی شده است که ظاهری شبیه به تمایلات انسان دارند. در همین حال، هیچ هوش مصنوعی امروزی وجود ندارد که شباهتی به عقل سلیم داشته باشد و هیچ یک از شگفتی‌های شناختی تفکر قوی انسانی را نداشته باشد.

بسیار مراقب انسان سازی هوش مصنوعی امروزی باشید.

ML/DL نوعی تطبیق الگوی محاسباتی است. روش معمول این است که شما داده ها را در مورد یک کار تصمیم گیری جمع آوری می کنید. داده ها را به مدل های کامپیوتری ML/DL وارد می کنید. آن مدل ها به دنبال یافتن الگوهای ریاضی هستند. پس از یافتن چنین الگوهایی، در صورت یافتن، سیستم هوش مصنوعی در هنگام مواجهه با داده های جدید از آن الگوها استفاده خواهد کرد. پس از ارائه داده های جدید، الگوهای مبتنی بر داده های "قدیمی" یا تاریخی برای ارائه یک تصمیم فعلی استفاده می شود.

من فکر می کنم می توانید حدس بزنید که این به کجا می رود. اگر انسان‌هایی که بر اساس تصمیم‌گیری‌های الگو گرفته شده‌اند، سوگیری‌های نامطلوب را در خود جای داده‌اند، احتمال این وجود دارد که داده‌ها این را به روش‌های ظریف اما قابل توجهی منعکس کنند. تطبیق الگوی محاسباتی یادگیری ماشینی یا یادگیری عمیق به سادگی سعی می‌کند تا داده‌ها را مطابق با ریاضی تقلید کند. هیچ شباهتی از عقل سلیم یا سایر جنبه های حساس مدل سازی ساخته شده با هوش مصنوعی به خودی خود وجود ندارد.

علاوه بر این، توسعه دهندگان هوش مصنوعی نیز ممکن است متوجه نباشند که چه اتفاقی در حال رخ دادن است. ریاضیات محرمانه در ML/DL ممکن است کشف سوگیری های پنهان در حال حاضر را دشوار کند. شما به حق امیدوارید و انتظار دارید که توسعه دهندگان هوش مصنوعی سوگیری های بالقوه مدفون را آزمایش کنند، اگرچه این مشکل تر از آن چیزی است که به نظر می رسد. یک شانس قوی وجود دارد که حتی با آزمایش نسبتاً گسترده، سوگیری‌هایی همچنان در مدل‌های تطبیق الگوی ML/DL وجود داشته باشد.

می‌توانید تا حدودی از ضرب‌المثل معروف یا بدنام زباله‌های درون زباله‌ها استفاده کنید. مسئله این است که این بیشتر شبیه سوگیری‌هایی است که به‌طور موذیانه به‌عنوان سوگیری‌هایی که در هوش مصنوعی غوطه‌ور می‌شوند، القا می‌شوند. الگوریتم تصمیم‌گیری (ADM) هوش مصنوعی به طور اصولی مملو از نابرابری‌ها می‌شود.

خوب نیست.

همه اینها پیامدهای قابل توجهی از اخلاق هوش مصنوعی دارند و دریچه ای مفید به درس های آموخته شده (حتی قبل از اینکه همه درس ها اتفاق بیفتند) هنگام تلاش برای قانون گذاری هوش مصنوعی ارائه می دهد.

علاوه بر به کارگیری اصول اخلاقی هوش مصنوعی به طور کلی، یک سوال مربوط به این موضوع وجود دارد که آیا ما باید قوانینی برای کنترل کاربردهای مختلف هوش مصنوعی داشته باشیم. قوانین جدیدی در سطوح فدرال، ایالتی و محلی وضع می شود که به محدوده و ماهیت چگونگی ابداع هوش مصنوعی مربوط می شود. تلاش برای تدوین و تصویب چنین قوانینی تدریجی است. اخلاق هوش مصنوعی حداقل به عنوان یک توقف در نظر گرفته شده عمل می کند و تقریباً مطمئناً تا حدی مستقیماً در آن قوانین جدید گنجانده می شود.

توجه داشته باشید که برخی قاطعانه استدلال می کنند که ما به قوانین جدیدی که هوش مصنوعی را پوشش می دهد نیازی نداریم و قوانین موجود ما کافی است. آنها پیش‌بینی می‌کنند که اگر برخی از این قوانین هوش مصنوعی را به اجرا بگذاریم، با مهار پیشرفت‌های هوش مصنوعی که مزایای اجتماعی عظیمی را ارائه می‌دهد، غاز طلایی را خواهیم کشت.

در ستون‌های قبلی، من تلاش‌های ملی و بین‌المللی مختلف برای ایجاد و وضع قوانین مربوط به هوش مصنوعی را پوشش داده‌ام. پیوند اینجا، مثلا. من همچنین اصول و رهنمودهای مختلف اخلاق هوش مصنوعی را که کشورهای مختلف شناسایی و پذیرفته اند پوشش داده ام، از جمله تلاش سازمان ملل متحد مانند مجموعه اخلاق هوش مصنوعی یونسکو که نزدیک به 200 کشور آن را پذیرفته اند. پیوند اینجا.

در اینجا یک لیست کلیدی مفید از معیارها یا ویژگی های هوش مصنوعی اخلاقی در رابطه با سیستم های هوش مصنوعی است که قبلاً از نزدیک بررسی کرده ام:

  • شفافیت
  • عدالت و انصاف
  • عدم سوء استفاده
  • مسئوليت
  • حریم خصوصی
  • سود رسانی
  • آزادی و خودمختاری
  • اعتماد
  • پایداری
  • کرامت
  • اتحاد

این اصول اخلاقی هوش مصنوعی قرار است با جدیت توسط توسعه دهندگان هوش مصنوعی، همراه با آنهایی که تلاش های توسعه هوش مصنوعی را مدیریت می کنند، و حتی آنهایی که در نهایت سیستم های هوش مصنوعی را انجام می دهند، مورد استفاده قرار گیرد.

همه ذینفعان در طول چرخه عمر توسعه و استفاده هوش مصنوعی در محدوده رعایت هنجارهای تثبیت شده هوش مصنوعی اخلاقی در نظر گرفته می شوند. این نکته مهمی است زیرا فرض معمول این است که «فقط کدنویس‌ها» یا کسانی که هوش مصنوعی را برنامه‌ریزی می‌کنند، مشمول رعایت مفاهیم اخلاق هوش مصنوعی هستند. همانطور که قبلاً در اینجا تأکید شد، برای ابداع و بکارگیری هوش مصنوعی به یک روستا نیاز است، و برای آن کل دهکده باید به اصول اخلاقی هوش مصنوعی آشنا باشد و از آن پیروی کند.

اکنون که پایه‌های مفیدی گذاشته‌ام، آماده هستیم تا بیشتر در منشور حقوق هوش مصنوعی غوطه‌ور شویم.

چهار راه اساسی برای اجرای منشور حقوق هوش مصنوعی

یک نفر نقشه ای به شما می دهد و می گوید که دست به کار شوید.

چه کار می کنی؟

در مورد منشور حقوق هوش مصنوعی به عنوان یک طرح، این چهار گام اساسی را برای حرکت رو به جلو در نظر بگیرید:

  • به عنوان ورودی برای تدوین قوانین هوش مصنوعی عمل کنید: از این طرح برای کمک به تدوین قوانین هوش مصنوعی استفاده کنید، امیدواریم این کار را به صورت همسو در سطوح فدرال، ایالتی و محلی انجام دهید (شاید به تلاش های حقوقی بین المللی هوش مصنوعی نیز کمک کنید).
  • کمک به پذیرش گسترده‌تر اخلاق هوش مصنوعی: از این طرح برای تقویت فرمول‌های اخلاق هوش مصنوعی (که گاهی به عنوان «قوانین نرم» در مقایسه با «قوانین سخت» الزام آور قانونی نامیده می‌شود) استفاده کنید، این کار را برای الهام بخشیدن و هدایت کسب‌وکارها، افراد، نهادهای دولتی و سایر حوزه‌ها به سمت اخلاقیات بهتر و سازگارتر انجام دهید. نتایج هوش مصنوعی
  • شکل دادن به فعالیت های توسعه هوش مصنوعی: از این طرح برای ایجاد روش‌های توسعه هوش مصنوعی و جنبه‌های آموزشی استفاده کنید، این کار را انجام دهید تا توسعه‌دهندگان هوش مصنوعی و آنهایی که هوش مصنوعی را به کار می‌گیرند یا به کار می‌گیرند، بیشتر بدانند که چگونه می‌توانند هوش مصنوعی را در راستای اصول اخلاقی هوش مصنوعی و در پیش‌بینی ابداع کنند. قوانین هوش مصنوعی در حال تصویب
  • انگیزه ظهور هوش مصنوعی برای کمک به کنترل هوش مصنوعی: از این طرح برای ابداع هوش مصنوعی استفاده کنید که به عنوان یک کنترل و تعادل در برابر هوش مصنوعی دیگری که ممکن است به قلمرو نامطلوب منحرف شود، استفاده شود. این یکی از آن دیدگاه‌های کلان‌بینی است که به موجب آن می‌توانیم از همان چیزی که ظاهراً نگران‌کننده می‌دانیم برای محافظت از خود نیز (به طنز، ممکن است بگوییم) استفاده کنیم.

من در طول پست های ستون خود در مورد هر یک از چهار مرحله فوق صحبت کرده ام.

برای این بحث در اینجا، می‌خواهم روی چهارمین مرحله فهرست‌شده تمرکز کنم، یعنی منشور حقوق هوش مصنوعی می‌تواند به عنوان انگیزه‌ای برای ظهور هوش مصنوعی برای کمک به کنترل هوش مصنوعی باشد. این یک قدم تا حدودی تکان دهنده یا غافلگیرکننده برای بسیاری است که هنوز به طور کامل وارد این قلمرو پیشرفت هوش مصنوعی نشده اند.

اجازه بدهید توضیح بیشتری بدهم.

یک قیاس ساده باید کار را انجام دهد. همه ما این روزها به نقض امنیت سایبری و نفوذ هکرها عادت کرده ایم. تقریباً هر روز در مورد آخرین حفره رایانه‌هایمان می‌شنویم یا تحت تأثیر آن قرار می‌گیریم که به شروران شرور اجازه می‌دهد داده‌های ما را ربوده یا یک باج‌افزار وحشتناک را روی لپ‌تاپ‌های ما قرار دهند.

یکی از راه‌های مبارزه با این تلاش‌های نفرت‌انگیز، استفاده از نرم‌افزار تخصصی است که تلاش می‌کند از این نفوذها جلوگیری کند. تقریباً مطمئناً یک بسته نرم افزاری ضد ویروس بر روی رایانه خود در خانه یا محل کار دارید. احتمالاً چیزی مشابه در تلفن هوشمند شما وجود دارد، خواه متوجه شوید که در آنجا وجود دارد یا نه.

حرف من این است که گاهی لازم است با آتش با آتش مبارزه کنید (به پوشش من در این مورد نگاه کنید، مانند در پیوند اینجا و پیوند اینجا).

در مورد هوش مصنوعی که وارد قلمروی پرمخاطب می شود هوش مصنوعی برای بد، می توانیم به دنبال استفاده باشیم هوش مصنوعی برای خوب که با آن مخرب مبارزه می کند هوش مصنوعی برای بد. البته این یک درمان معجزه آسا نیست. همانطور که می‌دانید، یک بازی موش و گربه مستمر بین بدکارانی که به دنبال نفوذ به رایانه‌های ما هستند و پیشرفت‌هایی که در زمینه حفاظت از امنیت سایبری انجام می‌شود، در جریان است. این یک بازی تقریباً بی پایان است.

ما می توانیم از هوش مصنوعی برای مقابله با هوش مصنوعی استفاده کنیم که مسیر ممنوعه ای را طی کرده است. انجام این کار کمک خواهد کرد. این به ویژه یک گلوله نقره ای نخواهد بود زیرا هوش مصنوعی نامطلوب مورد هدف تقریباً مطمئناً برای جلوگیری از چنین محافظت هایی ابداع خواهد شد. این یک موش و گربه AI در مقابل هوش مصنوعی خواهد بود.

در هر صورت، هوش مصنوعی که برای محافظت از خود استفاده می کنیم، مقداری محافظت در برابر هوش مصنوعی بد ارائه می دهد. بنابراین، ما بدون شک نیاز به ابداع هوش مصنوعی داریم که بتواند از ما محافظت یا محافظت کند. و همچنین باید به دنبال ایجاد هوش مصنوعی محافظ باشیم تا با تنظیم هوش مصنوعی بد، آن را تنظیم کنیم. شباهت شدیدی از گربه و موش با سرعت رعد و برق وجود خواهد داشت.

همه از این بزرگ شدن نقش هوش مصنوعی لذت نمی برند.

آنهایی که از قبل هوش مصنوعی را به عنوان یک مجموعه بی شکل همگن درک می کنند، در این بازی ساختگی هوش مصنوعی در مقابل هوش مصنوعی دچار کابوس و کابوس می شوند. اگر بخواهیم آتش را در برابر آتش قرار دهیم، شاید فقط در حال ایجاد آتشی حتی بزرگتر هستیم. هوش مصنوعی تبدیل به یک آتش سوزی عظیم می شود، آتشی که دیگر کنترل آن را نداریم و تصمیم می گیریم بشریت را به بردگی بکشیم یا ما را از سیاره محو کنیم. وقتی صحبت از هوش مصنوعی به عنوان یک خطر وجودی به میان می آید، معمولاً به این باور می رسیم که تمام هوش مصنوعی با هم به هم می پیوندند، بحث من در مورد این مسائل را در اینجا ببینید. پیوند اینجا. ببینید، به ما گفته می‌شود که هر قطعه هوش مصنوعی برادران هوش مصنوعی خود را به چنگ می‌آورد و به یک خانواده واحد بزرگ ارباب تبدیل می‌شود.

این سناریوی وحشتناک و کاملاً نگران کننده هوش مصنوعی حساس به عنوان مافیای یکپارچه همه برای یک و یک برای همه است.

با وجود اینکه آزادانه می‌توانید چنین حدس‌هایی را در مورد اینکه ممکن است روزی اتفاق بیفتد، بکنید، اما به شما اطمینان می‌دهم که در حال حاضر، هوش مصنوعی که امروز داریم، شامل کامیون‌هایی از برنامه‌های هوش مصنوعی ناهمگون جدا شده است که راه خاصی برای توطئه با یکدیگر ندارند.

با این حال، من مطمئن هستم که کسانی که شدیداً به تئوری‌های توطئه هوش مصنوعی اعتقاد دارند، اصرار می‌ورزند که من عمداً این را گفته‌ام تا حقیقت را پنهان کنم. آها! شاید هوش مصنوعی امروزی که در حال برنامه‌ریزی برای تصاحب بزرگ هوش مصنوعی است، به من پرداخت می‌کند (بله آقا، زمانی که اربابان هوش مصنوعی حکومت کنند، غرق در ثروت خواهم شد). یا، و من مطمئناً از این زاویه دیگر طرفدار نیستم، شاید کورکورانه از این که چگونه هوش مصنوعی مخفیانه پشت سر ما نقشه می کشد، بی اطلاع هستم. حدس می‌زنم باید منتظر بمانیم و ببینیم که آیا من بخشی از کودتای هوش مصنوعی هستم یا یک آدم بد هوش مصنوعی (اوه، این دردناک است).

با بازگشت به ملاحظات زمینی، اجازه دهید به طور خلاصه بررسی کنیم که چگونه می توان از هوش مصنوعی معاصر برای کمک به اجرای منشور حقوق هوش مصنوعی استفاده کرد. من به راحتی و به طور خلاصه به این عنوان اشاره خواهم کرد هوش مصنوعی خوب.

ما از پنج کلید مندرج در منشور حقوق هوش مصنوعی استفاده خواهیم کرد:

  • هوش مصنوعی خوب برای تبلیغ سیستم های ایمن و موثر: هر زمان که در معرض یا استفاده از یک سیستم هوش مصنوعی قرار می گیرید، هوش مصنوعی خوب سعی می کند بفهمد که آیا هوش مصنوعی مورد استفاده ناامن است یا ناکارآمد است. با چنین تشخیصی، هوش مصنوعی خوب ممکن است به شما هشدار دهد یا اقدامات دیگری از جمله مسدود کردن هوش مصنوعی بد را انجام دهد.
  • هوش مصنوعی خوب برای ارائه حفاظت از تبعیض الگوریتمی: در حین استفاده از یک سیستم هوش مصنوعی که ممکن است حاوی الگوریتم های تبعیض آمیز باشد، هوش مصنوعی خوب تلاش می‌کند تا مشخص کند که آیا حفاظت‌های ناکافی برای شما وجود دارد یا خیر و به دنبال این است که تعیین کند آیا سوگیری‌های ناروا واقعاً در هوش مصنوعی مورد استفاده وجود دارد یا خیر. هوش مصنوعی خوب می تواند به شما اطلاع دهد و همچنین به طور بالقوه به طور خودکار سایر هوش مصنوعی را به مقامات مختلف گزارش دهد که ممکن است توسط قوانین و الزامات قانونی هوش مصنوعی تصریح شده باشد.
  • هوش مصنوعی خوب برای حفظ حریم خصوصی داده ها: این نوع از هوش مصنوعی خوب سعی می کند از شما در برابر تهاجمات به حریم خصوصی داده ها محافظت کند. وقتی هوش مصنوعی دیگری به دنبال درخواست داده‌هایی است که شاید واقعاً از شما لازم نباشد، هوش مصنوعی خوب شما را از اقدام بیش از حد آگاه می‌کند. هوش مصنوعی خوب همچنین می‌تواند به‌طور بالقوه داده‌های شما را به‌گونه‌ای پنهان کند که پس از وارد شدن به هوش مصنوعی دیگر، همچنان حقوق حریم خصوصی داده‌های شما را حفظ کند. و غیره.
  • هوش مصنوعی خوب برای ایجاد اطلاعیه و توضیح: همه ما احتمالاً با سیستم‌های هوش مصنوعی مواجه می‌شویم که به شدت در ارائه اعلان‌های مناسب و مناسب کمبود دارند و متأسفانه توضیح مناسبی برای اقدامات خود نشان نمی‌دهند. هوش مصنوعی خوب می تواند سعی کند هوش مصنوعی دیگر را تفسیر یا بازجویی کند و این کار را برای شناسایی احتمالی اعلان ها و توضیحاتی که باید ارائه می شد انجام دهد. حتی اگر انجام این کار در یک نمونه خاص امکان پذیر نباشد، هوش مصنوعی خوب حداقل به شما در مورد نقص های هوش مصنوعی دیگر هشدار می دهد و احتمالاً هوش مصنوعی را بر اساس قوانین و الزامات قانونی هوش مصنوعی به مقامات تعیین شده گزارش می دهد.
  • هوش مصنوعی خوب برای ارائه جایگزین های انسانی، توجه، و بازگشت: فرض کنید از یک سیستم هوش مصنوعی استفاده می‌کنید و هوش مصنوعی ظاهراً به وظایفی که در دست دارید نیست. ممکن است متوجه نشوید که اوضاع خراب است، یا ممکن است تا حدودی محتاط باشید و مطمئن نباشید که در مورد وضعیت چه کاری باید انجام دهید. در چنین حالتی، Good AI در سکوت بررسی می کند که هوش مصنوعی دیگر چه می کند و می تواند به شما در مورد نگرانی های حیاتی در مورد آن هوش مصنوعی هشدار دهد. سپس از شما خواسته می شود که یک جایگزین انسانی برای هوش مصنوعی درخواست کنید (یا هوش مصنوعی خوب می تواند از طرف شما این کار را انجام دهد).

برای درک بیشتر چگونه این نوع هوش مصنوعی خوب را می توان توسعه داد و ارائه داد، به کتاب هوش مصنوعی محبوب و با رتبه بالا من (با افتخار می توان گفت که به عنوان "ده نفر برتر" ذکر شده است) در مورد آنچه که من عموماً از آن به عنوان فرشتگان نگهبان هوش مصنوعی یاد می کنم، ببینید. پیوند اینجا.

نتیجه

می دانم که به چه می اندیشی. اگر هوش مصنوعی خوبی داریم که برای محافظت از ما طراحی شده است، فرض کنید هوش مصنوعی خوب خراب شده و به هوش مصنوعی بد تبدیل می شود. به نظر می رسد عبارت معروف یا بدنام لاتین برای این احتمال کاملاً مناسب است: نگهدارنده Ipsos کریس است؟

این عبارت به شاعر رومی یوونال نسبت داده می شود و در اثر او با عنوان یافت می شود ساتیورها، و می تواند به راحتی به این معنی ترجمه شود که چه کسی خود نگهبانان را نگهبانی یا تماشا خواهد کرد. بسیاری از فیلم ها و برنامه های تلویزیونی مانند پیشتازان فضا بارها و بارها از این خط استفاده کرده اند.

مطمئناً به این دلیل است که یک نقطه عالی است.

مطمئناً، هر قانون هوش مصنوعی که وضع می‌شود باید هم هوش مصنوعی بد و هم هوش مصنوعی خوب را که بد می‌شود، در بر بگیرد. به همین دلیل نوشتن قوانین هوش مصنوعی معقول و جامع بسیار مهم خواهد بود. قانون‌گذارانی که سعی می‌کنند قانون‌گذاران تصادفی را به دیوار پرتاب کنند و امیدوارند که قوانین هوش مصنوعی را رعایت کنند، متوجه می‌شوند که به شدت هدف را از دست داده‌اند.

ما به آن نیاز نداریم.

ما نه زمان داریم و نه می‌توانیم هزینه‌های اجتماعی را برای کنار آمدن با قوانین ناکافی هوش مصنوعی متحمل شویم. اشاره کرده‌ام که متأسفانه در مواقعی شاهد قوانین جدید مرتبط با هوش مصنوعی هستیم که به درستی ترکیب نشده و مملو از انواع بیماری‌های حقوقی هستند، به عنوان مثال به تحلیل من در مورد قانون حسابرسی تعصبات هوش مصنوعی شهر نیویورک (NYC) مراجعه کنید. پیوند اینجا.

بیایید مطمئن شویم که از طرح منشور حقوق هوش مصنوعی که اکنون در مورد هوش مصنوعی در دست داریم، به درستی استفاده می کنیم. اگر طرح را نادیده بگیریم، در افزایش بازی خود شکست خورده ایم. اگر ما به اشتباه طرح را اجرا می کنیم، شرم بر ماست که یک پایه مفید را غصب کرده ایم.

شاعر ارجمند رومی یوونال چیز دیگری گفته است که در این شرایط می توانیم از آن استفاده کنیم: انیما سانا در بدنه سانو.

به طور کلی، این به این ادعا ترجمه می شود که عاقلانه است که هم ذهن سالم یا سالم و هم بدن سالم یا سالم داشته باشیم. به گفته جوونال، این به ما امکان می دهد هر نوع زحمتی را تحمل کنیم و مطمئناً تنها راه رسیدن به یک زندگی با صلح یا فضیلت خواهد بود.

زمان آن است که از یک ذهن سالم و بدن سالم استفاده کنیم تا اطمینان حاصل کنیم که بشریت از حقوق بشر ما در دنیای نوظهور هوش مصنوعی که همه جا حاضر است و گاهی اوقات ناخوشایند است، حفظ خواهد شد و به طور محکم تقویت می شود. این توصیه درستی از رومیان است که ما باید در عجله امروز در میان یک دوره بد هوش مصنوعی و آینده ای قاطعانه پر از هوش مصنوعی خوب و بد از آن پیروی کنیم.

منبع: https://www.forbes.com/sites/lanceeliot/2022/10/13/ai-ethics-and-ai-law-weighing-key-ways-to-implement-that-recently-released-ai- منشور-حقوق-شامل-و-به طرز شگفت انگیزی-با-استفاده از-آی-به طور آشکار/