تردیدی وجود ندارد که ما در زندگی روزمره خود به طرح های اولیه نیاز داریم.
اگر قصد دارید آن خانه رویایی خود را بسازید، عاقلانه است که ابتدا یک نقشه قابل استفاده تهیه کنید.
یک طرح به شیوهای ملموس و مستند، هر چشمانداز بینایی را که ممکن است در نوگی شما قفل شده باشد، به نمایش میگذارد. کسانی که قرار است از آنها خواسته شود تا خانهای عزیز شما را بسازند، میتوانند به طرح اولیه مراجعه کنند و جزئیات نحوه انجام کار را مشخص کنند. نقشه ها مفید هستند. فقدان طرح اولیه برای مقابله با هر نوع کار یا پروژه پیچیده مشکل ساز خواهد بود.
بیایید این ادای احترام تا حدودی احساساتی اما واقعی را به طرحهای اولیه به حوزه هوش مصنوعی (AI) تغییر دهیم.
کسانی از شما که اساساً به هوش مصنوعی علاقه دارند ممکن است به طور مبهم از سیاست محوری مهم آگاه باشند طرح اخیراً در ایالات متحده منتشر شد که به وضوح به آینده هوش مصنوعی مربوط می شود. به طور غیر رسمی به عنوان منشور حقوق هوش مصنوعیعنوان رسمی وایت پیپر اعلام شده «طرحنامه منشور حقوق هوش مصنوعی: ساختن سیستمهای خودکار برای مردم آمریکا» است و بهراحتی بهصورت آنلاین در دسترس است.
این سند نتیجه تلاش یک ساله و مطالعه آگاهانه دفتر سیاست علم و فناوری (OSTP) است. OSTP یک نهاد فدرال است که در اواسط دهه 1970 تأسیس شد و برای مشاوره به رئیس جمهور آمریکا و دفتر اجرایی ایالات متحده در مورد جنبه های مختلف فنی، علمی و مهندسی با اهمیت ملی خدمت می کند. از این نظر، می توان گفت که این منشور حقوق هوش مصنوعی، سندی است که توسط کاخ سفید موجود ایالات متحده تایید شده است.
منشور حقوق هوش مصنوعی به تصویر می کشد حقوق بشر که نوع بشر باید با توجه به ظهور هوش مصنوعی در زندگی روزمره ما داشته باشد. من بر این نکته مهم تأکید میکنم زیرا برخی افراد در ابتدا متحیر بودند که شاید این نوعی تصدیق داشتن شخصیت حقوقی هوش مصنوعی است و این یک سری حقوق برای هوش مصنوعی هوشیار و روباتهای انساننما است. نه، ما هنوز آنجا نیستیم. همانطور که در یک لحظه خواهید دید، علی رغم سرفصل های بنرهایی که به نظر می رسد چیز دیگری به ما می گویند، ما به هوش مصنوعی حساس نزدیک نیستیم.
خوب، پس آیا ما به طرحی نیاز داریم که حقوق بشر را در عصر هوش مصنوعی بیان کند؟
بله، ما مطمئناً انجام می دهیم.
تقریباً باید در یک غار محبوس شوید و به اینترنت دسترسی نداشته باشید تا ندانید که هوش مصنوعی در حال حاضر و به طور فزاینده ای حقوق ما را زیر پا گذاشته است. دوره اخیر هوش مصنوعی در ابتدا به عنوان یک موجود تلقی می شد هوش مصنوعی برای خوب، به این معنی که ما می توانیم از هوش مصنوعی برای بهبود بشریت استفاده کنیم. روی پاشنه های هوش مصنوعی برای خوب متوجه شدیم که ما نیز در آن غوطه ور هستیم هوش مصنوعی برای بد. این شامل هوش مصنوعی میشود که ابداع شده یا خود تغییر داده و تبعیضآمیز است و انتخابهای محاسباتی را با تعصبات ناروا آغشته میکند. گاهی اوقات هوش مصنوعی به این شکل ساخته می شود، در حالی که در موارد دیگر به آن قلمرو نامطلوب منحرف می شود.
برای پوشش و تحلیل مداوم و گسترده من در مورد قانون هوش مصنوعی، اخلاق هوش مصنوعی، و دیگر روندهای کلیدی فناوری و اجتماعی هوش مصنوعی، رجوع کنید به پیوند اینجا و پیوند اینجا، فقط به نام چند.
باز کردن منشور حقوق هوش مصنوعی
من قبلاً در مورد منشور حقوق هوش مصنوعی صحبت کرده ام و در اینجا خلاصه ای سریع انجام خواهم داد.
علاوه بر این، اگر مایلید از مزایا و معایب من در مورد منشور حقوق هوش مصنوعی که اخیراً منتشر شده است بدانید، من تجزیه و تحلیل خود را در یک پست در سایت حقوقدان، نگاه کنید به پیوند اینجا. حقوقدان یک سایت خبری حقوقی و تفسیری آنلاین قابل توجه است که به طور گسترده به عنوان یک سرویس خبری حقوقی برنده جوایز شناخته می شود که توسط یک تیم جهانی از خبرنگاران، سردبیران، مفسران، خبرنگاران و توسعه دهندگان محتوا طراحی شده است و دفتر مرکزی آن در دانشکده دانشگاه پیتسبورگ است. قانون در پیتسبورگ، جایی که بیش از 25 سال پیش آغاز شد. فریاد زدن به تیم برجسته و سخت کوش در حقوقدان.
در منشور حقوق هوش مصنوعی، پنج دسته اصلی وجود دارد:
- سیستم های ایمن و موثر
- حفاظت از تبعیض الگوریتمی
- حریم خصوصی داده ها
- تذکر و توضیح
- جایگزین های انسانی، توجه، و بازگشت
توجه داشته باشید که من آنها را از یک تا پنج شماره نکردم زیرا انجام این کار ممکن است به این معنی باشد که آنها در یک دنباله خاص هستند یا اینکه یکی از حقوق به ظاهر مهمتر از دیگری است. ما فرض خواهیم کرد که آنها هر کدام از شایستگی های خود هستند. همه آنها به یک معنا به یک اندازه شایسته هستند.
به عنوان یک نشانه کوتاه از آنچه که هر کدام از آنها تشکیل شده است، در اینجا گزیده ای از کاغذ سفید رسمی آمده است:
- سیستم های ایمن و موثر: "شما باید از سیستم های ناامن یا ناکارآمد محافظت کنید. سیستمهای خودکار باید با مشورت جوامع مختلف، ذینفعان و کارشناسان حوزه توسعه داده شوند تا نگرانیها، خطرات و اثرات بالقوه سیستم شناسایی شوند.»
- حفاظت از تبعیض الگوریتمی: «نباید با تبعیض الگوریتمها مواجه شوید و سیستمها باید به صورت عادلانه استفاده و طراحی شوند. تبعیض الگوریتمی زمانی اتفاق میافتد که سیستمهای خودکار بر اساس نژاد، رنگ، قومیت، جنسیت (از جمله بارداری، زایمان، و شرایط پزشکی مرتبط، هویت جنسی، وضعیت بینجنسیتی، و گرایش جنسی)، مذهب، سن، به رفتارهای متفاوت غیرقابل توجیه یا تأثیرات ناخوشایند بر افراد کمک کنند. منشاء ملی، معلولیت، وضعیت جانبازی، اطلاعات ژنتیکی یا هر طبقه بندی دیگری که توسط قانون محافظت می شود.
- حریم خصوصی داده ها: «شما باید از طریق حفاظتهای داخلی در برابر شیوههای دادههای سوءاستفادهکننده محافظت شوید و باید در مورد نحوه استفاده از دادههای مربوط به خود نمایندگی داشته باشید. شما باید از طریق انتخابهای طراحی که تضمین میکند چنین حفاظتهایی بهطور پیشفرض گنجانده شدهاند، از نقض حریم خصوصی محافظت شوید، از جمله اطمینان از اینکه جمعآوری دادهها با انتظارات معقول مطابقت دارد و فقط دادههایی که به شدت برای یک زمینه خاص ضروری هستند، جمعآوری میشوند.»
- اطلاعیه و توضیح: شما باید بدانید که یک سیستم خودکار در حال استفاده است و بدانید که چگونه و چرا به نتایجی که بر شما تأثیر می گذارد کمک می کند. طراحان، توسعهدهندگان و توسعهدهندگان سیستمهای خودکار باید اسنادی به زبان ساده و در دسترس عموما ارائه دهند، شامل توضیحات واضحی از عملکرد کلی سیستم و نقشی که اتوماسیون بازی میکند، توجه داشته باشید که چنین سیستمهایی در حال استفاده هستند، فرد یا سازمان مسئول سیستم، و توضیحاتی درباره نتایجی که واضح، به موقع و در دسترس باشند.»
- جایگزین های انسانی، توجه، و بازگشت: «شما باید بتوانید، در صورت لزوم، انصراف دهید و به فردی دسترسی داشته باشید که بتواند به سرعت مشکلاتی را که با آن مواجه میشوید بررسی و برطرف کند. در صورت لزوم باید بتوانید از سیستم های خودکار به نفع جایگزینی انسانی انصراف دهید.
به طور کلی، اینها جنبه هایی از حقوق بشر هستند که برای مدتی طولانی در زمینه اخلاق هوش مصنوعی و قانون هوش مصنوعی محاصره شده اند، پوشش من را ببینید. پیوند اینجا. به نظر می رسد که کاغذ سفید به طور جادویی خرگوش را از کلاه بیرون نمی کشد تا حقایقی که به تازگی کشف شده یا کشف شده است که تاکنون در زمینه عصر هوش مصنوعی توضیح داده نشده است.
اشکالی نداره
می توانید ادعا کنید که گردآوری آنها در یک مجموعه منظم و بسته بندی شده و رسمی، خدمات حیاتی را ارائه می دهد. به علاوه، با مسح شدن به عنوان یک فرد تحسین شده منشور حقوق هوش مصنوعی، این بیشتر کل موضوع را آشکارا و توانا در آگاهی حوزه عمومی قرار می دهد. این مجموعه انبوهی از بحثهای نامتجانس را در مجموعهای منفرد ترکیب میکند که اکنون میتوان آن را در بوق و کرنا کرد و به همه انواع ذینفعان منتقل کرد.
به من اجازه دهید این لیست از واکنش های مطلوب را به منشور حقوق هوش مصنوعی ارائه کنم:
- مجموعه ای ضروری از اصول کیستون را ارائه می دهد
- به عنوان یک طرح یا پایه برای ساختن بر روی آن عمل می کند
- به عنوان یک فراخوان صدادار عمل می کند
- علاقه را تحریک می کند و نشان می دهد که اینها ملاحظات جدی هستند
- بسیاری از بحث های متفاوت را گرد هم می آورد
- جرقه می زند و به تلاش های پذیرش هوش مصنوعی اخلاقی کمک می کند
- بدون شک به ایجاد قوانین هوش مصنوعی کمک خواهد کرد
- دیگر
ما همچنین باید واکنشهای نه چندان مطلوب را نیز در نظر بگیریم، با در نظر گرفتن این که کارهای بسیار بیشتری باید انجام شود و این تازه شروع یک سفر طولانی در جاده دشوار مدیریت هوش مصنوعی است.
به این ترتیب، انتقادات تا حدی تند یا باید بگوییم سازنده درباره منشور حقوق هوش مصنوعی عبارتند از:
- از نظر قانونی قابل اجرا و کاملا غیر الزام آور نیست
- فقط مشاوره ای است و سیاست دولتی در نظر گرفته نمی شود
- در مقایسه با سایر آثار منتشر شده، جامعیت کمتری دارد
- اصولاً شامل مفاهیم گسترده و فاقد جزئیات اجرایی است
- تبدیل شدن به قوانین عملی واقعی و قابل اجرا چالش برانگیز خواهد بود
- ظاهراً در مورد موضوع احتمالی ممنوعیت احتمالی هوش مصنوعی در برخی زمینه ها سکوت کرده است
- به طور جزئی مزایای استفاده از هوش مصنوعی که به خوبی طراحی شده است را تصدیق می کند
- دیگر
شاید برجستهترین تفسیر تند روی این واقعیت متمرکز شده باشد که این منشور حقوق هوش مصنوعی از نظر قانونی قابل اجرا نیست و بنابراین وقتی صحبت از ایجاد پستهای هدف مشخص میشود، هیچ تاثیری ندارد. برخی گفته اند که اگرچه کاغذ سفید مفید و دلگرم کننده است، اما قطعاً فاقد دندان است. آنها میپرسند که چه چیزی میتواند از یک مجموعه دستورات ظریف دندانهای توخالی حاصل شود.
من در یک لحظه به آن سخنان گزنده خواهم پرداخت.
در همین حال، کاغذ سفید به وفور محدودیت های این منشور حقوق هوش مصنوعی را بیان می کند:
- طرح اولیه منشور حقوق هوش مصنوعی غیرالزام آور است و سیاست دولت ایالات متحده را تشکیل نمی دهد. این قانون جایگزین، اصلاح یا هدایت تفسیری از هیچ قانون اساسی، مقررات، خط مشی، یا سند بین المللی موجود نیست. این دستورالعمل الزام آور برای سازمان های عمومی یا فدرال نیست و بنابراین نیازی به رعایت اصول توضیح داده شده در اینجا ندارد. همچنین تعیین کننده نیست که موضع دولت ایالات متحده در هیچ مذاکره بین المللی چگونه خواهد بود. پذیرش این اصول ممکن است الزامات قوانین، مقررات، سیاستها، یا اسناد بینالمللی موجود یا الزامات سازمانهای فدرال را که آنها را اجرا میکنند، برآورده نکند. هدف از این اصول، ممنوعیت یا محدود کردن فعالیت قانونی یک سازمان دولتی، از جمله اجرای قانون، امنیت ملی، یا فعالیت های اطلاعاتی نیست.
برای کسانی که سریعاً منشور حقوق هوش مصنوعی را بهعنوان غیرالزامآور بودن تضعیف کردهاند، اجازه دهید کمی آزمایش فکری در مورد این ادعای گزنده انجام دهیم. فرض کنید کاغذ سفید منتشر شد و تمام قوت قانون را داشت. به جرات می توانم بگویم که نتیجه تا حدودی فاجعه آمیز خواهد بود، حداقل به میزان پاسخ های حقوقی و اجتماعی به این اعلامیه.
قانونگذاران از این که تلاشها فرآیندهای هنجاری و رویههای قانونی را در کنار هم قرار دادن چنین قوانینی انجام نداده بودند، دست به کار خواهند شد. به حق، کسبوکارها خشمگین میشوند، زیرا قوانین جدیدی بدون اطلاعرسانی و آگاهی کافی از چیستی آن قوانین پدید میآیند. هر نوع حیرت و خشم به وجود می آمد.
راه خوبی برای جذب به سمت استحکام حقوق بشر در عصر هوش مصنوعی نیست.
به یاد بیاورید که من قبلاً این بحث را با بیان ارزش و حیاتی طرح ها آغاز کرده بودم.
تصور کنید که شخصی از مرحله ساختن نقشه ها عبور کرده و بلافاصله وارد ساخت خانه رویایی شما شده است. به نظر شما خانه چه شکلی خواهد بود؟ به نظر می رسد شرط منصفانه ای باشد که خانه به خصوص با آنچه در ذهن شما بود مطابقت نداشته باشد. خانه در نتیجه ممکن است یک آشفتگی کامل باشد.
اصل ماجرا این است که ما به طرحهایی نیاز داریم و اکنون به منظور پیشبرد قوانین هوش مصنوعی و توانمندسازی قوانین هوش مصنوعی اخلاقی، طرحی داریم.
بنابراین، میخواهم به راههایی بپردازم که از طریق آن میتوان طرح منشور حقوق هوش مصنوعی را به یک خانه تبدیل کرد. چگونه می خواهیم از طرح اولیه استفاده کنیم؟ مراحل بعدی مناسب کدامند؟ آیا این طرح اولیه می تواند کافی باشد یا نیاز به گوشت بیشتری روی استخوان دارد؟
قبل از اینکه به این موضوعات سنگین بپردازیم، ابتدا میخواهم مطمئن شوم که همه ما در مورد ماهیت هوش مصنوعی و وضعیت امروزی در یک صفحه هستیم.
تنظیم مستقیم رکورد در مورد هوش مصنوعی امروزی
من می خواهم یک بیانیه بسیار تاکیدی داشته باشم.
آیا شما آماده هستید؟
امروزه هیچ هوش مصنوعی وجود ندارد که حساس باشد.
ما این را نداریم ما نمی دانیم که آیا هوش مصنوعی ممکن خواهد بود یا خیر. هیچ کس نمی تواند به درستی پیش بینی کند که آیا ما به هوش مصنوعی دست خواهیم یافت یا خیر، یا اینکه آیا هوش مصنوعی به نحوی معجزه آسا خود به خود در شکلی از ابرنواخترهای شناختی محاسباتی پدید می آید (که معمولاً به عنوان تکینگی شناخته می شود، پوشش من را در اینجا ببینید. پیوند اینجا).
نوع هوش مصنوعی که من روی آن تمرکز می کنم شامل هوش مصنوعی غیر حساسی است که امروز داریم. اگر بخواهیم در مورد هوش مصنوعی حساس حدس و گمان بزنیم، این بحث می تواند در جهتی کاملاً متفاوت پیش رود. ظاهراً یک هوش مصنوعی با کیفیت انسانی خواهد بود. شما باید در نظر داشته باشید که هوش مصنوعی حسی معادل شناختی یک انسان است. علاوه بر این، از آنجایی که برخی حدس می زنند که ممکن است هوش مصنوعی فوق هوشمند داشته باشیم، می توان تصور کرد که چنین هوش مصنوعی می تواند در نهایت از انسان ها باهوش تر باشد (برای کاوش من در مورد هوش مصنوعی فوق هوشمند به عنوان یک امکان، نگاه کنید به پوشش در اینجا).
من قویاً پیشنهاد میکنم که همه چیز را ثابت نگه داریم و هوش مصنوعی محاسباتی غیر حساس امروزی را در نظر بگیریم.
درک کنید که هوش مصنوعی امروزی قادر به «فکر کردن» به هیچ شکلی با تفکر انسان نیست. وقتی با الکسا یا سیری تعامل می کنید، ظرفیت های مکالمه ممکن است شبیه ظرفیت های انسانی به نظر برسد، اما واقعیت این است که محاسباتی است و فاقد شناخت انسانی است. آخرین دوره هوش مصنوعی از یادگیری ماشینی (ML) و یادگیری عمیق (DL) استفاده گسترده ای کرده است که از تطابق الگوی محاسباتی استفاده می کند. این منجر به سیستمهای هوش مصنوعی شده است که ظاهری شبیه به تمایلات انسان دارند. در همین حال، هیچ هوش مصنوعی امروزی وجود ندارد که شباهتی به عقل سلیم داشته باشد و هیچ یک از شگفتیهای شناختی تفکر قوی انسانی را نداشته باشد.
بسیار مراقب انسان سازی هوش مصنوعی امروزی باشید.
ML/DL نوعی تطبیق الگوی محاسباتی است. روش معمول این است که شما داده ها را در مورد یک کار تصمیم گیری جمع آوری می کنید. داده ها را به مدل های کامپیوتری ML/DL وارد می کنید. آن مدل ها به دنبال یافتن الگوهای ریاضی هستند. پس از یافتن چنین الگوهایی، در صورت یافتن، سیستم هوش مصنوعی در هنگام مواجهه با داده های جدید از آن الگوها استفاده خواهد کرد. پس از ارائه داده های جدید، الگوهای مبتنی بر داده های "قدیمی" یا تاریخی برای ارائه یک تصمیم فعلی استفاده می شود.
من فکر می کنم می توانید حدس بزنید که این به کجا می رود. اگر انسانهایی که بر اساس تصمیمگیریهای الگو گرفته شدهاند، سوگیریهای نامطلوب را در خود جای دادهاند، احتمال این وجود دارد که دادهها این را به روشهای ظریف اما قابل توجهی منعکس کنند. تطبیق الگوی محاسباتی یادگیری ماشینی یا یادگیری عمیق به سادگی سعی میکند تا دادهها را مطابق با ریاضی تقلید کند. هیچ شباهتی از عقل سلیم یا سایر جنبه های حساس مدل سازی ساخته شده با هوش مصنوعی به خودی خود وجود ندارد.
علاوه بر این، توسعه دهندگان هوش مصنوعی نیز ممکن است متوجه نباشند که چه اتفاقی در حال رخ دادن است. ریاضیات محرمانه در ML/DL ممکن است کشف سوگیری های پنهان در حال حاضر را دشوار کند. شما به حق امیدوارید و انتظار دارید که توسعه دهندگان هوش مصنوعی سوگیری های بالقوه مدفون را آزمایش کنند، اگرچه این مشکل تر از آن چیزی است که به نظر می رسد. یک شانس قوی وجود دارد که حتی با آزمایش نسبتاً گسترده، سوگیریهایی همچنان در مدلهای تطبیق الگوی ML/DL وجود داشته باشد.
میتوانید تا حدودی از ضربالمثل معروف یا بدنام زبالههای درون زبالهها استفاده کنید. مسئله این است که این بیشتر شبیه سوگیریهایی است که بهطور موذیانه بهعنوان سوگیریهایی که در هوش مصنوعی غوطهور میشوند، القا میشوند. الگوریتم تصمیمگیری (ADM) هوش مصنوعی به طور اصولی مملو از نابرابریها میشود.
خوب نیست.
همه اینها پیامدهای قابل توجهی از اخلاق هوش مصنوعی دارند و دریچه ای مفید به درس های آموخته شده (حتی قبل از اینکه همه درس ها اتفاق بیفتند) هنگام تلاش برای قانون گذاری هوش مصنوعی ارائه می دهد.
علاوه بر به کارگیری اصول اخلاقی هوش مصنوعی به طور کلی، یک سوال مربوط به این موضوع وجود دارد که آیا ما باید قوانینی برای کنترل کاربردهای مختلف هوش مصنوعی داشته باشیم. قوانین جدیدی در سطوح فدرال، ایالتی و محلی وضع می شود که به محدوده و ماهیت چگونگی ابداع هوش مصنوعی مربوط می شود. تلاش برای تدوین و تصویب چنین قوانینی تدریجی است. اخلاق هوش مصنوعی حداقل به عنوان یک توقف در نظر گرفته شده عمل می کند و تقریباً مطمئناً تا حدی مستقیماً در آن قوانین جدید گنجانده می شود.
توجه داشته باشید که برخی قاطعانه استدلال می کنند که ما به قوانین جدیدی که هوش مصنوعی را پوشش می دهد نیازی نداریم و قوانین موجود ما کافی است. آنها پیشبینی میکنند که اگر برخی از این قوانین هوش مصنوعی را به اجرا بگذاریم، با مهار پیشرفتهای هوش مصنوعی که مزایای اجتماعی عظیمی را ارائه میدهد، غاز طلایی را خواهیم کشت.
در ستونهای قبلی، من تلاشهای ملی و بینالمللی مختلف برای ایجاد و وضع قوانین مربوط به هوش مصنوعی را پوشش دادهام. پیوند اینجا، مثلا. من همچنین اصول و رهنمودهای مختلف اخلاق هوش مصنوعی را که کشورهای مختلف شناسایی و پذیرفته اند پوشش داده ام، از جمله تلاش سازمان ملل متحد مانند مجموعه اخلاق هوش مصنوعی یونسکو که نزدیک به 200 کشور آن را پذیرفته اند. پیوند اینجا.
در اینجا یک لیست کلیدی مفید از معیارها یا ویژگی های هوش مصنوعی اخلاقی در رابطه با سیستم های هوش مصنوعی است که قبلاً از نزدیک بررسی کرده ام:
- شفافیت
- عدالت و انصاف
- عدم سوء استفاده
- مسئوليت
- حریم خصوصی
- سود رسانی
- آزادی و خودمختاری
- اعتماد
- پایداری
- کرامت
- اتحاد
این اصول اخلاقی هوش مصنوعی قرار است با جدیت توسط توسعه دهندگان هوش مصنوعی، همراه با آنهایی که تلاش های توسعه هوش مصنوعی را مدیریت می کنند، و حتی آنهایی که در نهایت سیستم های هوش مصنوعی را انجام می دهند، مورد استفاده قرار گیرد.
همه ذینفعان در طول چرخه عمر توسعه و استفاده هوش مصنوعی در محدوده رعایت هنجارهای تثبیت شده هوش مصنوعی اخلاقی در نظر گرفته می شوند. این نکته مهمی است زیرا فرض معمول این است که «فقط کدنویسها» یا کسانی که هوش مصنوعی را برنامهریزی میکنند، مشمول رعایت مفاهیم اخلاق هوش مصنوعی هستند. همانطور که قبلاً در اینجا تأکید شد، برای ابداع و بکارگیری هوش مصنوعی به یک روستا نیاز است، و برای آن کل دهکده باید به اصول اخلاقی هوش مصنوعی آشنا باشد و از آن پیروی کند.
اکنون که پایههای مفیدی گذاشتهام، آماده هستیم تا بیشتر در منشور حقوق هوش مصنوعی غوطهور شویم.
چهار راه اساسی برای اجرای منشور حقوق هوش مصنوعی
یک نفر نقشه ای به شما می دهد و می گوید که دست به کار شوید.
چه کار می کنی؟
در مورد منشور حقوق هوش مصنوعی به عنوان یک طرح، این چهار گام اساسی را برای حرکت رو به جلو در نظر بگیرید:
- به عنوان ورودی برای تدوین قوانین هوش مصنوعی عمل کنید: از این طرح برای کمک به تدوین قوانین هوش مصنوعی استفاده کنید، امیدواریم این کار را به صورت همسو در سطوح فدرال، ایالتی و محلی انجام دهید (شاید به تلاش های حقوقی بین المللی هوش مصنوعی نیز کمک کنید).
- کمک به پذیرش گستردهتر اخلاق هوش مصنوعی: از این طرح برای تقویت فرمولهای اخلاق هوش مصنوعی (که گاهی به عنوان «قوانین نرم» در مقایسه با «قوانین سخت» الزام آور قانونی نامیده میشود) استفاده کنید، این کار را برای الهام بخشیدن و هدایت کسبوکارها، افراد، نهادهای دولتی و سایر حوزهها به سمت اخلاقیات بهتر و سازگارتر انجام دهید. نتایج هوش مصنوعی
- شکل دادن به فعالیت های توسعه هوش مصنوعی: از این طرح برای ایجاد روشهای توسعه هوش مصنوعی و جنبههای آموزشی استفاده کنید، این کار را انجام دهید تا توسعهدهندگان هوش مصنوعی و آنهایی که هوش مصنوعی را به کار میگیرند یا به کار میگیرند، بیشتر بدانند که چگونه میتوانند هوش مصنوعی را در راستای اصول اخلاقی هوش مصنوعی و در پیشبینی ابداع کنند. قوانین هوش مصنوعی در حال تصویب
- انگیزه ظهور هوش مصنوعی برای کمک به کنترل هوش مصنوعی: از این طرح برای ابداع هوش مصنوعی استفاده کنید که به عنوان یک کنترل و تعادل در برابر هوش مصنوعی دیگری که ممکن است به قلمرو نامطلوب منحرف شود، استفاده شود. این یکی از آن دیدگاههای کلانبینی است که به موجب آن میتوانیم از همان چیزی که ظاهراً نگرانکننده میدانیم برای محافظت از خود نیز (به طنز، ممکن است بگوییم) استفاده کنیم.
من در طول پست های ستون خود در مورد هر یک از چهار مرحله فوق صحبت کرده ام.
برای این بحث در اینجا، میخواهم روی چهارمین مرحله فهرستشده تمرکز کنم، یعنی منشور حقوق هوش مصنوعی میتواند به عنوان انگیزهای برای ظهور هوش مصنوعی برای کمک به کنترل هوش مصنوعی باشد. این یک قدم تا حدودی تکان دهنده یا غافلگیرکننده برای بسیاری است که هنوز به طور کامل وارد این قلمرو پیشرفت هوش مصنوعی نشده اند.
اجازه بدهید توضیح بیشتری بدهم.
یک قیاس ساده باید کار را انجام دهد. همه ما این روزها به نقض امنیت سایبری و نفوذ هکرها عادت کرده ایم. تقریباً هر روز در مورد آخرین حفره رایانههایمان میشنویم یا تحت تأثیر آن قرار میگیریم که به شروران شرور اجازه میدهد دادههای ما را ربوده یا یک باجافزار وحشتناک را روی لپتاپهای ما قرار دهند.
یکی از راههای مبارزه با این تلاشهای نفرتانگیز، استفاده از نرمافزار تخصصی است که تلاش میکند از این نفوذها جلوگیری کند. تقریباً مطمئناً یک بسته نرم افزاری ضد ویروس بر روی رایانه خود در خانه یا محل کار دارید. احتمالاً چیزی مشابه در تلفن هوشمند شما وجود دارد، خواه متوجه شوید که در آنجا وجود دارد یا نه.
حرف من این است که گاهی لازم است با آتش با آتش مبارزه کنید (به پوشش من در این مورد نگاه کنید، مانند در پیوند اینجا و پیوند اینجا).
در مورد هوش مصنوعی که وارد قلمروی پرمخاطب می شود هوش مصنوعی برای بد، می توانیم به دنبال استفاده باشیم هوش مصنوعی برای خوب که با آن مخرب مبارزه می کند هوش مصنوعی برای بد. البته این یک درمان معجزه آسا نیست. همانطور که میدانید، یک بازی موش و گربه مستمر بین بدکارانی که به دنبال نفوذ به رایانههای ما هستند و پیشرفتهایی که در زمینه حفاظت از امنیت سایبری انجام میشود، در جریان است. این یک بازی تقریباً بی پایان است.
ما می توانیم از هوش مصنوعی برای مقابله با هوش مصنوعی استفاده کنیم که مسیر ممنوعه ای را طی کرده است. انجام این کار کمک خواهد کرد. این به ویژه یک گلوله نقره ای نخواهد بود زیرا هوش مصنوعی نامطلوب مورد هدف تقریباً مطمئناً برای جلوگیری از چنین محافظت هایی ابداع خواهد شد. این یک موش و گربه AI در مقابل هوش مصنوعی خواهد بود.
در هر صورت، هوش مصنوعی که برای محافظت از خود استفاده می کنیم، مقداری محافظت در برابر هوش مصنوعی بد ارائه می دهد. بنابراین، ما بدون شک نیاز به ابداع هوش مصنوعی داریم که بتواند از ما محافظت یا محافظت کند. و همچنین باید به دنبال ایجاد هوش مصنوعی محافظ باشیم تا با تنظیم هوش مصنوعی بد، آن را تنظیم کنیم. شباهت شدیدی از گربه و موش با سرعت رعد و برق وجود خواهد داشت.
همه از این بزرگ شدن نقش هوش مصنوعی لذت نمی برند.
آنهایی که از قبل هوش مصنوعی را به عنوان یک مجموعه بی شکل همگن درک می کنند، در این بازی ساختگی هوش مصنوعی در مقابل هوش مصنوعی دچار کابوس و کابوس می شوند. اگر بخواهیم آتش را در برابر آتش قرار دهیم، شاید فقط در حال ایجاد آتشی حتی بزرگتر هستیم. هوش مصنوعی تبدیل به یک آتش سوزی عظیم می شود، آتشی که دیگر کنترل آن را نداریم و تصمیم می گیریم بشریت را به بردگی بکشیم یا ما را از سیاره محو کنیم. وقتی صحبت از هوش مصنوعی به عنوان یک خطر وجودی به میان می آید، معمولاً به این باور می رسیم که تمام هوش مصنوعی با هم به هم می پیوندند، بحث من در مورد این مسائل را در اینجا ببینید. پیوند اینجا. ببینید، به ما گفته میشود که هر قطعه هوش مصنوعی برادران هوش مصنوعی خود را به چنگ میآورد و به یک خانواده واحد بزرگ ارباب تبدیل میشود.
این سناریوی وحشتناک و کاملاً نگران کننده هوش مصنوعی حساس به عنوان مافیای یکپارچه همه برای یک و یک برای همه است.
با وجود اینکه آزادانه میتوانید چنین حدسهایی را در مورد اینکه ممکن است روزی اتفاق بیفتد، بکنید، اما به شما اطمینان میدهم که در حال حاضر، هوش مصنوعی که امروز داریم، شامل کامیونهایی از برنامههای هوش مصنوعی ناهمگون جدا شده است که راه خاصی برای توطئه با یکدیگر ندارند.
با این حال، من مطمئن هستم که کسانی که شدیداً به تئوریهای توطئه هوش مصنوعی اعتقاد دارند، اصرار میورزند که من عمداً این را گفتهام تا حقیقت را پنهان کنم. آها! شاید هوش مصنوعی امروزی که در حال برنامهریزی برای تصاحب بزرگ هوش مصنوعی است، به من پرداخت میکند (بله آقا، زمانی که اربابان هوش مصنوعی حکومت کنند، غرق در ثروت خواهم شد). یا، و من مطمئناً از این زاویه دیگر طرفدار نیستم، شاید کورکورانه از این که چگونه هوش مصنوعی مخفیانه پشت سر ما نقشه می کشد، بی اطلاع هستم. حدس میزنم باید منتظر بمانیم و ببینیم که آیا من بخشی از کودتای هوش مصنوعی هستم یا یک آدم بد هوش مصنوعی (اوه، این دردناک است).
با بازگشت به ملاحظات زمینی، اجازه دهید به طور خلاصه بررسی کنیم که چگونه می توان از هوش مصنوعی معاصر برای کمک به اجرای منشور حقوق هوش مصنوعی استفاده کرد. من به راحتی و به طور خلاصه به این عنوان اشاره خواهم کرد هوش مصنوعی خوب.
ما از پنج کلید مندرج در منشور حقوق هوش مصنوعی استفاده خواهیم کرد:
- هوش مصنوعی خوب برای تبلیغ سیستم های ایمن و موثر: هر زمان که در معرض یا استفاده از یک سیستم هوش مصنوعی قرار می گیرید، هوش مصنوعی خوب سعی می کند بفهمد که آیا هوش مصنوعی مورد استفاده ناامن است یا ناکارآمد است. با چنین تشخیصی، هوش مصنوعی خوب ممکن است به شما هشدار دهد یا اقدامات دیگری از جمله مسدود کردن هوش مصنوعی بد را انجام دهد.
- هوش مصنوعی خوب برای ارائه حفاظت از تبعیض الگوریتمی: در حین استفاده از یک سیستم هوش مصنوعی که ممکن است حاوی الگوریتم های تبعیض آمیز باشد، هوش مصنوعی خوب تلاش میکند تا مشخص کند که آیا حفاظتهای ناکافی برای شما وجود دارد یا خیر و به دنبال این است که تعیین کند آیا سوگیریهای ناروا واقعاً در هوش مصنوعی مورد استفاده وجود دارد یا خیر. هوش مصنوعی خوب می تواند به شما اطلاع دهد و همچنین به طور بالقوه به طور خودکار سایر هوش مصنوعی را به مقامات مختلف گزارش دهد که ممکن است توسط قوانین و الزامات قانونی هوش مصنوعی تصریح شده باشد.
- هوش مصنوعی خوب برای حفظ حریم خصوصی داده ها: این نوع از هوش مصنوعی خوب سعی می کند از شما در برابر تهاجمات به حریم خصوصی داده ها محافظت کند. وقتی هوش مصنوعی دیگری به دنبال درخواست دادههایی است که شاید واقعاً از شما لازم نباشد، هوش مصنوعی خوب شما را از اقدام بیش از حد آگاه میکند. هوش مصنوعی خوب همچنین میتواند بهطور بالقوه دادههای شما را بهگونهای پنهان کند که پس از وارد شدن به هوش مصنوعی دیگر، همچنان حقوق حریم خصوصی دادههای شما را حفظ کند. و غیره.
- هوش مصنوعی خوب برای ایجاد اطلاعیه و توضیح: همه ما احتمالاً با سیستمهای هوش مصنوعی مواجه میشویم که به شدت در ارائه اعلانهای مناسب و مناسب کمبود دارند و متأسفانه توضیح مناسبی برای اقدامات خود نشان نمیدهند. هوش مصنوعی خوب می تواند سعی کند هوش مصنوعی دیگر را تفسیر یا بازجویی کند و این کار را برای شناسایی احتمالی اعلان ها و توضیحاتی که باید ارائه می شد انجام دهد. حتی اگر انجام این کار در یک نمونه خاص امکان پذیر نباشد، هوش مصنوعی خوب حداقل به شما در مورد نقص های هوش مصنوعی دیگر هشدار می دهد و احتمالاً هوش مصنوعی را بر اساس قوانین و الزامات قانونی هوش مصنوعی به مقامات تعیین شده گزارش می دهد.
- هوش مصنوعی خوب برای ارائه جایگزین های انسانی، توجه، و بازگشت: فرض کنید از یک سیستم هوش مصنوعی استفاده میکنید و هوش مصنوعی ظاهراً به وظایفی که در دست دارید نیست. ممکن است متوجه نشوید که اوضاع خراب است، یا ممکن است تا حدودی محتاط باشید و مطمئن نباشید که در مورد وضعیت چه کاری باید انجام دهید. در چنین حالتی، Good AI در سکوت بررسی می کند که هوش مصنوعی دیگر چه می کند و می تواند به شما در مورد نگرانی های حیاتی در مورد آن هوش مصنوعی هشدار دهد. سپس از شما خواسته می شود که یک جایگزین انسانی برای هوش مصنوعی درخواست کنید (یا هوش مصنوعی خوب می تواند از طرف شما این کار را انجام دهد).
برای درک بیشتر چگونه این نوع هوش مصنوعی خوب را می توان توسعه داد و ارائه داد، به کتاب هوش مصنوعی محبوب و با رتبه بالا من (با افتخار می توان گفت که به عنوان "ده نفر برتر" ذکر شده است) در مورد آنچه که من عموماً از آن به عنوان فرشتگان نگهبان هوش مصنوعی یاد می کنم، ببینید. پیوند اینجا.
نتیجه
می دانم که به چه می اندیشی. اگر هوش مصنوعی خوبی داریم که برای محافظت از ما طراحی شده است، فرض کنید هوش مصنوعی خوب خراب شده و به هوش مصنوعی بد تبدیل می شود. به نظر می رسد عبارت معروف یا بدنام لاتین برای این احتمال کاملاً مناسب است: نگهدارنده Ipsos کریس است؟
این عبارت به شاعر رومی یوونال نسبت داده می شود و در اثر او با عنوان یافت می شود ساتیورها، و می تواند به راحتی به این معنی ترجمه شود که چه کسی خود نگهبانان را نگهبانی یا تماشا خواهد کرد. بسیاری از فیلم ها و برنامه های تلویزیونی مانند پیشتازان فضا بارها و بارها از این خط استفاده کرده اند.
مطمئناً به این دلیل است که یک نقطه عالی است.
مطمئناً، هر قانون هوش مصنوعی که وضع میشود باید هم هوش مصنوعی بد و هم هوش مصنوعی خوب را که بد میشود، در بر بگیرد. به همین دلیل نوشتن قوانین هوش مصنوعی معقول و جامع بسیار مهم خواهد بود. قانونگذارانی که سعی میکنند قانونگذاران تصادفی را به دیوار پرتاب کنند و امیدوارند که قوانین هوش مصنوعی را رعایت کنند، متوجه میشوند که به شدت هدف را از دست دادهاند.
ما به آن نیاز نداریم.
ما نه زمان داریم و نه میتوانیم هزینههای اجتماعی را برای کنار آمدن با قوانین ناکافی هوش مصنوعی متحمل شویم. اشاره کردهام که متأسفانه در مواقعی شاهد قوانین جدید مرتبط با هوش مصنوعی هستیم که به درستی ترکیب نشده و مملو از انواع بیماریهای حقوقی هستند، به عنوان مثال به تحلیل من در مورد قانون حسابرسی تعصبات هوش مصنوعی شهر نیویورک (NYC) مراجعه کنید. پیوند اینجا.
بیایید مطمئن شویم که از طرح منشور حقوق هوش مصنوعی که اکنون در مورد هوش مصنوعی در دست داریم، به درستی استفاده می کنیم. اگر طرح را نادیده بگیریم، در افزایش بازی خود شکست خورده ایم. اگر ما به اشتباه طرح را اجرا می کنیم، شرم بر ماست که یک پایه مفید را غصب کرده ایم.
شاعر ارجمند رومی یوونال چیز دیگری گفته است که در این شرایط می توانیم از آن استفاده کنیم: انیما سانا در بدنه سانو.
به طور کلی، این به این ادعا ترجمه می شود که عاقلانه است که هم ذهن سالم یا سالم و هم بدن سالم یا سالم داشته باشیم. به گفته جوونال، این به ما امکان می دهد هر نوع زحمتی را تحمل کنیم و مطمئناً تنها راه رسیدن به یک زندگی با صلح یا فضیلت خواهد بود.
زمان آن است که از یک ذهن سالم و بدن سالم استفاده کنیم تا اطمینان حاصل کنیم که بشریت از حقوق بشر ما در دنیای نوظهور هوش مصنوعی که همه جا حاضر است و گاهی اوقات ناخوشایند است، حفظ خواهد شد و به طور محکم تقویت می شود. این توصیه درستی از رومیان است که ما باید در عجله امروز در میان یک دوره بد هوش مصنوعی و آینده ای قاطعانه پر از هوش مصنوعی خوب و بد از آن پیروی کنیم.
منبع: https://www.forbes.com/sites/lanceeliot/2022/10/13/ai-ethics-and-ai-law-weighing-key-ways-to-implement-that-recently-released-ai- منشور-حقوق-شامل-و-به طرز شگفت انگیزی-با-استفاده از-آی-به طور آشکار/