کارشناسان هوش مصنوعی سندی را امضا کردند که خطر "انقراض از هوش مصنوعی" را با بیماری های همه گیر، جنگ هسته ای مقایسه می کند

ده ها متخصص هوش مصنوعی (AI) از جمله مدیران عامل OpenAI، Google DeepMind و Anthropic اخیرا بیانیه ای را امضا کردند که توسط مرکز ایمنی هوش مصنوعی (CAIS) منتشر شده است. 

بیانیه شامل یک جمله است:

کاهش خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماری های همه گیر و جنگ هسته ای یک اولویت جهانی باشد.

در میان امضاکنندگان این سند، یک "چه کسی" واقعی از افراد برجسته هوش مصنوعی، از جمله "پدرخوانده" هوش مصنوعی، جفری هینتون، وجود دارد. استوارت راسل دانشگاه کالیفرنیا، برکلی. و لکس فریدمن از موسسه فناوری ماساچوست. نوازنده گریمز نیز یکی از امضاکنندگان است که در دسته «دیگر چهره‌های برجسته» فهرست شده است.

مرتبط: نوازنده گریمز مایل است 50 درصد حق امتیاز را با موسیقی تولید شده توسط هوش مصنوعی تقسیم کند

در حالی که این بیانیه ممکن است در ظاهر بی ضرر به نظر برسد، پیام اصلی تا حدودی بحث برانگیز در جامعه هوش مصنوعی است.

تعداد به ظاهر رو به رشدی از کارشناسان بر این باورند که فناوری‌های کنونی ممکن است به شکل اجتناب ناپذیری منجر به ظهور یا توسعه یک سیستم هوش مصنوعی شود که می‌تواند تهدیدی وجودی برای گونه‌ی انسان باشد.

با این حال، نظرات آنها توسط گروهی از کارشناسان با نظرات کاملاً متضاد مخالفت می شود. برای مثال، یان لکون، دانشمند ارشد هوش مصنوعی متا، بارها اشاره کرده است که لزوماً باور ندارد که هوش مصنوعی غیرقابل کنترل شود.

برای او و دیگرانی که با لفاظی «انقراض» مخالف هستند، مانند اندرو نگ، یکی از بنیانگذاران Google Brain و دانشمند ارشد سابق بایدو، هوش مصنوعی مشکل نیست، بلکه پاسخ است.

در طرف دیگر بحث، کارشناسانی مانند هینتون و کانر لیهی، مدیرعامل Conjecture معتقدند که هوش مصنوعی در سطح انسانی اجتناب‌ناپذیر است و به همین دلیل، اکنون زمان اقدام فرا رسیده است.

با این حال، مشخص نیست که امضاکنندگان بیانیه خواستار چه اقداماتی هستند. مدیران عامل و/یا روسای هوش مصنوعی تقریباً هر شرکت بزرگ هوش مصنوعی، و همچنین دانشمندان مشهور از سراسر دانشگاه، از جمله کسانی هستند که امضا کردند و واضح است که هدف متوقف کردن توسعه این سیستم‌های بالقوه خطرناک نیست.

در اوایل ماه جاری، سام آلتمن، مدیر عامل OpenAI، یکی از امضاکنندگان بیانیه فوق الذکر، اولین حضور خود را در کنگره در طی جلسه استماع سنا برای بحث در مورد مقررات هوش مصنوعی انجام داد. شهادت او پس از آن که اکثریت آن را صرف ترغیب قانونگذاران به تنظیم صنعت خود کرد، خبرساز شد.

Altman's Worldcoin، پروژه‌ای که رمزارز و اثبات شخصیت را ترکیب می‌کند، اخیراً پس از جمع‌آوری 115 میلیون دلار سرمایه در سری C، به رسانه‌ها راه یافته است و مجموع بودجه خود را پس از سه دور به 240 میلیون دلار رسانده است.

منبع: https://cointelegraph.com/news/ai-experts-sign-doc-comparing-risk-of-extinction-from-ai-to-pandemics-nuclear-war