ده ها متخصص هوش مصنوعی (AI) از جمله مدیران عامل OpenAI، Google DeepMind و Anthropic اخیرا بیانیه ای را امضا کردند که توسط مرکز ایمنی هوش مصنوعی (CAIS) منتشر شده است.
ما فقط یک بیانیه منتشر کردیم:
کاهش خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماری های همه گیر و جنگ هسته ای یک اولویت جهانی باشد.
امضاکنندگان عبارتند از: Hinton، Bengio، Altman، Hassabis، Song و غیره.https://t.co/N9f6hs4bpa
(1 / 6)
— دن هندریکس (@DanHendrycks) ممکن است 30، 2023
بیانیه شامل یک جمله است:
کاهش خطر انقراض ناشی از هوش مصنوعی باید در کنار سایر خطرات اجتماعی مانند بیماری های همه گیر و جنگ هسته ای یک اولویت جهانی باشد.
در میان امضاکنندگان این سند، یک "چه کسی" واقعی از افراد برجسته هوش مصنوعی، از جمله "پدرخوانده" هوش مصنوعی، جفری هینتون، وجود دارد. استوارت راسل دانشگاه کالیفرنیا، برکلی. و لکس فریدمن از موسسه فناوری ماساچوست. نوازنده گریمز نیز یکی از امضاکنندگان است که در دسته «دیگر چهرههای برجسته» فهرست شده است.
مرتبط: نوازنده گریمز مایل است 50 درصد حق امتیاز را با موسیقی تولید شده توسط هوش مصنوعی تقسیم کند
در حالی که این بیانیه ممکن است در ظاهر بی ضرر به نظر برسد، پیام اصلی تا حدودی بحث برانگیز در جامعه هوش مصنوعی است.
تعداد به ظاهر رو به رشدی از کارشناسان بر این باورند که فناوریهای کنونی ممکن است به شکل اجتناب ناپذیری منجر به ظهور یا توسعه یک سیستم هوش مصنوعی شود که میتواند تهدیدی وجودی برای گونهی انسان باشد.
با این حال، نظرات آنها توسط گروهی از کارشناسان با نظرات کاملاً متضاد مخالفت می شود. برای مثال، یان لکون، دانشمند ارشد هوش مصنوعی متا، بارها اشاره کرده است که لزوماً باور ندارد که هوش مصنوعی غیرقابل کنترل شود.
هوش مصنوعی ابرانسان در صدر فهرست خطرات وجودی قرار ندارد.
تا حد زیادی به این دلیل که هنوز وجود ندارد.تا زمانی که یک طراحی اساسی برای هوش مصنوعی حتی در سطح سگ (چه رسد به سطح انسانی) نداشته باشیم، بحث در مورد چگونگی ایمن کردن آن زودهنگام است. https://t.co/ClkZxfofV9
— Yann LeCun (@ylecun) ممکن است 30، 2023
برای او و دیگرانی که با لفاظی «انقراض» مخالف هستند، مانند اندرو نگ، یکی از بنیانگذاران Google Brain و دانشمند ارشد سابق بایدو، هوش مصنوعی مشکل نیست، بلکه پاسخ است.
در طرف دیگر بحث، کارشناسانی مانند هینتون و کانر لیهی، مدیرعامل Conjecture معتقدند که هوش مصنوعی در سطح انسانی اجتنابناپذیر است و به همین دلیل، اکنون زمان اقدام فرا رسیده است.
روسای تمام آزمایشگاههای اصلی هوش مصنوعی این نامه را امضا کردند که به صراحت خطر انقراض ناشی از AGI را تایید کرد.
گامی باورنکردنی به جلو، به دن به خاطر کار باورنکردنی اش در کنار هم گذاشتن آن تبریک می گویم و از همه امضاکنندگان برای انجام سهم خود برای آینده ای بهتر تشکر می کنیم! https://t.co/KDkqWvdJcH
— کانر لیهی (@NPCollapse) ممکن است 30، 2023
با این حال، مشخص نیست که امضاکنندگان بیانیه خواستار چه اقداماتی هستند. مدیران عامل و/یا روسای هوش مصنوعی تقریباً هر شرکت بزرگ هوش مصنوعی، و همچنین دانشمندان مشهور از سراسر دانشگاه، از جمله کسانی هستند که امضا کردند و واضح است که هدف متوقف کردن توسعه این سیستمهای بالقوه خطرناک نیست.
در اوایل ماه جاری، سام آلتمن، مدیر عامل OpenAI، یکی از امضاکنندگان بیانیه فوق الذکر، اولین حضور خود را در کنگره در طی جلسه استماع سنا برای بحث در مورد مقررات هوش مصنوعی انجام داد. شهادت او پس از آن که اکثریت آن را صرف ترغیب قانونگذاران به تنظیم صنعت خود کرد، خبرساز شد.
Altman's Worldcoin، پروژهای که رمزارز و اثبات شخصیت را ترکیب میکند، اخیراً پس از جمعآوری 115 میلیون دلار سرمایه در سری C، به رسانهها راه یافته است و مجموع بودجه خود را پس از سه دور به 240 میلیون دلار رسانده است.
منبع: https://cointelegraph.com/news/ai-experts-sign-doc-comparing-risk-of-extinction-from-ai-to-pandemics-nuclear-war