The Cry Wolf Moment Of AI Hype مفید نیست

اگرچه من فردی هستم که سناریوهای پایان بشریت را مطالعه می‌کنم، اما معتقدم «نامه‌ی تخصصی» که یک تعلیق 6 ماهه هوش مصنوعی را پیشنهاد می‌کند یا اظهارات اخیر مبنی بر اینکه خطر هوش مصنوعی در سطح همه‌گیری و خطر هسته‌ای است، هر دو بیش‌ازحد گفته می‌شوند. این عقیده وحشیانه تر که باید هوش مصنوعی را خاموش کنیم غیرمسئولانه است. هر نگرانی باید متناسب با خطراتی باشد که با آن روبرو هستیم. در حال حاضر، هیچ خطر فوری از سوی هوش مصنوعی نداریم.

هوش مصنوعی فعلی قادر به تسلط بر جامعه نیست. آنها احساساتی ندارند و سزاوار محافظت از زندگی انسانها نیستند. آنها فوق باهوش نیستند و به هیچ وجه از انسان ها پیشی نمی گیرند. در واقع آنها اصلا فکر نمی کنند. در حال حاضر، اگر AI ها داده های فراوانی داشته باشند، در کارهای خاصی مانند محاسبه و پیش بینی بسیار خوب هستند. این نگران کننده نیست، اینها ویژگی هایی هستند که این سیستم ها با طراحی دارند. وعده های هوش مصنوعی شامل حل سرطان، تغییر تولید صنعتی، مدل سازی سناریوهای آینده و مدیریت چالش های زیست محیطی است. با این حال، دلایل موجهی برای انتقاد از هوش مصنوعی فعلی برای استفاده از منابع، شفافیت، تعصب، امنیت سایبری و تأثیر آتی آن بر اشتغال وجود دارد.

هوش مصنوعی از نظر محاسباتی گران هستند - به این معنی که آنها هدر دادن بزرگی از انرژی کمیاب و فسیلی هستند. باید فوراً به این موضوع رسیدگی شود. اما مسئله وجودی نیست، بحث استفاده عقلانی از منابع است. این واقعیت که هوش مصنوعی‌هایی که به مدل‌های داده بزرگ و ناکارآمد متکی هستند برای ردیابی و بررسی توسط دانشگاه یا دولت بسیار گران می‌شوند، یک مسئله واقعی است. اما به زودی قابل تعمیر است. کنسرسیومی از موسسات دانشگاهی نخبه یا دولت ها می توانند با هم همکاری کنند و منابع محاسباتی را به روشی که برای ابررایانه انجام داده اند به اشتراک بگذارند.

مدل‌های زبان بزرگ (LLM) مدل‌های هوش مصنوعی هستند که می‌توانند متون زبان طبیعی را از مقادیر زیادی داده تولید کنند. یکی از مشکلات آن این است که این متون مستقیماً از مشارکت های فکری صادقانه دیگران مشتق شده اند. آنها در واقع دزدیده شده اند. هوش مصنوعی مولد، به‌ویژه، داده‌های مصرف‌کننده و سازمانی و همچنین محتوای خلاقانه را با نقض آشکار حق چاپ ترکیب می‌کند. این جدی است، اما نه وجودی، و علاوه بر این، اتحادیه اروپا، لابی‌گران هالیوود و ناشران «پنج بزرگ» کتاب در حال حاضر در این مورد هستند. انتظار داشته باشید که این امر باعث کاهش سرعت هوش مصنوعی شود. با نرخ کنونی، هوش مصنوعی قبل از اینکه به سنسور نزدیک شود، از داده های آموزشی خوبی برخوردار نخواهد بود.

الگوریتم‌هایی که قبلاً برای محاسبه مالیات، انتخاب فیدهای آنلاین یا زندانی کردن افراد استفاده می‌شدند، شفافیت قابل توجهی ندارند. با این حال، این مورد برای سال ها بوده است و هیچ ارتباطی با آخرین پیشرفت های هوش مصنوعی ندارد. تعصب هوش مصنوعی یک ویژگی است و یک باگ نیست. کلیشه‌سازی در واقع رویکرد اصلی است که از طریق آن چنین مدل‌هایی کار می‌کنند. جز این که تعصب در لایه‌های غیرقابل نفوذ استدلال ماشینی پنهان شده است که برای انسان‌ها چه متخصص و چه غیر متخصص گریزان است. چیزی که ما باید زیر سوال ببریم، خرد توسعه دهندگانی است که چنین سیستم هایی را توسعه داده اند، نه توانایی سیستمی که آنها ایجاد کرده اند، که مسلم است. سیستم ها به ندرت بهتر از خرد یا نیات کسانی هستند که آن را می سازند یا اجرا می کنند.

داده های آموزشی هوش مصنوعی منعکس کننده سوگیری های موجود در جامعه ای است که آن داده ها از آن جمع آوری شده است. استفاده مجدد از داده های آموزشی بد یک عمل نگران کننده است که مدل های هوش مصنوعی را در حال حاضر آلوده می کند. رویکردهای فعلی هوش مصنوعی به سادگی سوگیری را تقویت می کنند تا به سرعت به نتیجه برسید. مسلماً این برخلاف آنچه ما می خواهیم است. آنچه ما می خواهیم انجام دهیم استفاده از فناوری برای محافظت از خطای انسانی است. نگرانی در مورد خطای ماشین، استفاده بیهوده از هوش انسانی است.

علیرغم استعاره «شبکه عصبی»، هوش مصنوعی فعلی از نظر ذهنی شبیه مغز نیست. سیستم‌های هوش مصنوعی کنونی نمی‌توانند مانند انسان‌ها استدلال کنند. این خوبه. ما ممکن است واقعاً آن نوع همسویی هوش مصنوعی را که متعصبان از آن حمایت می کنند و سعی در تقلید از آن دارند، نخواهیم. ماشین ها باید با انسان ها متفاوت باشند. به این ترتیب می توانیم نقاط قوت یکدیگر را به حداکثر برسانیم. و چگونه می توانیم ماشین ها را متمایز و از هم جدا نگه داریم. ماشین ها نباید منافعی برای تراز کردن داشته باشند.

هوش مصنوعی به طور فزاینده ای یک تهدید امنیت سایبری قابل توجه به عنوان دارایی برای جنایتکاران و کشورهای متخاصم است. اما امنیت سایبری یک صنعت بالغ است که متخصصان زیادی برای مقابله با این چالش مجهز هستند. دلیلی برای خاموش کردن هوش مصنوعی به دلیل ترس از امنیت سایبری وجود ندارد.

اختلال در اشتغال به دلیل هوش مصنوعی برای سال‌ها یک موضوع سیاست‌گذاری بوده است، ابتدا با روبات‌ها و اکنون با سیستم‌های هوش مصنوعی مبتنی بر نرم‌افزار. این بدان معناست که دولت ها آماده مقابله با آن خواهند بود. مطالعه MIT Work of the Future نشان داد که نگرانی در مورد بیکاری ناشی از ربات ها اغراق آمیز است. انسان ها همیشه راه هایی برای کار پیدا کرده اند و در آینده نیز همین کار را خواهند کرد. آیا تولید با هوش مصنوعی متحول می شود؟ این در حال حاضر اتفاق می افتد، اما به شیوه ای نسبتاً کنترل شده.

گاه به گاه، هوش مصنوعی از وعده های بیش از حد در مورد عملکرد فعلی یا حوزه آینده رنج می برد. اولین زمستان های هوش مصنوعی در سال های 1974-1980 آغاز شد، زیرا دولت ایالات متحده بودجه خود را برداشت. دومین مورد از سال 1987 تا 1993 بود، زیرا هزینه ها افزایش یافت و هوش مصنوعی نتوانست به وعده های بلند خود عمل کند.

در انتظار ورود پارادایم های جدید، در دوره 2025-2030، احتمالاً وارد زمستان سوم هوش مصنوعی خواهیم شد. حداقل در مقایسه با تابستان داغ هوش مصنوعی که به ما وعده داده شده است. دلیل آن این است که، با وجود تبلیغات، به همه دلایلی که در بالا ذکر شد، مدل‌های زبان بزرگ در آستانه رسیدن به حداکثر کاربرد خود هستند و در نهایت باید با رویکردهای محاسباتی ظریف‌تر که شفاف‌تر هستند جایگزین شوند.

یکی از این نامزدها، محاسبات ابربعدی است که ماشین‌ها را کارآمدتر استدلال می‌کند، زیرا به ماشین‌ها درک معنایی، توانایی پردازش معنا و بافت پشت اطلاعات دنیای واقعی را می‌دهند. در حال حاضر، سیستم های هوش مصنوعی روابط بین کلمات و عبارات را درک نمی کنند، آنها به سادگی در حدس زدن خوب هستند. این کافی نیست. ما در نهایت به هوش مصنوعی تجسم یافته نیاز خواهیم داشت، زیرا تفکر با درک فضا گره خورده است. این قطعاً در تولید که یک بازی بسیار فیزیکی است، صادق است. همچنین به هوش مصنوعی نیاز داریم که قابلیت‌های حافظه انسانی مانند اولویت‌بندی بر اساس پیش‌زمینه برخی اطلاعات و پس‌زمینه اطلاعات دیگر را داشته باشد. فراموشی ابزاری است که انسان ها برای تفکر انتزاعی، گذر از شیوه های سازمانی منسوخ، تصمیم گیری و ماندن در لحظه از آن استفاده می کنند و صرفاً یک نقص نیست. هنوز هیچ ماشینی نمی تواند این کار را به خوبی انجام دهد.

در عین حال، ما نیاز به تنظیم داریم، اما نه این دوم. و وقتی تنظیم می کنیم، بهتر است آن را به خوبی انجام دهیم. مقررات بد هوش مصنوعی احتمالا وضعیت را بدتر می کند. بیدار کردن رگولاتورها با این چالش می‌تواند مفید باشد، اما مطمئن نیستم که نسل فعلی تنظیم‌کننده‌ها برای چنین تغییرات گسترده‌ای که برای انجام آن به خوبی مورد نیاز است، آماده باشند. این امر مستلزم محدود کردن شرکت‌های قدرتمند (احتمالاً همه شرکت‌های فهرست‌شده)، محدود کردن استفاده از هوش مصنوعی در حکمرانی است و به معنای تغییرات عظیمی در نحوه عملکرد بازارهای مصرف‌کننده در حال حاضر خواهد بود. اساساً، ما باید جامعه را دوباره سیم کشی کنیم. این ما را چند دهه زودتر از آنچه که آرزو می‌کردیم به سمت رشد مجدد سوق می‌دهد. چالش شفافیت پیرامون هوش مصنوعی ممکن است از متغیرهای کنترلی که همه نگران آن‌ها هستند، وحشتناک‌تر باشد، البته نه اینکه به هم مرتبط باشند.

علاوه بر این، هر بار که به یک معیار هوش مصنوعی می‌رسیم، نمی‌توانیم به همان اندازه نگران باشیم. ما باید انرژی خود را برای لحظات واقعاً بزرگی از خطرات آبشاری حفظ کنیم. آنها خواهند آمد و انصافاً ما آمادگی نداریم. سناریوهای آینده مورد نظر من (به سناریوهای انقراض برای سال 2075 مراجعه کنید) شامل نقض گسترده داده‌ها می‌شود که کل کشورها را برای ماه‌ها از فرآیندهای خود قفل می‌کند. من همچنین نگران هوش مصنوعی هستم که توسط گروه های جنایتکار یا بازیگران دولتی به آنها کمک می شود. بیشتر از همه، من نگران ترکیبی از هوش مصنوعی، فناوری نانو، زیست‌شناسی مصنوعی و فناوری کوانتومی هستم - هوش شبه آلی نامرئی با قابلیت ناشناخته، شاید تنها چند دهه دورتر، درست زمانی اتفاق بیفتد که جهان توسط اثرات آبشاری آب‌وهوایی نابود شود. تغییر دادن.

مدل‌های فعلی هوش مصنوعی هنوز آنقدر خوب کار نمی‌کنند که تهدیدی برای بشریت باشند. قبل از اینکه بتوانیم آنها را خاموش کنیم، به هوش مصنوعی بهتری نیاز داریم. بیش از آن، ما به توسعه دهندگان عاقل تر، شهروندان حساس تر و سیاست گذاران آگاه تر نیاز داریم. ما همچنین به مفهومی برای چگونگی تنظیم هوش مصنوعی نیاز داریم. اما این کار را می توان بدون کاهش سرعت انجام داد. این یک سفر آموزشی برای همه خواهد بود. نامه تعلیق مربوط به GPT 4 (2023) یک لحظه گریه گرگ است که تنها شباهت کمی به خطرات آبشاری که بشر در دهه های آینده با آن روبرو خواهد شد است. قرار دادن خطر هوش مصنوعی در سطح خطر همه گیر و خطر هسته ای در سال 2023 زودرس است. آیا به آنجا خواهیم رسید؟ شاید. اما گرگ گریه عواقبی دارد. اکسیژن را از بحث های آینده در مورد ترس های واقعی می مکد.

منبع: https://www.forbes.com/sites/trondarneundheim/2023/05/31/the-cry-wolf-moment-of-ai-hype-is-unhelpful/