اگرچه من فردی هستم که سناریوهای پایان بشریت را مطالعه میکنم، اما معتقدم «نامهی تخصصی» که یک تعلیق 6 ماهه هوش مصنوعی را پیشنهاد میکند یا اظهارات اخیر مبنی بر اینکه خطر هوش مصنوعی در سطح همهگیری و خطر هستهای است، هر دو بیشازحد گفته میشوند. این عقیده وحشیانه تر که باید هوش مصنوعی را خاموش کنیم غیرمسئولانه است. هر نگرانی باید متناسب با خطراتی باشد که با آن روبرو هستیم. در حال حاضر، هیچ خطر فوری از سوی هوش مصنوعی نداریم.
هوش مصنوعی فعلی قادر به تسلط بر جامعه نیست. آنها احساساتی ندارند و سزاوار محافظت از زندگی انسانها نیستند. آنها فوق باهوش نیستند و به هیچ وجه از انسان ها پیشی نمی گیرند. در واقع آنها اصلا فکر نمی کنند. در حال حاضر، اگر AI ها داده های فراوانی داشته باشند، در کارهای خاصی مانند محاسبه و پیش بینی بسیار خوب هستند. این نگران کننده نیست، اینها ویژگی هایی هستند که این سیستم ها با طراحی دارند. وعده های هوش مصنوعی شامل حل سرطان، تغییر تولید صنعتی، مدل سازی سناریوهای آینده و مدیریت چالش های زیست محیطی است. با این حال، دلایل موجهی برای انتقاد از هوش مصنوعی فعلی برای استفاده از منابع، شفافیت، تعصب، امنیت سایبری و تأثیر آتی آن بر اشتغال وجود دارد.
هوش مصنوعی از نظر محاسباتی گران هستند - به این معنی که آنها هدر دادن بزرگی از انرژی کمیاب و فسیلی هستند. باید فوراً به این موضوع رسیدگی شود. اما مسئله وجودی نیست، بحث استفاده عقلانی از منابع است. این واقعیت که هوش مصنوعیهایی که به مدلهای داده بزرگ و ناکارآمد متکی هستند برای ردیابی و بررسی توسط دانشگاه یا دولت بسیار گران میشوند، یک مسئله واقعی است. اما به زودی قابل تعمیر است. کنسرسیومی از موسسات دانشگاهی نخبه یا دولت ها می توانند با هم همکاری کنند و منابع محاسباتی را به روشی که برای ابررایانه انجام داده اند به اشتراک بگذارند.
مدلهای زبان بزرگ (LLM) مدلهای هوش مصنوعی هستند که میتوانند متون زبان طبیعی را از مقادیر زیادی داده تولید کنند. یکی از مشکلات آن این است که این متون مستقیماً از مشارکت های فکری صادقانه دیگران مشتق شده اند. آنها در واقع دزدیده شده اند. هوش مصنوعی مولد، بهویژه، دادههای مصرفکننده و سازمانی و همچنین محتوای خلاقانه را با نقض آشکار حق چاپ ترکیب میکند. این جدی است، اما نه وجودی، و علاوه بر این، اتحادیه اروپا، لابیگران هالیوود و ناشران «پنج بزرگ» کتاب در حال حاضر در این مورد هستند. انتظار داشته باشید که این امر باعث کاهش سرعت هوش مصنوعی شود. با نرخ کنونی، هوش مصنوعی قبل از اینکه به سنسور نزدیک شود، از داده های آموزشی خوبی برخوردار نخواهد بود.
الگوریتمهایی که قبلاً برای محاسبه مالیات، انتخاب فیدهای آنلاین یا زندانی کردن افراد استفاده میشدند، شفافیت قابل توجهی ندارند. با این حال، این مورد برای سال ها بوده است و هیچ ارتباطی با آخرین پیشرفت های هوش مصنوعی ندارد. تعصب هوش مصنوعی یک ویژگی است و یک باگ نیست. کلیشهسازی در واقع رویکرد اصلی است که از طریق آن چنین مدلهایی کار میکنند. جز این که تعصب در لایههای غیرقابل نفوذ استدلال ماشینی پنهان شده است که برای انسانها چه متخصص و چه غیر متخصص گریزان است. چیزی که ما باید زیر سوال ببریم، خرد توسعه دهندگانی است که چنین سیستم هایی را توسعه داده اند، نه توانایی سیستمی که آنها ایجاد کرده اند، که مسلم است. سیستم ها به ندرت بهتر از خرد یا نیات کسانی هستند که آن را می سازند یا اجرا می کنند.
داده های آموزشی هوش مصنوعی منعکس کننده سوگیری های موجود در جامعه ای است که آن داده ها از آن جمع آوری شده است. استفاده مجدد از داده های آموزشی بد یک عمل نگران کننده است که مدل های هوش مصنوعی را در حال حاضر آلوده می کند. رویکردهای فعلی هوش مصنوعی به سادگی سوگیری را تقویت می کنند تا به سرعت به نتیجه برسید. مسلماً این برخلاف آنچه ما می خواهیم است. آنچه ما می خواهیم انجام دهیم استفاده از فناوری برای محافظت از خطای انسانی است. نگرانی در مورد خطای ماشین، استفاده بیهوده از هوش انسانی است.
علیرغم استعاره «شبکه عصبی»، هوش مصنوعی فعلی از نظر ذهنی شبیه مغز نیست. سیستمهای هوش مصنوعی کنونی نمیتوانند مانند انسانها استدلال کنند. این خوبه. ما ممکن است واقعاً آن نوع همسویی هوش مصنوعی را که متعصبان از آن حمایت می کنند و سعی در تقلید از آن دارند، نخواهیم. ماشین ها باید با انسان ها متفاوت باشند. به این ترتیب می توانیم نقاط قوت یکدیگر را به حداکثر برسانیم. و چگونه می توانیم ماشین ها را متمایز و از هم جدا نگه داریم. ماشین ها نباید منافعی برای تراز کردن داشته باشند.
هوش مصنوعی به طور فزاینده ای یک تهدید امنیت سایبری قابل توجه به عنوان دارایی برای جنایتکاران و کشورهای متخاصم است. اما امنیت سایبری یک صنعت بالغ است که متخصصان زیادی برای مقابله با این چالش مجهز هستند. دلیلی برای خاموش کردن هوش مصنوعی به دلیل ترس از امنیت سایبری وجود ندارد.
اختلال در اشتغال به دلیل هوش مصنوعی برای سالها یک موضوع سیاستگذاری بوده است، ابتدا با روباتها و اکنون با سیستمهای هوش مصنوعی مبتنی بر نرمافزار. این بدان معناست که دولت ها آماده مقابله با آن خواهند بود. مطالعه MIT Work of the Future نشان داد که نگرانی در مورد بیکاری ناشی از ربات ها اغراق آمیز است. انسان ها همیشه راه هایی برای کار پیدا کرده اند و در آینده نیز همین کار را خواهند کرد. آیا تولید با هوش مصنوعی متحول می شود؟ این در حال حاضر اتفاق می افتد، اما به شیوه ای نسبتاً کنترل شده.
گاه به گاه، هوش مصنوعی از وعده های بیش از حد در مورد عملکرد فعلی یا حوزه آینده رنج می برد. اولین زمستان های هوش مصنوعی در سال های 1974-1980 آغاز شد، زیرا دولت ایالات متحده بودجه خود را برداشت. دومین مورد از سال 1987 تا 1993 بود، زیرا هزینه ها افزایش یافت و هوش مصنوعی نتوانست به وعده های بلند خود عمل کند.
در انتظار ورود پارادایم های جدید، در دوره 2025-2030، احتمالاً وارد زمستان سوم هوش مصنوعی خواهیم شد. حداقل در مقایسه با تابستان داغ هوش مصنوعی که به ما وعده داده شده است. دلیل آن این است که، با وجود تبلیغات، به همه دلایلی که در بالا ذکر شد، مدلهای زبان بزرگ در آستانه رسیدن به حداکثر کاربرد خود هستند و در نهایت باید با رویکردهای محاسباتی ظریفتر که شفافتر هستند جایگزین شوند.
یکی از این نامزدها، محاسبات ابربعدی است که ماشینها را کارآمدتر استدلال میکند، زیرا به ماشینها درک معنایی، توانایی پردازش معنا و بافت پشت اطلاعات دنیای واقعی را میدهند. در حال حاضر، سیستم های هوش مصنوعی روابط بین کلمات و عبارات را درک نمی کنند، آنها به سادگی در حدس زدن خوب هستند. این کافی نیست. ما در نهایت به هوش مصنوعی تجسم یافته نیاز خواهیم داشت، زیرا تفکر با درک فضا گره خورده است. این قطعاً در تولید که یک بازی بسیار فیزیکی است، صادق است. همچنین به هوش مصنوعی نیاز داریم که قابلیتهای حافظه انسانی مانند اولویتبندی بر اساس پیشزمینه برخی اطلاعات و پسزمینه اطلاعات دیگر را داشته باشد. فراموشی ابزاری است که انسان ها برای تفکر انتزاعی، گذر از شیوه های سازمانی منسوخ، تصمیم گیری و ماندن در لحظه از آن استفاده می کنند و صرفاً یک نقص نیست. هنوز هیچ ماشینی نمی تواند این کار را به خوبی انجام دهد.
در عین حال، ما نیاز به تنظیم داریم، اما نه این دوم. و وقتی تنظیم می کنیم، بهتر است آن را به خوبی انجام دهیم. مقررات بد هوش مصنوعی احتمالا وضعیت را بدتر می کند. بیدار کردن رگولاتورها با این چالش میتواند مفید باشد، اما مطمئن نیستم که نسل فعلی تنظیمکنندهها برای چنین تغییرات گستردهای که برای انجام آن به خوبی مورد نیاز است، آماده باشند. این امر مستلزم محدود کردن شرکتهای قدرتمند (احتمالاً همه شرکتهای فهرستشده)، محدود کردن استفاده از هوش مصنوعی در حکمرانی است و به معنای تغییرات عظیمی در نحوه عملکرد بازارهای مصرفکننده در حال حاضر خواهد بود. اساساً، ما باید جامعه را دوباره سیم کشی کنیم. این ما را چند دهه زودتر از آنچه که آرزو میکردیم به سمت رشد مجدد سوق میدهد. چالش شفافیت پیرامون هوش مصنوعی ممکن است از متغیرهای کنترلی که همه نگران آنها هستند، وحشتناکتر باشد، البته نه اینکه به هم مرتبط باشند.
علاوه بر این، هر بار که به یک معیار هوش مصنوعی میرسیم، نمیتوانیم به همان اندازه نگران باشیم. ما باید انرژی خود را برای لحظات واقعاً بزرگی از خطرات آبشاری حفظ کنیم. آنها خواهند آمد و انصافاً ما آمادگی نداریم. سناریوهای آینده مورد نظر من (به سناریوهای انقراض برای سال 2075 مراجعه کنید) شامل نقض گسترده دادهها میشود که کل کشورها را برای ماهها از فرآیندهای خود قفل میکند. من همچنین نگران هوش مصنوعی هستم که توسط گروه های جنایتکار یا بازیگران دولتی به آنها کمک می شود. بیشتر از همه، من نگران ترکیبی از هوش مصنوعی، فناوری نانو، زیستشناسی مصنوعی و فناوری کوانتومی هستم - هوش شبه آلی نامرئی با قابلیت ناشناخته، شاید تنها چند دهه دورتر، درست زمانی اتفاق بیفتد که جهان توسط اثرات آبشاری آبوهوایی نابود شود. تغییر دادن.
مدلهای فعلی هوش مصنوعی هنوز آنقدر خوب کار نمیکنند که تهدیدی برای بشریت باشند. قبل از اینکه بتوانیم آنها را خاموش کنیم، به هوش مصنوعی بهتری نیاز داریم. بیش از آن، ما به توسعه دهندگان عاقل تر، شهروندان حساس تر و سیاست گذاران آگاه تر نیاز داریم. ما همچنین به مفهومی برای چگونگی تنظیم هوش مصنوعی نیاز داریم. اما این کار را می توان بدون کاهش سرعت انجام داد. این یک سفر آموزشی برای همه خواهد بود. نامه تعلیق مربوط به GPT 4 (2023) یک لحظه گریه گرگ است که تنها شباهت کمی به خطرات آبشاری که بشر در دهه های آینده با آن روبرو خواهد شد است. قرار دادن خطر هوش مصنوعی در سطح خطر همه گیر و خطر هسته ای در سال 2023 زودرس است. آیا به آنجا خواهیم رسید؟ شاید. اما گرگ گریه عواقبی دارد. اکسیژن را از بحث های آینده در مورد ترس های واقعی می مکد.
منبع: https://www.forbes.com/sites/trondarneundheim/2023/05/31/the-cry-wolf-moment-of-ai-hype-is-unhelpful/