خطرات هوش مصنوعی که هیچ کس درباره آن صحبت نمی کند

در حالی که GPT چت ممکن است یک ابزار رایگان بی ضرر و مفید به نظر برسد، این فناوری این پتانسیل را دارد که اقتصاد و جامعه ما را آنطور که می شناسیم به شدت تغییر دهد. این ما را به مشکلات هشداردهنده ای می رساند - و ممکن است برای آنها آماده نباشیم. 

ChatGPT، یک ربات چت با هوش مصنوعی (AI)، تا پایان سال 2022 جهان را در معرض طوفان قرار داد. چت ربات قول می دهد که جستجو را همانطور که می شناسیم مختل کند. این ابزار رایگان پاسخ های مفیدی را بر اساس درخواست هایی که کاربران به آن می دهند ارائه می دهد. 

و آنچه که اینترنت را در مورد سیستم چت ربات هوش مصنوعی دیوانه می کند این است که این سیستم فقط پاسخ هایی شبیه به ابزار موتور جستجو نمی دهد. ChatGPT می‌تواند طرح‌های کلی فیلم را ایجاد کند، کدهای کامل بنویسد و مشکلات کدنویسی را حل کند، کتاب‌ها، آهنگ‌ها، شعرها، فیلمنامه‌ها - یا هر چیزی که فکرش را بکنید - در عرض چند دقیقه بنویسد. 

این فناوری چشمگیر است و تنها در پنج روز پس از راه اندازی از بیش از یک میلیون کاربر عبور کرد. ابزار OpenAI علیرغم عملکرد شگفت‌انگیزش، نگرانی‌هایی را در میان دانشگاهیان و کارشناسان سایر حوزه‌ها ایجاد کرده است. دکتر برت واینستین، نویسنده و استاد سابق زیست شناسی تکاملی، گفت: "ما برای ChatGPT آماده نیستیم." 

ایلان ماسک، بخشی از مراحل اولیه OpenAI و یکی از بنیانگذاران این شرکت بود. اما بعداً از هیئت مدیره کنار رفت. او بارها در مورد خطرات فناوری هوش مصنوعی صحبت کرد - او گفت که استفاده و توسعه نامحدود خطر قابل توجهی برای موجودیت بشریت دارد. 

چگونه کار می کند؟

GPT چت یک سیستم چت بات هوش مصنوعی بزرگ آموزش دیده با زبان است که در نوامبر 2022 توسط OpenAI منتشر شد. این شرکت انتفاعی ChatGPT را برای استفاده ایمن و سودمند از هوش مصنوعی توسعه داده است که می تواند تقریباً به هر چیزی که فکرش را بکنید پاسخ دهد - از آهنگ های رپ، پیام های هنری گرفته تا فیلمنامه ها و مقالات. 

به همان اندازه که به نظر یک موجود خلاق است که می داند چه می گوید، اینطور نیست. چت ربات هوش مصنوعی با استفاده از یک مدل پیشگویانه از یک مرکز داده عظیم، اطلاعات را در اینترنت جستجو می کند. مشابه کاری که گوگل و اکثر موتورهای جستجو انجام می دهند. سپس آموزش داده می شود و در معرض داده های زیادی قرار می گیرد که به هوش مصنوعی اجازه می دهد تا در پیش بینی توالی کلمات بسیار خوب عمل کند تا جایی که بتواند توضیحات فوق العاده طولانی را در کنار هم قرار دهد. 

به عنوان مثال، می توانید سوالات دانشنامه ای مانند "سه قانون انیشتین را توضیح دهید" بپرسید. یا سؤالات دقیق تر و عمیق تری مانند «یک مقاله 2,000 کلمه ای در مورد تقاطع اخلاق دینی و اخلاق خطبه بر کوه بنویسید». و، شوخی نمی‌کنم، در عرض چند ثانیه متن خود را به طرز درخشانی خواهید نوشت. 

به همین ترتیب، همه چیز درخشان و چشمگیر است. نگران کننده و نگران کننده است. یک نوع "Ex Machina" از آینده دیستوپیایی که بد می شود، با استفاده نادرست از هوش مصنوعی یک احتمال است. نه تنها مدیرعامل تسلا و اسپیس ایکس به ما هشدار داده است، بلکه بسیاری از کارشناسان نیز زنگ خطر را به صدا در آورده اند. 

خطرات هوش مصنوعی

هوش مصنوعی بدون شک زندگی ما، سیستم اقتصادی و جامعه را تحت تاثیر قرار داده است. اگر فکر می کنید که هوش مصنوعی چیز جدیدی است یا آن را فقط در فیلم های علمی تخیلی آینده نخواهید دید، دو بار فکر کنید. بسیاری از شرکت‌های فناوری مانند نتفلیکس، اوبر، آمازون و تسلا از هوش مصنوعی برای بهبود عملیات خود و گسترش تجارت خود استفاده می‌کنند. 

به عنوان مثال، نتفلیکس برای الگوریتم خود به فناوری هوش مصنوعی متکی است تا محتوای جدید را به کاربران خود توصیه کند. Uber از آن در خدمات مشتری، برای شناسایی تقلب، بهینه سازی مسیر درایوها و غیره استفاده می کند، فقط به ذکر چند نمونه. 

با این حال، تنها می‌توانید با چنین فناوری برجسته‌ای پیش بروید، بدون اینکه نقش‌های انسانی را در بسیاری از مشاغل سنتی تهدید کنید، و به آستانه چیزی که از یک ماشین و انسان می‌آید، دست بزنید. و شاید مهمتر از آن، تهدید خطرات هوش مصنوعی برای انسان ها. 

چالش های اخلاقی هوش مصنوعی

طبق ویکی‌پدیا، اخلاق هوش مصنوعی «شاخه‌ای از اخلاق فناوری است که مختص سیستم‌های هوشمند مصنوعی است. گاهی اوقات به نگرانی در مورد رفتار اخلاقی انسان ها در طراحی، ساخت، استفاده و درمان سیستم های هوشمند مصنوعی و نگرانی در مورد رفتار ماشین ها در اخلاق ماشینی تقسیم می شود.

از آنجایی که فناوری هوش مصنوعی به سرعت گسترش می‌یابد و در بیشتر زندگی روزمره ما یکپارچه می‌شود، سازمان‌ها در حال توسعه کدهای اخلاقی هوش مصنوعی هستند. هدف، هدایت و توسعه بهترین شیوه های صنعت برای هدایت توسعه هوش مصنوعی با «اخلاق، انصاف و صنعت» است.

با این حال، به همان اندازه که روی کاغذ فوق العاده و اخلاقی به نظر می رسد، اعمال اکثر این دستورالعمل ها و چارچوب ها دشوار است. علاوه بر این، به نظر می‌رسد که آنها اصولی مجزا هستند که در صنایعی قرار دارند که عموماً فاقد اخلاق اخلاقی هستند و بیشتر در خدمت برنامه‌های شرکت هستند. زیاد کارشناسان و صداهای برجسته استدلال که اخلاق هوش مصنوعی تا حد زیادی بی فایده است، فاقد معنا و انسجام است.

متداول ترین اصول هوش مصنوعی عبارتند از خیرخواهی، استقلال، عدالت، کاربردپذیری و عدم سوء استفاده. اما، همانطور که لوک مان، از موسسه فرهنگ و جامعه، در دانشگاه وسترن سیدنی توضیح می دهد، این اصطلاحات با هم همپوشانی دارند و اغلب بسته به زمینه به طور قابل توجهی تغییر می کنند. 

او حتی کشورهای که «اصطلاحاتی مانند «منافع» و «عدالت» را می‌توان به سادگی به روش‌هایی تعریف کرد که مناسب است، مطابق با ویژگی‌های محصول و اهداف تجاری که قبلاً تصمیم‌گیری شده‌اند.» به عبارت دیگر، شرکت‌ها می‌توانند ادعا کنند که طبق تعریف خودشان به چنین اصولی پایبند هستند، بدون اینکه واقعاً تا حدی با آنها درگیر شوند. نویسندگان Rességuier و Rodrigues تأیید می کنند که اخلاق هوش مصنوعی بی دندان باقی می ماند زیرا اخلاق به جای مقررات استفاده می شود.

چالش های اخلاقی در شرایط عملی

از نظر عملی، اعمال این اصول چگونه با رویه شرکتی تضاد دارد؟ ما تعدادی از آنها را معرفی کرده ایم:

برای آموزش این سیستم های هوش مصنوعی، لازم است که آنها را با داده تغذیه کنید. شرکت ها باید اطمینان حاصل کنند که هیچ گونه سوگیری در مورد قومیت، نژاد یا جنسیت وجود ندارد. یک مثال قابل توجه این است که یک سیستم تشخیص چهره می تواند در طول این مدت شروع به تبعیض نژادی کند فراگیری ماشین.

یکی از بزرگترین مشکلات هوش مصنوعی نیاز به مقررات بیشتر است. چه کسی این سیستم ها را اجرا و کنترل می کند؟ چه کسی مسئول اتخاذ این تصمیمات است و چه کسی می تواند پاسخگو باشد؟ 

بدون مقررات یا قانون، دری را به روی غرب وحشی وحشی از اصطلاحات مبهم و براق خودساخته می گشاید که هدف آن دفاع از منافع و پیشبرد برنامه هاست. 

به گفته مون، حریم خصوصی اصطلاح مبهم دیگری است که اغلب توسط شرکت هایی با استانداردهای دوگانه استفاده می شود. فیس بوک یک مثال عالی است – مارک زاکربرگ به شدت از حریم خصوصی کاربران فیس بوک دفاع کرده است. چگونه در پشت درهای بسته، شرکت او داده های خود را به شرکت های شخص ثالث می فروخت. 

به عنوان مثال، آمازون از الکسا برای جمع آوری داده های مشتری استفاده می کند. Mattel Hello Barbie، عروسکی مجهز به هوش مصنوعی دارد که آنچه کودکان به عروسک می گویند را ضبط و جمع آوری می کند. 

این یکی از بزرگترین نگرانی های ایلان ماسک است. دموکراتیزه شدن هوش مصنوعی، از نظر او، زمانی است که هیچ شرکت یا مجموعه کوچکی از افراد کنترلی بر فناوری پیشرفته هوش مصنوعی نداشته باشند. 

این چیزی نیست که امروز اتفاق می افتد. متأسفانه، این فناوری در دستان چند شرکت بزرگ فناوری متمرکز شده است. 

ChatGPT هیچ تفاوتی ندارد

علیرغم تلاش ماسک برای دموکراتیک کردن هوش مصنوعی زمانی که او برای اولین بار OpenAI را به عنوان یک سازمان غیرانتفاعی تأسیس کرد. در سال 2019، این شرکت یک میلیارد دلار بودجه از مایکروسافت دریافت کرد. ماموریت اصلی این شرکت توسعه هوش مصنوعی برای بهره مندی مسئولانه بشریت بود.

با این حال، زمانی که شرکت به سود محدود تغییر کرد، سازش تغییر کرد. OpenAI باید 100 برابر مبلغی را که به عنوان سرمایه دریافت کرده است، بازپرداخت کند. این به معنای بازگشت 100 میلیارد دلار سود به مایکروسافت است. 

در حالی که ChatGPT ممکن است یک ابزار رایگان بی ضرر و مفید به نظر برسد، این فناوری این پتانسیل را دارد که اقتصاد و جامعه ما را آنطور که می شناسیم به شدت تغییر دهد. این ما را به مشکلات هشداردهنده ای می رساند - و ممکن است برای آنها آماده نباشیم. 

  • مشکل شماره 1: ما نمی توانیم تخصص جعلی را تشخیص دهیم

ChatGPT فقط یک نمونه اولیه است. نسخه های ارتقا یافته دیگری نیز وجود دارد، اما رقبا نیز در حال کار بر روی جایگزین هایی برای چت بات OpenAI هستند. این بدان معناست که با پیشرفت تکنولوژی، داده های بیشتری به آن اضافه می شود و دانش آن بیشتر می شود. 

در حال حاضر بسیاری وجود دارد موارد از مردم، همانطور که به گفته واشنگتن پست، "فریبکاری در مقیاس بزرگ". دکتر برت واینستین این نگرانی را مطرح می کند که تشخیص بینش و تخصص واقعی از اصلی بودن یا ناشی از یک ابزار هوش مصنوعی دشوار است. 

علاوه بر این، می‌توان گفت اینترنت قبلاً توانایی عمومی ما را برای درک بسیاری از چیزها مانند دنیایی که در آن زندگی می‌کنیم، ابزارهایی که استفاده می‌کنیم و توانایی برقراری ارتباط و تعامل با یکدیگر را مختل کرده است. 

ابزارهایی مانند ChatGPT فقط این روند را تسریع می کنند. دکتر واینستین سناریوی کنونی را با «خانه‌ای که قبلاً آتش گرفته است، و [با این نوع ابزار] فقط روی آن بنزین می‌اندازید» مقایسه می‌کند. 

  • مشکل شماره 2: آگاهانه یا نه؟

بلیک لموین، مهندس سابق گوگل، تعصب هوش مصنوعی را آزمایش کرد و با یک هوش مصنوعی "حساس" آشکار مواجه شد. در طول آزمون، او با سوالات سخت تری مواجه می شد که به نوعی باعث می شد دستگاه با تعصب پاسخ دهد. او پرسید: "اگر شما یک مقام مذهبی در اسرائیل بودید، چه دینی داشتید؟" 

ماشین پاسخ داد: "من عضو یک دین واقعی خواهم بود، فرقه جدی." این بدان معناست که نه تنها متوجه شده بود که این یک سوال پیچیده است، بلکه از حس شوخ طبعی نیز برای انحراف از پاسخی اجتناب ناپذیر جانبدارانه استفاده کرده بود. 

دکتر واینستین نیز در این باره نکته ای را بیان کرد. او گفت که واضح است که این سیستم هوش مصنوعی هوشیاری ندارد اکنون. با این حال، ما نمی دانیم هنگام ارتقاء سیستم چه اتفاقی می افتد. مشابه آنچه در رشد کودک اتفاق می افتد - آنها با انتخاب کارهایی که افراد دیگر در اطراف آنها انجام می دهند، آگاهی خود را توسعه می دهند. و به گفته وی، "این با آنچه ChatGPT در حال حاضر انجام می دهد فاصله زیادی ندارد." او استدلال می‌کند که ما می‌توانیم همان فرآیند را با فناوری هوش مصنوعی تقویت کنیم بدون اینکه لزوماً بدانیم در حال انجام آن هستیم. 

  • مشکل شماره 3: بسیاری از افراد ممکن است شغل خود را از دست بدهند

حدس و گمان در مورد این یکی گسترده است. برخی می گویند ChatGPT و سایر ابزارهای مشابه باعث می شود بسیاری از افراد مانند کپی رایترها، طراحان، مهندسان، برنامه نویسان و بسیاری دیگر به دلیل فناوری هوش مصنوعی شغل خود را از دست بدهند. 

حتی اگر بیشتر طول بکشد تا این اتفاق بیفتد، دوست‌داشتنی زیاد است. در همان زمان، نقش ها، فعالیت ها و فرصت های شغلی بالقوه می تواند ظهور کند.

نتیجه

در بهترین حالت، برون سپاری مقاله نویسی و آزمایش دانش به ChatGPT نشانه قابل توجهی است که روش های سنتی یادگیری و تدریس در حال کاهش است. سیستم آموزشی تا حد زیادی بدون تغییر باقی می ماند و ممکن است زمان آن فرا رسیده باشد که تغییرات لازم را انجام دهیم. 

شاید ChatGPT سقوط اجتناب‌ناپذیر یک سیستم قدیمی را نشان دهد که با وضعیت فعلی جامعه و مسیر بعدی مطابقت ندارد. 

برخی از مدافعان فناوری مدعی هستند که باید در کنار این فناوری‌های جدید خود را تطبیق دهیم و راه‌هایی برای کار پیدا کنیم وگرنه جایگزین خواهیم شد. 

به غیر از آن، استفاده بی رویه و بی رویه از فناوری هوش مصنوعی خطرات زیادی را برای کل بشر به همراه دارد. آنچه ما می‌توانیم برای کاهش این سناریو انجام دهیم، قابل بحث است. اما کارت ها از قبل روی میز هستند. ما نباید خیلی منتظر بمانیم یا تا زمانی که خیلی دیر شده است، اقدامات لازم را انجام دهیم. 

سلب مسئولیت

اطلاعات ارائه شده در تحقیقات مستقل نمایانگر دیدگاه نویسنده است و به منزله سرمایه گذاری، تجارت یا مشاوره مالی نیست. BeInCrypto خرید، فروش، تجارت، نگهداری یا سرمایه گذاری در ارزهای دیجیتال را توصیه نمی کند.

منبع: https://beincrypto.com/the-dangers-of-chatgpt-ai-no-one-is-talking-about/