اخلاق هوش مصنوعی و تلقیح روانی ناشی از هوش مصنوعی برای کمک به انسان ها با اطلاعات نادرست

ما در برابر انبوه اطلاعات نادرست و اطلاعات نادرست چه خواهیم کرد؟

همه چیز با گذشت روز بدتر و بدتر می شود.

شاید هوش مصنوعی (AI) بتواند به ما کمک کند. بله، درست است، شاید بتوانیم از کاربردهای سودمند هوش مصنوعی برای مقابله با سونامی بی امان اطلاعات نادرست و اطلاعات نادرست خود استفاده کنیم. شاید عاقلانه باشد که این کار را انجام دهیم. هر راه حل بالقوه ای شایسته پیگیری به نظر می رسد.

به‌عنوان کنار، می‌خواهم فوراً تصدیق کنم و توجه داشته باشم که هوش مصنوعی بدون شک همچنین شما نیز بخشی از مشکل باشید شکی نیست که انسان ها می توانند به راحتی از هوش مصنوعی برای تولید اطلاعات نادرست و اطلاعات نادرست استفاده کنند. علاوه بر این، هوش مصنوعی می‌تواند به صورت موذیانه برای ایجاد اطلاعات نادرست و اطلاعات نادرست به‌طور شگفت‌انگیزی معتبر به نظر برسد و انسان‌ها را فریب دهد تا تصور کنند اطلاعات ارائه‌شده به‌طور فریبنده‌ای دقیق و واقعی هستند. چهره کاملاً غمگینی از آنچه هوش مصنوعی روی میز آورده است. ما در پایان این بحث به این معمای منفی باز خواهیم گشت.

در حال حاضر، بیایید صورتک های خود را به تن کنیم و بررسی کنیم که هوش مصنوعی چگونه برای به زانو در آوردن اطلاعات نادرست و نادرست مفید است. یکی از جریان‌های پنهان مهم این است که همه اینها به عناصر حیاتی اخلاق هوش مصنوعی مرتبط می‌شوند. پوشش ستون من از اخلاق هوش مصنوعی و هوش مصنوعی اخلاقی ادامه دارد و گسترده است، از جمله پیوند اینجا و پیوند اینجا، فقط به نام چند.

این روش‌های اساسی را در نظر بگیرید که هوش مصنوعی می‌تواند متحد مفیدی در جنگ علیه اطلاعات نادرست و اطلاعات نادرست باشد:

  • توقف در شروع: هوش مصنوعی را می توان برای شناسایی و تلاش برای حذف اطلاعات نادرست و اطلاعات نادرست قبل از انتشار استفاده کرد.
  • فیلتر قبل از دیدن: از هوش مصنوعی می توان برای فیلتر کردن اطلاعات نادرست و نادرست استفاده کرد تا دیگر نگران دیدن آن نباشید.
  • شما را برای مصونیت آماده کنید: هوش مصنوعی می تواند برای تقویت آمادگی و توانایی شما برای مقابله با اطلاعات نادرست و اطلاعات نادرست (که تا حدودی به طور رسمی به عنوان نوعی تلقیح روانی شناخته می شود) استفاده شود.
  • دیگر

اولین نکته فهرست شده مستلزم تلاش برای توقف اطلاعات نادرست و اطلاعات نادرست در اولین لحظه ممکن، قبل از ورود محتوا به جهان است.

این یک رویکرد بسیار مشکل ساز است. برخی به شدت استدلال می کنند که این ممکن است یک تلاش برادر بزرگ برای سرکوب آزادی بیان باشد. این هوش مصنوعی تا کجا می‌تواند پیش برود؟ آیا می تواند مانع از بیان آزادانه نظرات مردم شود؟ این ترسناک می تواند به یک شیب لغزنده هوش مصنوعی تبدیل شود و در نهایت به بدترین کابوس نتایج شیطانی تبدیل شود که بی گناه با بهترین نیت آغاز شد.

من مطمئن هستم که شما عکس را دریافت می کنید.

نکته دوم کمی معتدل تر است و نشان می دهد که می توانیم از هوش مصنوعی برای فیلتر کردن محتوا برای خودمان استفاده کنیم.

ممکن است یک ربات فیلتر هوش مصنوعی داشته باشید که تمام فیدهای داده های دریافتی شما را از اخبار مختلف و منابع دیگر اسکن می کند. هوش مصنوعی طوری طراحی شده است که هرگونه اطلاعات نادرست یا اطلاعات نادرست را که با معیارهای شخصی شما مطابقت دارد، دریافت کند. بنابراین، در چنین سناریویی، وضعیت سانسور برادر بزرگ نیست. شما هوش مصنوعی و نحوه فیلتر کردن صندوق ورودی واقعی اطلاعات شما را از طرف شما کنترل می کنید.

خیلی خوب به نظر می رسد.

هرچند نگرانی های قابل توجهی وجود دارد.

به عنوان مثال، ما در حال حاضر به شدت در دیدگاه های خود قطبی شده ایم و این استفاده از هوش مصنوعی ممکن است این قطبش را عمیق تر و تاریک تر کند. تصور کنید که با این هوش مصنوعی نرم که 24×7 بی وقفه کار می کند، هرگز نیازی به دیدن ذره ای از اطلاعاتی که به عنوان اطلاعات نادرست بالقوه طبقه بندی کرده اید، ندارید. دیدگاه قطبی شده شما اکنون تقریباً تضمین شده است که دست نخورده باقی بماند. در تمام طول روز و هر زمان که بخواهید نگاهی به اطلاعاتی که در انتظار توجه شما است بیندازید، همیشه به طور کامل انتخاب شده است و هیچ فرصتی برای نگاه کردن به اطلاعات نادرست و اطلاعات غلط وجود ندارد.

من می گویم که اطلاعات غلط و اطلاعات غلط می تواند باشد باصطلاح زیرا در مورد اینکه چه چیزی واقعاً اطلاعات نادرست و اطلاعات نادرست را تشکیل می دهد، بحث و جدل بسیار زیادی وجود دارد. برخی از صاحب نظران اصرار دارند که مبنای مطلقی برای تعیین اینکه اطلاعات نادرست و اطلاعات نادرست چیست وجود دارد. درست و غلط وجود دارد. همه چیز را می توان بدون اشتباه محاسبه کرد که چیزی یا اطلاعات نادرست است یا اطلاعات نادرست.

همه چیز را کاملاً واضح نمی بینند.

گفته می شود که کنتراست دوگانگی متقابلاً انحصاری روشن یا خاموش، یک چارچوب ذهنی گمراه کننده است. ممکن است اطلاعات نادرست یک فرد برای شخص دیگر اطلاعات نادرست تلقی نشود. در مورد اطلاعات غلط هم همینطور. ادعا این است که اطلاعات نادرست و اطلاعات نادرست از نظر ماهیت و وسعت دامنه متفاوتی دارند. تلاش برای طبقه‌بندی قطعی تمام اطلاعات در یک شمع بسیار سخت‌تر از آن چیزی است که تکان دادن دست نشان می‌دهد.

نکته اصلی این است که دومین نکته در مورد استفاده از هوش مصنوعی به عنوان مکانیزم فیلتر کردن، معاوضه های خود را دارد. این که هوش مصنوعی به طور فزاینده ای مورد استفاده قرار می گیرد، تردیدی وجود ندارد. در عین حال، ما باید حواسمان به چالش هایی باشد که چنین هوش مصنوعی قرار است به منصه ظهور برسد. هوش مصنوعی به عنوان فیلتری برای اطلاعات نادرست و اطلاعات نادرست یک گلوله نقره ای یا اسلم دانک نیست.

این ما را به نقطه سوم می برد، یعنی امکان استفاده از هوش مصنوعی برای بهتر کردن انسان ها در مقابله با اطلاعات نادرست و اطلاعات نادرست.

من شک دارم که شما احتمالاً چیزهای زیادی در مورد این سومین راه استفاده از هوش مصنوعی در این زمینه شنیده باشید. تازه در حال ظهور است. شما اکنون در لبه پیشرفت چیزی هستید که به احتمال زیاد رشد خواهد کرد و به تدریج مورد استفاده قرار خواهد گرفت. لطفاً بدانید که با گسترش این محبوبیت، بحث در مورد اینکه آیا این یک رویکرد مناسب است نیز بسیار قابل مشاهده است.

بخشی از مسئله این است که هوش مصنوعی تا حدودی برای آنچه برخی به شکلی تحقیرآمیز از آن یاد می کنند استفاده می شود بازی های فکری با انسان ها.

که شوم به نظر می رسد.

این ما را به قلمرو اخلاق هوش مصنوعی نیز می رساند.

همه اینها همچنین به نگرانی های در حال ظهور در مورد هوش مصنوعی امروزی و به ویژه استفاده از یادگیری ماشین و یادگیری عمیق به عنوان نوعی از فناوری و نحوه استفاده از آن مربوط می شود. می بینید، کاربردهایی از ML/DL وجود دارد که تمایل دارد هوش مصنوعی را در سطح عمومی انسان سازی کند، با این باور یا انتخاب این که فرض کنیم ML/DL یا هوش مصنوعی حساس است یا نزدیک به آن (اینطور نیست). علاوه بر این، ML/DL می‌تواند شامل جنبه‌هایی از تطبیق الگوی محاسباتی باشد که از منظر اخلاقی یا قانونی نامطلوب یا کاملاً نامناسب یا غیرقانونی هستند.

ممکن است مفید باشد که ابتدا منظورم را هنگام اشاره به هوش مصنوعی به طور کلی روشن کنیم و همچنین یک مرور مختصر از یادگیری ماشین و یادگیری عمیق ارائه دهیم. در مورد اینکه هوش مصنوعی چه مفهومی دارد، سردرگمی زیادی وجود دارد. همچنین می‌خواهم احکام اخلاق هوش مصنوعی را به شما معرفی کنم که به‌ویژه در ادامه این گفتار ضروری است.

بیان رکورد در مورد هوش مصنوعی

بیایید مطمئن شویم که در مورد ماهیت هوش مصنوعی امروزی یکسان هستیم.

امروزه هیچ هوش مصنوعی وجود ندارد که حساس باشد.

ما این را نداریم

ما نمی دانیم که آیا هوش مصنوعی ممکن خواهد بود یا خیر. هیچ کس نمی تواند به درستی پیش بینی کند که آیا ما به هوش مصنوعی خواهیم رسید یا خیر، و نه اینکه آیا هوش مصنوعی به نحوی معجزه آسا خود به خود در شکلی از ابرنواخترهای شناختی محاسباتی پدید می آید (که معمولاً به عنوان تکینگی شناخته می شود، پوشش من را در اینجا ببینید. پیوند اینجا).

درک کنید که هوش مصنوعی امروزی قادر به «فکر کردن» به هیچ وجه در حد تفکر انسان نیست. وقتی با الکسا یا سیری در تعامل هستید، ظرفیت‌های مکالمه ممکن است شبیه ظرفیت‌های انسانی به نظر برسد، اما واقعیت این است که محاسباتی است و فاقد شناخت انسانی است. آخرین دوره هوش مصنوعی از یادگیری ماشینی و یادگیری عمیق استفاده گسترده ای کرده است که از تطابق الگوهای محاسباتی استفاده می کنند. این منجر به سیستم‌های هوش مصنوعی شده است که ظاهری شبیه به انسان دارند. در همین حال، هیچ هوش مصنوعی امروزی وجود ندارد که شباهتی به عقل سلیم داشته باشد و هیچ یک از شگفتی های شناختی تفکر قوی انسانی را نداشته باشد.

بخشی از موضوع تمایل ما به انسان سازی رایانه ها و به ویژه هوش مصنوعی است. زمانی که به نظر می‌رسد یک سیستم کامپیوتری یا هوش مصنوعی به روشی عمل می‌کند که ما با رفتار انسان مرتبط می‌شویم، تمایل تقریباً شدیدی برای نسبت دادن ویژگی‌های انسانی به سیستم وجود دارد. این یک تله ذهنی رایج است که می تواند حتی ناسازگارترین شکاکان را در مورد شانس رسیدن به احساسات به چنگ بیاورد.

تا حدودی، به همین دلیل است که اخلاق هوش مصنوعی و هوش مصنوعی اخلاقی یک موضوع بسیار مهم است.

دستورات اخلاق هوش مصنوعی ما را وادار می کند که هوشیار بمانیم. فن‌آوران هوش مصنوعی ممکن است در مواقعی با فناوری، به‌ویژه بهینه‌سازی فناوری‌های پیشرفته، مشغول شوند. آنها لزوماً پیامدهای اجتماعی بزرگتر را در نظر نمی گیرند. داشتن ذهنیت اخلاقی هوش مصنوعی و انجام این کار به طور یکپارچه برای توسعه و میدان‌دهی هوش مصنوعی برای تولید هوش مصنوعی مناسب، از جمله ارزیابی نحوه پذیرش اخلاق هوش مصنوعی توسط شرکت‌ها، حیاتی است.

علاوه بر به کارگیری اصول اخلاقی هوش مصنوعی به طور کلی، یک سوال مربوط به این موضوع وجود دارد که آیا ما باید قوانینی برای کنترل کاربردهای مختلف هوش مصنوعی داشته باشیم. قوانین جدیدی در سطوح فدرال، ایالتی و محلی وضع می شود که به محدوده و ماهیت چگونگی ابداع هوش مصنوعی مربوط می شود. تلاش برای تدوین و تصویب چنین قوانینی تدریجی است. اخلاق هوش مصنوعی حداقل به عنوان یک توقف در نظر گرفته شده عمل می کند و تقریباً مطمئناً تا حدی مستقیماً در آن قوانین جدید گنجانده می شود.

توجه داشته باشید که برخی قاطعانه استدلال می کنند که ما به قوانین جدیدی که هوش مصنوعی را پوشش می دهد نیازی نداریم و قوانین موجود ما کافی است. آنها پیش‌بینی می‌کنند که اگر برخی از این قوانین هوش مصنوعی را به اجرا بگذاریم، با مهار پیشرفت‌های هوش مصنوعی که مزایای اجتماعی عظیمی را ارائه می‌دهد، غاز طلایی را خواهیم کشت. به عنوان مثال پوشش من را در پیوند اینجا.

در ستون‌های قبلی، من تلاش‌های ملی و بین‌المللی مختلف برای ایجاد و وضع قوانین مربوط به هوش مصنوعی را پوشش داده‌ام. پیوند اینجا، مثلا. من همچنین اصول و رهنمودهای مختلف اخلاق هوش مصنوعی را که کشورهای مختلف شناسایی و پذیرفته اند پوشش داده ام، از جمله تلاش سازمان ملل متحد مانند مجموعه اخلاق هوش مصنوعی یونسکو که نزدیک به 200 کشور آن را پذیرفته اند. پیوند اینجا.

در اینجا یک لیست کلیدی مفید از معیارها یا ویژگی های هوش مصنوعی اخلاقی در رابطه با سیستم های هوش مصنوعی است که قبلاً از نزدیک بررسی کرده ام:

  • شفافیت
  • عدالت و انصاف
  • عدم سوء استفاده
  • مسئوليت
  • حریم خصوصی
  • سود رسانی
  • آزادی و خودمختاری
  • اعتماد
  • پایداری
  • کرامت
  • اتحاد

این اصول اخلاقی هوش مصنوعی قرار است با جدیت توسط توسعه دهندگان هوش مصنوعی، همراه با آنهایی که تلاش های توسعه هوش مصنوعی را مدیریت می کنند، و حتی آنهایی که در نهایت سیستم های هوش مصنوعی را انجام می دهند، مورد استفاده قرار گیرد. همه ذینفعان در طول چرخه عمر توسعه و استفاده هوش مصنوعی در محدوده رعایت هنجارهای تثبیت شده هوش مصنوعی اخلاقی در نظر گرفته می شوند. این نکته مهمی است زیرا فرض معمول این است که «فقط کدنویس‌ها» یا کسانی که هوش مصنوعی را برنامه‌ریزی می‌کنند، مشمول رعایت مفاهیم اخلاق هوش مصنوعی هستند. همانطور که قبلاً در اینجا تأکید شد، برای ابداع و بکارگیری هوش مصنوعی به یک روستا نیاز است، و برای آن کل دهکده باید به اصول اخلاقی هوش مصنوعی آشنا باشد و از آن پیروی کند.

بیایید همه چیز را ثابت نگه داریم و روی هوش مصنوعی محاسباتی غیر حساس امروزی تمرکز کنیم.

ML/DL نوعی تطبیق الگوی محاسباتی است. روش معمول این است که شما داده ها را در مورد یک کار تصمیم گیری جمع آوری می کنید. داده ها را به مدل های کامپیوتری ML/DL وارد می کنید. آن مدل ها به دنبال یافتن الگوهای ریاضی هستند. پس از یافتن چنین الگوهایی، در صورت یافتن، سیستم هوش مصنوعی در هنگام مواجهه با داده های جدید از آن الگوها استفاده خواهد کرد. پس از ارائه داده های جدید، الگوهای مبتنی بر داده های "قدیمی" یا تاریخی برای ارائه یک تصمیم فعلی استفاده می شود.

من فکر می کنم می توانید حدس بزنید که این به کجا می رود. اگر انسان‌هایی که بر اساس تصمیم‌گیری‌های الگو گرفته شده‌اند، سوگیری‌های نامطلوب را در خود جای داده‌اند، احتمال این وجود دارد که داده‌ها این را به روش‌های ظریف اما قابل توجهی منعکس کنند. تطبیق الگوی محاسباتی یادگیری ماشینی یا یادگیری عمیق به سادگی سعی می‌کند تا داده‌ها را مطابق با ریاضی تقلید کند. هیچ شباهتی از عقل سلیم یا سایر جنبه های حساس مدل سازی ساخته شده با هوش مصنوعی به خودی خود وجود ندارد.

علاوه بر این، توسعه دهندگان هوش مصنوعی نیز ممکن است متوجه نباشند که چه اتفاقی در حال رخ دادن است. ریاضیات محرمانه در ML/DL ممکن است کشف سوگیری های پنهان در حال حاضر را دشوار کند. شما به حق امیدوارید و انتظار دارید که توسعه‌دهندگان هوش مصنوعی سوگیری‌های بالقوه مدفون را آزمایش کنند، اگرچه این دشوارتر از آن چیزی است که به نظر می‌رسد. این احتمال وجود دارد که حتی با آزمایش نسبتاً گسترده، سوگیری‌هایی همچنان در مدل‌های تطبیق الگوی ML/DL وجود داشته باشد.

می‌توانید تا حدودی از ضرب‌المثل معروف یا بدنام زباله‌های درون زباله‌ها استفاده کنید. مسئله این است که این بیشتر شبیه سوگیری‌هایی است که به‌طور موذیانه به‌عنوان سوگیری‌هایی که در هوش مصنوعی غوطه‌ور می‌شوند، القا می‌شوند. الگوریتم تصمیم‌گیری (ADM) هوش مصنوعی به طور اصولی مملو از نابرابری‌ها می‌شود.

خوب نیست.

من معتقدم که اکنون زمینه را فراهم کرده ام تا به اندازه کافی در مورد نقش هوش مصنوعی به عنوان وسیله ای برای تحریک تلقیح روانی مربوط به مقابله با اطلاعات نادرست و اطلاعات نادرست بحث کنم.

ورود به ذهن انسان ها

بیایید با اصول یا مبانی زیربنای اطلاعات نادرست و اطلاعات نادرست شروع کنیم.

به طور کلی، اطلاعات نادرست به اطلاعات نادرست یا گمراه کننده اشاره دارد.

اطلاعات نادرست تقریباً یکسان است اگرچه از عنصر اضافه شده تشکیل شده است قصد. ما معمولاً وقتی اطلاعات را به عنوان اطلاعات نادرست تعبیر می کنیم مورد نظر اطلاعات غلط دادن

شاید به شما بگویم که فعلاً ساعت 10 شب است که فرض کنید اشتباه است زیرا ساعت واقعاً نیمه شب است. اگر من ساعت 10 را به عنوان یک قوز به شما گفته بودم و سعی نمی کردم فریبنده باشم، معمولاً می گفتیم که به شما اطلاعات غلط داده ام. من اطلاعات غلط داده بودم شاید تنبل بودم یا شاید واقعاً باور داشتم که ساعت 10 است. از طرف دیگر، اگر من به این دلیل به ساعت 10 اشاره کرده بودم که عمداً می خواستم شما را فریب دهم که ساعت 10 شب است و می دانم که ساعت در واقع نیمه شب است، می توان گفت که این یک نوع اطلاعات نادرست است. .

یکی از جنبه های قابل توجه اطلاعات به طور کلی این است که ما معمولاً می توانیم اطلاعات را پخش کنیم و بنابراین اطلاعات می تواند تا حدودی گسترده شود. اطلاعات به معنای واقعی می تواند مانند آب جریان داشته باشد.

من به شما می گویم که ساعت 10 شب است. شما اکنون آن اطلاعات خاص را دارید. ممکن است برای گروهی از افراد نزدیک با صدای بلند فریاد بزنید که ساعت 10 شب است. آنها هم اکنون همین اطلاعات را دارند. شاید برخی از آن افراد به تلفن های همراه خود می نشینند و با دیگران تماس می گیرند و به آنها می گویند که ساعت 10 است. در مجموع، اطلاعات را می توان پخش یا به اشتراک گذاشت و گاهی اوقات به سرعت انجام می شود، در حالی که در موارد دیگر به کندی انجام می شود.

به یک معنا، شما می توانید ادعا کنید که اطلاعات می توانند ویروسی شوند.

یک کلمه یا اصطلاح ابداع شده ای وجود دارد که ممکن است به خصوص آن را ندیده باشید یا استفاده نکرده باشید که به توصیف این پدیده ویروسی شدن اطلاعات کمک می کند. مodثر. این کلمه ترکیبی از اطلاعات و اپیدمی بودن است. به طور کلی، اینفودمیک با شرایطی مرتبط است که شامل انتشار اطلاعات نادرست یا اطلاعات نادرست است. تصور این است که اطلاعات نادرست یا گمراه کننده می تواند ویروسی شود، به طور نامطلوبی، شبیه به گسترش نامطلوب بیماری یا بیماری.

در مثال مربوط به ساعت 10 شب، این واقعیت ظاهری اطلاعاتی بود که به گروه اطرافیان منتشر شد. آنها به نوبه خود این واقعیت را به دیگران منتقل می کنند. اگر ساعت 10 جعلی بود، این نمونه خاص از اطلاعات نادرست یا اطلاعات نادرست به بسیاری دیگر سرایت کرد. آنها ممکن است ندانند که این اطلاعات اطلاعات نادرست یا احتمالاً اطلاعات نادرست است.

من اطمینان دارم که همه این تعاریف و اصول معقول به نظر می رسند و شما تا کنون در این زمینه هستید.

عالیه ادامه بدیم

من شما را تا حدودی به طور مخفیانه به سمت چیزی سوق داده ام که شیفتگی و همچنین اضطراب زیادی را به خود اختصاص می دهد. اصل ماجرا این است که به طور منطقی شباهت های منطقی بین آنچه بیماری ها به صورت ویروسی انجام می دهند و اطلاعات نادرست یا اطلاعات نادرست به صورت ویروسی وجود دارد.

همه با این تشابهات ادعا شده موافق نیستند. با این حال، آنها جذاب و قابل توجه هستند.

اجازه بدهید توضیح بیشتری بدهم.

ببینید، ما می‌توانیم سعی کنیم از تشبیه مفید اشاره به بیماری‌ها و بیماری‌های منتقله از طریق انسان استفاده کنیم و این کار را انجام دهیم تا احتمال مشابهی را با انتشار اطلاعات نادرست و اطلاعات نادرست مقایسه کنیم. برای جلوگیری از گسترش بیماری‌ها، می‌توانیم به‌دنبال شناسایی زودهنگام و مهار یک منبع بیماری نوظهور باشیم که به گسترش احتمالی بیماری اشاره می‌کند. رویکرد دیگر برای مقابله با یک بیماری در حال گسترش، محافظت در برابر ابتلا به آن از طریق استفاده محتاطانه از پوشیدن ماسک یا وسایل حفاظتی است. رویکرد سوم می تواند شامل واکسیناسیون برای ایجاد ایمنی در ارتباط با بیماری باشد.

ما اکنون به دایره کامل رسیده ایم که همان رویکردهای مقابله با بیماری ها را می توان به صراحت به مقابله با اطلاعات نادرست و اطلاعات نادرست تشبیه کرد. قبلاً اشاره کردم که تلاش‌های مشابهی برای استفاده از هوش مصنوعی به منظور مقابله با اطلاعات نادرست و اطلاعات نادرست در جریان است، به ویژه (همانطور که قبلاً ذکر شد):

  • توقف در شروع: هوش مصنوعی را می توان برای شناسایی و تلاش برای حذف اطلاعات نادرست و اطلاعات نادرست قبل از انتشار استفاده کرد.
  • فیلتر قبل از دیدن: از هوش مصنوعی می توان برای فیلتر کردن اطلاعات نادرست و نادرست استفاده کرد تا دیگر نگران دیدن آن نباشید.
  • شما را برای مصونیت آماده کنید: هوش مصنوعی می تواند برای تقویت آمادگی و توانایی شما برای مقابله با اطلاعات نادرست و اطلاعات نادرست (که تا حدودی به طور رسمی به عنوان نوعی تلقیح روانی شناخته می شود) استفاده شود.
  • دیگر

جنبه سوم در اینجا بسیار مورد توجه خواهد بود.

این معامله است.

ما می دانیم که بیماری ها معمولاً به آن حمله می کنند بدن انسان. با تشبیه نحوه وقوع اطلاعات نادرست و اطلاعات نادرست، می‌توانیم پیشنهاد کنیم که اطلاعات نادرست به ذهن انسان. بله، احتمالاً می توانید با اطلاعات نادرست یا اطلاعات نادرستی که در ذهن شما جاری می شود در تماس باشید. اطلاعات نادرست یا نادرست به طور بالقوه طرز تفکر شما را فاسد یا مسموم می کند.

بدن انسان می تواند واکسینه شود تا خود را برای تماس با بیماری ها آماده کند. یک سوال بزرگ مطرح می شود که آیا می توانیم همین کار را برای ذهن انسان انجام دهیم؟ آیا می توان سعی کرد ذهن را به گونه ای تلقیح کرد که وقتی اطلاعات نادرست یا اطلاعات نادرست به ذهن شما می رسد آمادگی آن را دارید و بر اساس آن تلقیح شده اید؟

رشته تحصیلی معروف به تلقیح روانی معتقد است که ذهن واقعاً می‌تواند به این معنا تلقیح شود که برای مقابله با اطلاعات نادرست یا اطلاعات نادرست آماده است.

این توصیف را در یک مطالعه تحقیقاتی اخیر در مورد تلقیح روانشناختی و آنچه که گاهی اوقات به عنوان انجام دادن برچسب گذاری می شود، در نظر بگیرید prebunking:

  • رد اطلاعات نادرست نیز مشکل ساز است زیرا تصحیح اطلاعات نادرست همیشه اثرات آن را به طور کامل باطل نمی کند، پدیده ای که به عنوان اثر تأثیر مستمر شناخته می شود. بر این اساس، بر خلاف افشاگری، پیش‌پاسخ‌سازی به‌عنوان وسیله‌ای برای ایجاد انعطاف‌پذیری پیشگیرانه در برابر قرار گرفتن در معرض پیش‌بینی‌شده در معرض اطلاعات نادرست، اهمیت پیدا کرده است. این رویکرد معمولاً مبتنی بر نظریه تلقیح است. نظریه تلقیح از قیاس ایمن سازی پزشکی پیروی می کند و معتقد است که ایجاد مقاومت روانی در برابر تلاش های ناخواسته برای متقاعدسازی ممکن است، درست مانند تلقیح های پزشکی که مقاومت فیزیولوژیکی در برابر عوامل بیماری زا ایجاد می کند.با پیشرفتهای علمی24 آگوست 2022، "تلقیح روانشناختی تاب آوری در برابر اطلاعات نادرست در رسانه های اجتماعی را بهبود می بخشد" توسط نویسندگان همکار جان روزنبک، ساندر ون در لیندن، بت گلدبرگ، استیو راثیه و استفان لواندوفسکی).

به مثال من در مورد ساعت 10 شب برگردم، فرض کنید قبلاً به شما گفته بودم که گاهی اوقات زمان ادعا شده زمان واقعی نیست. شما از این پس نوعی تلقیح دارید تا مراقب زمان های ادعا شده باشید. این تلقیح شما را برای تماس با زمان های ادعایی که اطلاعات نادرست یا اطلاعات نادرست است آماده کرده است.

اگر چندین سال پیش به شما هشدار داده بودم که زمان‌های ادعا شده زمان‌های واقعی نیستند، این احتمال وجود دارد که به آن هشدار مدت‌ها قبل فکر نکنید. بنابراین، تلقیح اولیه (بخواهیم بگوییم) از بین رفته است. تلقیح من برای شما ممکن است نیاز به تقویت داشته باشد.

همچنین این احتمال وجود دارد که تلقیح به اندازه کافی خاص نبوده باشد که بتوانید در صورت نیاز از آن استفاده کنید. اگر من سال‌ها پیش در مورد زمان‌های ادعا شده نسبت به زمان‌های واقعی به شما هشدار داده بودم، ممکن بود بیش از حد گسترده باشد. تلقیح ممکن است در مورد خاصی که حدود ساعت 10 به شما گفته شود، کارساز نباشد. از این نظر، شاید تلقیح من باید این بود که هنگام استفاده از ساعت ادعایی 10 باید مراقب باشید. البته، تلقیح در مورد بیماری ها تا حدودی یکسان است، در برخی مواقع بسیار خاص بیماری های شناخته شده است، در حالی که در موارد دیگر طیف وسیعی را شامل می شود.

یک مطالعه تحقیقاتی که در سال 1961 در مورد تلقیح روانشناختی توسط ویلیام مک گوایر از دانشگاه کلمبیا انجام شد، به طور کلی اکنون در این زمینه مطالعاتی کلاسیک در نظر گرفته می شود. ممکن است این نکات کلیدی را که او در آن زمان بیان کرد برایتان جالب باشد:

  • چنین ایمن سازی تعمیم یافته می تواند از یکی از دو مکانیسم ناشی شود. پیش از قرار گرفتن در معرض ممکن است شخص را شوکه کند تا متوجه شود "واقعیت"هایی که او همیشه پذیرفته است واقعاً آسیب پذیر هستند، بنابراین او را تحریک می کند تا از اعتقاد خود دفاع کند و در نتیجه در برابر استدلال های متقابل قوی مقاومت بیشتری نشان می دهد. متناوبا، ردیه‌های موجود در پیش افشای ممکن است تمام استدلال‌های متقابل ارائه شده بعدی علیه این باور را کمتر تأثیرگذار جلوه دهد» (ویلیام مک‌گوایر، «مقاومت در برابر متقاعدسازی ارائه شده توسط ابطال قبلی فعال و غیرفعال از ضد استدلال‌های مشابه و جایگزین»، مجله غیر طبیعی و روانشناسی اجتماعی، 1961).

آیا این تشبیه تلقیح و ایمن سازی را مقایسه ای مفید و مناسب با قلمرو اطلاعات نادرست و اطلاعات نادرست می دانید؟

برخی انجام می دهند، برخی نمی کنند.

برای اهداف این بحث، لطفاً بپذیرید که فرض معقول و مناسب است.

چگونه می‌توانیم ذهن مردم را تلقیح یا ایمن سازی کنیم؟

ما می‌توانیم مردم را وادار کنیم کتاب‌هایی بخوانند که ممکن است ذهن آنها را روشن کند. ممکن است این موضوع را به آنها بگوییم، یا از آنها بخواهیم فیلم تماشا کنند یا به نوارهای صوتی گوش دهند. و غیره.

و ممکن است برای انجام همین کار از هوش مصنوعی استفاده کنیم.

ممکن است یک سیستم هوش مصنوعی ابداع شود تا تلقیح کننده شما باشد. هر زمان که شروع به آنلاین شدن می کنید، مانند نگاه کردن به اینترنت، یک برنامه مبتنی بر هوش مصنوعی ممکن است شما را برای سفر آنلاین خود آماده کند. هوش مصنوعی ممکن است مقدار بسیار کمی از اطلاعات نادرست را به شما بدهد که به این عنوان برچسب زده شده است، به شما این امکان را می دهد که متوجه شوید چیزی را خواهید دید که عمداً نادرست است.

پس از قرار گرفتن در معرض این اطلاعات نادرست مبتنی بر هوش مصنوعی، اکنون ذهن شما آماده مقابله با اطلاعات نادرست یا اطلاعات نادرستی است که ممکن است در طبیعت در اینترنت با آنها روبرو شوید. ذهن شما آماده شده است. Voila، وبلاگی را در اینترنت مشاهده می کنید که یک واقعیت ادعا شده را ارائه می دهد که موجودات بیگانه از مریخ در حال حاضر در زمین هستند و در معرض دید آشکار پنهان شده اند، اما این اطلاعات نادرست یا اطلاعات نادرست ظاهراً به راحتی توسط ذهن شما به دلیل تلقیح قبلی رد می شود (خوب، پس دوباره، شاید راست باشد و آنها واقعاً اینجا هستند!).

به هر حال، امیدوارم اکنون بتوانید تشخیص دهید که چگونه هوش مصنوعی می تواند به تلقیح یا ایمن سازی انسان ها نسبت به اطلاعات نادرست یا اطلاعات نادرست کمک کند.

برنامه های هوش مصنوعی مختلفی در حال ابداع هستند که به عنوان تلقیح کننده اطلاعات نادرست یا اطلاعات نادرست عمل می کنند. هوش مصنوعی ممکن است به دنبال ایجاد تلقیح گسترده باشد و ظاهر کلی ایمن سازی را ارائه دهد. AI همچنین می تواند برای اشکال خاص تلقیح ابداع شود. علاوه بر این، هوش مصنوعی می‌تواند بر اساس نیازها یا علایق خاص شما تنظیم شود. هوش مصنوعی پیشرفته در این فضا همچنین سعی می‌کند سطح تحمل، میزان جذب ذهنی، ظرفیت نگهداری و سایر عوامل را هنگام نوشتن و ارائه به اصطلاح شات‌های ایمن‌سازی تعیین کند.

کاملا مفید به نظر می رسد

هوش مصنوعی به عنوان بازیکن بازی های ذهنی خطرناک

هوش مصنوعی که به این روش استفاده می شود در نگاه اول بسیار مفید به نظر می رسد (هی، من همین یک ثانیه پیش به آن اشاره کردم).

مجموعه ای از جنبه های منفی و مشکلات بالقوه وجود دارد که نگران کننده و شاید ترسناک هستند.

در ستون‌هایم، من اغلب در مورد ظرفیت‌های استفاده دوگانه هوش مصنوعی بحث می‌کنم، برای مثال ببینید پیوند اینجا. هوش مصنوعی می تواند کمکی حیاتی برای نوع بشر باشد. افسوس، هوش مصنوعی نیز در معرض خطرات و دام های ناگوار زیادی است.

در مورد هوش مصنوعی به عنوان یک تلقینگر، اجازه دهید این مسائل مربوط به اخلاق هوش مصنوعی را در نظر بگیریم:

  • واکنش های نامطلوب توسط انسان
  • واکنش های غیر پاسخگو توسط انسان
  • هدف گیری اشتباه هوش مصنوعی
  • هدف گیری کم هوش مصنوعی
  • نقض سایبری هوش مصنوعی
  • دیگر

ما به طور خلاصه به بررسی این نگرانی ها می پردازیم.

واکنش های نامطلوب توسط انسان

فرض کنید انسانی که این نوع تلقیح مبتنی بر هوش مصنوعی را دریافت می کند، یک واکنش نامطلوب داشته باشد یا یک اثر نامطلوب ایجاد کند.

ممکن است فرد واکسیناسیون را اشتباه تعبیر کند و ناگهان نسبت به هر اطلاعاتی که دریافت می‌کند ناپذیر شود. آنها تمام اطلاعات را مسدود می کنند. هوش مصنوعی به نوعی آنها را وادار کرده است که کودک را با آب حمام بیرون بیاندازند (یک ضرب المثل قدیمی که شاید ارزش بازنشستگی را داشته باشد). به جای اینکه فقط سعی کند با اطلاعات نادرست و اطلاعات نادرست کنار بیاید، این فرد با این تصمیم واکنش نشان داده است که همه اطلاعات همیشه نادرست هستند.

من فکر نمی‌کنم که ما بخواهیم مردم تا این حد زیاده‌روی کنند.

بسیاری از واکنش‌های نامطلوب وجود دارد که هوش مصنوعی ممکن است ایجاد کند. این تا حدی به دلیل تلاش هوش مصنوعی برای انجام تلقیح است، اما همچنین باید بخشی از این موضوع را به پای انسانی که تلقیح را دریافت کرده است، بگذاریم. آنها ممکن است به شیوه های وحشیانه یا عجیبی واکنش نشان دهند که دیگرانی که تلقیح هوش مصنوعی مشابهی را دریافت می کنند، این کار را انجام نمی دهند.

باز هم می توانید این را به تشبیه تلقیح بیماری ها تشبیه کنید.

به طور خلاصه، مهم است که وقتی از چنین تلاش‌های هوش مصنوعی استفاده می‌شود، به روش‌های مسئولانه‌ای انجام شود که به دنبال به حداقل رساندن اثرات نامطلوب باشد. همچنین باید یک جنبه بعدی از هوش مصنوعی وجود داشته باشد تا بررسی شود که آیا یک واکنش نامطلوب رخ داده است یا خیر. اگر یک واکنش نامطلوب تشخیص داده شود، هوش مصنوعی باید ابداع شود تا سعی کند به فرد در واکنش نامطلوب خود کمک کند و به دنبال غلبه بر یا کاهش پاسخ باشد.

واکنش های غیر پاسخگو توسط انسان ها

احتمال دیگر این است که تلقیح تغذیه شده با هوش مصنوعی تأثیری بر شخص دریافت کننده نداشته باشد.

یک فرد یک تلقیح مبتنی بر هوش مصنوعی مربوط به اطلاعات نادرست یا اطلاعات نادرست دریافت می کند. در حالی که اکثر مردم «آن را دریافت می‌کنند» و ایمن می‌شوند، افرادی هستند که اصلاً واکنشی نشان نمی‌دهند. آنها از تلقیح چیزی یاد نمی گیرند. آنها نسبت به تلاش هوش مصنوعی برای ایمن سازی آنها در برابر همه یا انواع خاصی از اطلاعات نادرست یا اطلاعات نادرست واکنش نشان نمی دهند.

بار دیگر، این قابل مقایسه با تلقیح برای بیماری ها است.

هوش مصنوعی باید برای مقابله با چنین شرایطی طراحی شود.

هدف گذاری اشتباه هوش مصنوعی

تصور کنید که یک هوش مصنوعی امیدوار است مردم را در مورد موضوع خاصی که ما می گوییم مبحث X است، مصونیت دهد، اما معلوم شد که موضوع Y در عوض پوشش داده شده است. هوش مصنوعی در حال هدف گذاری اشتباه است.

این یک مشکل دوگانه است. اولاً، مبحث X به عنوان هدف فرضی و مورد انتظار تلقیح کننده هوش مصنوعی پوشش داده نشده است. ثانیاً، موضوع Y پوشش داده شده است، اما ممکن است ما نخواستیم که مردم در مورد آن موضوع ایمن شوند.

اوه.

سوالات فراوان است. آیا می شد از این اتفاق جلوگیری کرد؟ اگر این اتفاق افتاد، آیا می توانیم مبحث ایمن سازی Y را لغو کنیم؟ آیا می‌توانیم به دنبال پوشش موضوع X تلقیح باشیم، یا اینکه به دلیل هدف‌گیری نادرست توسط هوش مصنوعی در ابتدا، فرد کمتر پذیرا یا غیرپذیرنده خواهد بود؟

نگرانی های مشکل ساز زیادی ایجاد می شود.

هوش مصنوعی زیر هدف گذاری

هوش مصنوعی یک تلقیح در مورد موضوع Z ارائه می دهد. به نظر می رسد افرادی که تلقیح را دریافت می کنند واکنشی حداقل یا تقریباً ناچیز دارند. تلقیح برای ماندگاری کافی نبود.

ممکن است وسوسه شوید که به سرعت ادعا کنید که به راحتی قابل حل است. تنها کاری که باید انجام دهید این است که تلقیح را تکرار کنید. شاید آره شاید نه.

تلقیح هوش مصنوعی ممکن است آنقدر ارزش محدود داشته باشد که مهم نیست که افراد صد بار آن را تجربه کنند، نتیجه همچنان یک نتیجه نهایی است. ممکن است نیاز به تقویت تلقیح به جای تکرار ساده داشته باشید.

در همین حال، تصور کنید که تلاشی برای تقویت تلقیح تغذیه شده با هوش مصنوعی انجام می شود، اما این امر بیش از حد است. نسخه تقویت شده باعث واکنش های بیش از حد می شود. بله، ما از بد به بدتر آمده ایم.

نقض سایبری هوش مصنوعی

تصور کنید که هوش مصنوعی به طور گسترده برای کمک به افراد در تلقیح شدن از اطلاعات نادرست و اطلاعات نادرست استفاده می شود.

اتکای عمومی مردم را فرا می گیرد. آنها می دانند و انتظار دارند که هوش مصنوعی قطعاتی را به آنها ارائه کند که چشمان آنها را به آنچه به عنوان اطلاعات نادرست و اطلاعات نادرست شناخته می شود باز کند.

به نظر می رسد همه چیز خوب و خوب است.

یک شرور به نحوی قادر به انجام یک نفوذ سایبری در هوش مصنوعی است. آنها یواشکی برخی از اطلاعات نادرست مورد نظر را که می خواهند مردم فکر کنند اطلاعات نادرست نیست، وارد هوش مصنوعی می کنند. هوش مصنوعی طوری تنظیم شده است که اطلاعات نادرست واقعی را اطلاعات واقعی به نظر برساند. همچنین، اطلاعات واقعی به عنوان اطلاعات نادرست ظاهر می شود.

مردم کاملا اسنوکر شده اند. آنها توسط هوش مصنوعی اطلاعات نادرست دریافت می کنند. علاوه بر این، به دلیل اینکه آنها به هوش مصنوعی وابسته شده بودند، و به دلیل اعتماد به اینکه هوش مصنوعی کار درستی را انجام می دهد، برای این هوش مصنوعی شکسته قلاب، خط و غرق می شوند. بدون تردید.

با توجه به اینکه چگونه اطلاعات نادرست می‌تواند بیشتر منتشر شود، ممکن است شرور از اینکه وجود این نوع هوش مصنوعی ساده‌ترین و سریع‌ترین راه آنها برای پخش کردن دروغ‌های موذیانه‌شان در سراسر جهان است، لذت می‌برد. از قضا، البته، استفاده از تلقیح هوش مصنوعی برای گسترش بیماری.

نتیجه

آیا باید هوش مصنوعی با ما بازی های فکری انجام دهد؟

آیا هوش مصنوعی برای اطلاعات نادرست و تلقیح اطلاعات نادرست ممکن است یک اسب تروا تهدید کننده باشد؟

شما می توانید یک مورد اساسی برای نگرانی در مورد چنین کابوس ایجاد کنید.

دیگران چنین احتمالی را مسخره می کنند. مردم آنقدر باهوش هستند که بدانند چه زمانی هوش مصنوعی سعی می کند آنها را فریب دهد. مردم به چنین دریبلی نمی افتند. فقط احمق ها با چنین هوش مصنوعی گمراه می شوند. اینها واکنش ها و استدلال های متقابل معمول است.

من که نمی‌خواهم کمتر از تحسین کامل انسان و طبیعت انسان به نظر برسم، فقط پیشنهاد می‌کنم که نشانه‌های زیادی وجود دارد که نشان می‌دهد انسان‌ها ممکن است به هوش مصنوعی بیفتند که آنها را گمراه کند.

یک مسئله حتی بزرگتر وجود دارد که شاید بر همه اینها ظاهر شود.

چه کسی هوش مصنوعی را می سازد و هوش مصنوعی چگونه به صورت الگوریتمی تصمیم می گیرد که چه چیزی اطلاعات نادرست و اطلاعات نادرست در نظر گرفته می شود؟

امروز یک آتش‌سوزی کامل در سراسر جهان در مورد آنچه که به طور خاص اطلاعات نادرست و اطلاعات نادرست را تشکیل می‌دهد، در جریان است. برخی ادعا می کنند که حقایق واقعیت هستند، بنابراین هرگز نمی توان در مورد اینکه اطلاعات مناسب در مقابل اطلاعات نادرست است، سردرگمی وجود داشته باشد. اگرچه شیطان گاهی اوقات در جزئیات است، این کاملاً مطمئن است.

نکته پایانی فعلا آبراهام لینکلن می‌گوید: «شما می‌توانید همه مردم را گاهی اوقات و برخی از مردم را همیشه فریب دهید، اما نمی‌توانید همه مردم را همیشه فریب دهید.»

آیا هوش مصنوعی که برای کمک به تلقیح بشر از اطلاعات نادرست و اطلاعات نادرست استفاده می‌شود، ابزاری حیاتی برای اطمینان از اینکه نمی‌توان همه مردم را همیشه فریب داد، خواهد بود؟ یا ممکن است بیشتر اوقات برای فریب دادن بیشتر مردم استفاده شود؟

زمان خواهد شد بگویید.

و این مطمئناً اطلاعات نادرست یا اطلاعات نادرست نیست.

منبع: https://www.forbes.com/sites/lanceeliot/2022/09/14/ai-ethics-and-ai-induced-psychological-inoculation-to-help-humans-with-disinformation/