مردم مشتاقانه در حال مشاوره با ChatGPT با هوش مصنوعی برای مشاوره در مورد سلامت روان، تاکید بر اخلاق هوش مصنوعی و قانون هوش مصنوعی هستند.

سلامت روان امروزه به یک موضوع رایج تبدیل شده است.

در گذشته، بحث‌های مربوط به سلامت روان غالباً ساکت می‌شد یا به کلی زیر فرش کشیده می‌شد. تغییر تدریجی فرهنگی منجر به در نظر گرفتن آشکار مسائل مربوط به سلامت روان و کاهش نگرانی در مورد انجام این کار به روش‌های پذیرفته شده عمومی شده است.

ممکن است بخشی از این تغییر در نگرش‌های اجتماعی فراگیر را به عنوان نتیجه ظهور اپلیکیشن‌های گوشی‌های هوشمند با دسترسی آسان که به ذهن‌آگاهی شخصی شما کمک می‌کنند و احتمالاً شما را به سمت رفاه ذهنی سوق می‌دهند، ببخشید. برنامه هایی برای تمرکز حواس، برنامه هایی برای مدیتیشن، برنامه هایی برای تشخیص وضعیت سلامت روان شما، برنامه هایی برای انجام غربالگری سلامت روان و غیره وجود دارد. تعداد زیادی برنامه وجود دارد.

آیا می‌توانیم بگوییم که اپلیکیشن‌های گوشی‌های هوشمند آشکارا به باز بودن سلامت روان منجر می‌شوند؟ باید اذعان کرد که این کمی یک سوال مرغ یا تخم مرغ است. آیا گشودگی نسبت به سلامت روان امکان ظهور اپلیکیشن‌های مربوطه گوشی‌های هوشمند را فراهم می‌کرد، یا سلامت روانی اپلیکیشن‌های گوشی‌های هوشمند، جامعه را به سمتی سوق داد که در مورد سلامت روان پیشرو باشند؟

شاید این یک ترکیب در هم تنیده بود که مستلزم وقوع هر دو جهت در یک زمان بود.

در هر صورت، در این ترکیب قدرتمند، اپلیکیشن‌های سلامت روان ظاهر می‌شوند که گفته می‌شود به طور فوق‌العاده‌ای از هوش مصنوعی (AI) پشتیبانی می‌کنند. ایده این است که فناوری زیربنایی را می توان از طریق استفاده (احتمالاً) خردمندانه از هوش مصنوعی بهبود بخشید. در حالی که نسخه‌های اولیه برنامه‌های سلامت روان عمدتاً ارائه‌های اطلاعاتی مبتنی بر واقعیت بودند، گویی که شما در حال جستجوی آنلاین در مورد موضوعات گفته شده هستید، تزریق هوش مصنوعی منجر به انجام خودکار گفتگوهای تعاملی با شما شده است، شبیه به ارسال پیامک با یک درمانگر انسانی یا موارد مشابه. (خوب، به نوعی، همانطور که در اینجا به آن خواهم پرداخت و موشکافی خواهم کرد).

این ما را به آخرین و جذاب ترین هوش مصنوعی که اخیرا توجه ملی و بین المللی را به خود جلب کرده است، یعنی استفاده از چیزی که به طور رسمی به عنوان شناخته می شود، می برد. هوش مصنوعی مولد و به طور گسترده از طریق برنامه معروف به ChatGPT محبوبیت یافت. برای توضیح بیشتر، ChatGPT یک سیستم تعاملی هوش مصنوعی همه منظوره است، اساساً یک ربات چت عمومی، با این وجود، به طور فعال و مشتاقانه توسط افرادی که به طور خاص به دنبال جمع آوری توصیه های بهداشت روان هستند، استفاده می شود (این برنامه برای این منظور ساخته نشده است، و با این حال مردم تصمیم گرفته اند که به هر حال می خواهند از آن برای آن نقش استفاده کنند).

برای پوشش اخیر من از ChatGPT، ببینید پیوند اینجا برای یک مرور کلی من همچنین پیگیری هایی در مورد اینکه ChatGPT چگونه معلمان را نگران می کند انجام دادم که دانش آموزان احتمالاً از طریق هوش مصنوعی برای نوشتن مقالات خود تقلب می کنند. پیوند اینجا، و من در تجزیه و تحلیل مربوط به بابانوئل نگاهی با طعم فصلی انجام دادم پیوند اینجا.

نگران نباشید، من در اینجا توضیح خواهم داد که Generative AI و ChatGPT چیست، این کار را به صورت لحظه ای انجام دهید، لطفاً در آنجا منتظر بمانید.

اگر به رسانه های اجتماعی نگاهی بیندازید، افرادی را خواهید دید که ChatGPT و هوش مصنوعی مولد را بهترین چیز از زمان برش نان معرفی می کنند. برخی معتقدند که این در واقع هوش مصنوعی است (نه، آنها اشتباه می کنند!). دیگران نگران این هستند که مردم از خودشان جلوتر می روند. آنها همان چیزی را می بینند که می خواهند ببینند. آنها یک اسباب بازی براق جدید برداشته اند و دقیقاً نشان داده اند که چرا ما نمی توانیم چیزهای جدید جذاب داشته باشیم.

کسانی که در اخلاق هوش مصنوعی و قانون هوش مصنوعی هستند، به طور جدی و جدی نگران این روند رو به رشد هستند و به حق نیز چنین هستند. ما در اینجا نگاهی دقیق خواهیم داشت به اینکه چگونه مردم از هوش مصنوعی مولد برای استفاده هایی استفاده می کنند که مخصوصاً برای آنچه که هوش مصنوعی امروز واقعاً می تواند به دست آورد مناسب نیست. همه مسائل اخلاقی و حقوقی هوش مصنوعی بدون شک در کل معما پیچیده است. برای پوشش مداوم و گسترده من از اخلاق هوش مصنوعی و قانون هوش مصنوعی، نگاه کنید به پیوند اینجا و پیوند اینجا، فقط به نام چند.

ابتدا، اجازه دهید برخی از جنبه های مهم سلامت روان و اینکه چرا این موضوع بسیار بزرگ و ضروری است را در نظر بگیریم. پس از ایجاد این پایه، توضیحی سریع در مورد هوش مصنوعی مولد و به خصوص ChatGPT خواهیم داد. من نمونه هایی از ChatGPT را اضافه می کنم تا بتوانید با چشمان خود نوع پرگویی که برنامه هوش مصنوعی قادر به تولید آن است را مشاهده کنید. ما این بحث را با نظراتی در مورد اینکه همه اینها به چه معناست و اینکه چگونه اخلاق هوش مصنوعی و قانون هوش مصنوعی به طور اجتناب ناپذیری وارد تصویر می شوند، به پایان می رسانیم.

کمربند ایمنی خود را برای یک سواری کامل ببندید.

سلامت روان یک نگرانی حیاتی و رو به رشد اجتماعی است

بر اساس آمارهای مختلف منتشر شده، ابری تیره و تاریک در مورد وضعیت سلامت روان امروزی وجود دارد. من نمی‌خواهم در این مورد غمگین به نظر بیایم، اما ممکن است با واقعیتی که با آن روبرو هستیم روبرو شویم. پنهان کردن سرمان در شن ها کارساز نیست. بهتر است با چشمان باز و تمایل به حل مشکلات خاردار به موضوع بپردازیم.

در اینجا چند آمار قابل توجه است که توسط یک سازمان برجسته سلامت روان در مورد آمریکایی ها و چشم انداز سلامت روان جمع آوری شده است. سلامت روان آمریکا، "یافته های کلیدی 2023"):

  • بزرگسالان به طور گسترده ای بیماری روانی را تجربه می کنند. حدود 21 درصد از بزرگسالان گزارش کردند که یک بیماری روانی را تجربه کرده اند، که تقریباً معادل این است که تقریباً 50 میلیون بزرگسال در ایالات متحده این بیماری را تجربه کرده اند.
  • عدم دریافت درمان بهداشت روانی گسترده است. اندکی بیش از نیمی از بزرگسالان مبتلا به بیماری روانی تحت درمان قرار نمی گیرند (تقریباً 55٪)، بنابراین شاید حدود 28 میلیون بزرگسال تحت درمان بهداشت روانی مورد نیاز نباشند.
  • جوانان نیز تحت تاثیر قرار می گیرند. تقریباً از هر ده جوان در ایالات متحده یک نفر اظهار کرده است که افسردگی شدیدی را تجربه کرده است که بر تکالیف مدرسه، زندگی خانگی، تعاملات خانوادگی و/یا زندگی اجتماعی آنها تأثیر گذاشته است.
  • درمان سلامت روان برای جوانان وجود ندارد. کمتر از یک سوم از جوانانی که افسردگی شدید دارند تحت درمان مداوم هستند (تنها حدود 28٪) و بیش از نیمی از آنها اصلاً هیچ مراقبت بهداشت روانی دریافت نمی کنند (تخمین زده می شود 57٪).
  • پراکندگی ارائه دهندگان سلامت روان یک رقم گزارش شده این است که در ایالات متحده به ازای هر ارائه دهنده سلامت روان، حدود 350 نفر وجود دارد، که نشان دهنده کمبود مشاوران و درمانگران حرفه ای سلامت روان واجد شرایط برای جمعیت است.

من نمی‌خواهم ما را روی آمار فی نفسه متمرکز کنم، زیرا می‌توانید به راحتی در مورد نحوه جمع‌آوری یا گزارش این آمارها بحث کنید. به عنوان مثال، گاهی اوقات اینها بر اساس نظرسنجی هایی است که به موجب آن نظرسنجی در مناطق خاصی از کشور یا انواع افراد از قبل انتخاب شده است. همچنین، می‌توانید با قاطعیت درباره میزان صادق بودن افراد وقتی وضعیت سلامت روانی خود را گزارش می‌دهند، به‌طور قاطع صحبت کنید، بسته به اینکه چه کسی سؤال می‌کند و چرا ممکن است بخواهند به یک جهت یا جهت دیگری روی موضوع متمایل شوند. و غیره.

با این حال، اصل ماجرا این است که ما حداقل می توانیم به طور کلی توافق کنیم که یک چالش بهداشت روانی پیش روی کشور وجود دارد و ما باید کاری برای آن انجام دهیم. اگر کاری انجام ندهیم، فرض اصلی این است که اوضاع بدتر خواهد شد. شما نمی توانید اجازه دهید که یک مشکل چرکین بی انتها تبخیر شود.

ممکن است در آمارهای ذکر شده متوجه شده باشید که ادعای کمبود متخصصان سلامت روان واجد شرایط موجود وجود دارد. اعتقاد بر این است که عدم تعادل در عرضه و تقاضا وجود دارد، که برای آن عرضه کافی مشاوران سلامت روان وجود دارد و تقاضای واقعی یا پنهان برای مشاوره سلامت روان بیش از حد وجود دارد (من می گویم نهفته به این معنا که بسیاری ممکن است متوجه نشوند ارزش جستجوی مشاوره بهداشت روانی است، یا توانایی پرداخت آن را ندارند، یا نمی توانند از نظر تدارکاتی به آن دسترسی داشته باشند).

چگونه می توانیم با این عدم تعادل مقابله کنیم؟

به نظر می رسد یکی از راه ها استفاده از اتوماسیون و به ویژه هوش مصنوعی برای تقویت «طرف عرضه» در ارائه مشاوره سلامت روان باشد. شما می‌توانید قانع‌کننده استدلال کنید که محبوبیت برنامه‌های مراقبه و ذهن‌آگاهی گوشی‌های هوشمند نشانه‌ای از وجود تقاضای سرکوب‌شده است. وقتی نمی توانید به راحتی به مشاوران انسانی واجد شرایط دسترسی پیدا کنید، اتوماسیون و هوش مصنوعی وارد این شکاف می شوند.

به فاکتورهای راحتی هم فکر کنید.

هنگامی که از یک برنامه هوش مصنوعی برای سلامت روان استفاده می کنید، هوش مصنوعی را 24×7 در دسترس دارید. نیازی به تعیین قرار ملاقات نیست. هیچ مشکلی در تدارکات حضوری با یک مشاور انسانی وجود ندارد. احتمالاً هزینه آن نیز بسیار ارزانتر است. می‌توانید با استفاده از برنامه هوش مصنوعی زمان را جمع‌آوری کنید، در حالی که با یک مشاور انسانی، ساعت در حال افزایش است و دقیقه صورت‌حساب در حال افزایش است.

اما، برای یک ثانیه لعنتی صبر کنید، ممکن است توصیه کنید، یک برنامه هوش مصنوعی در حد یک مشاور انسانی نیست.

این ظاهراً مقایسه سیب با پرتقال است. یا شاید بیشتر شبیه این به مقایسه سیب با صدف باشد، به طوری که این دو به خصوص با هم مقایسه نمی شوند. یک مشاور انسانی با صلاحیت مناسب که می‌داند در مورد سلامت روان چه می‌کنند، مطمئناً از هر نوع هوش مصنوعی که امروز داریم بالاتر است. مطمئناً، برنامه هوش مصنوعی ممکن است در تمام ساعات شبانه روز در دسترس باشد، اما شما از کیفیت پایین تری برخوردار هستید و بنابراین نمی توانید هیچ تشبیه معقولی بین استفاده از مشاور انسانی و استفاده از هوش مصنوعی ایجاد کنید.

ما به زودی به این بحث در مورد مشاوران انسانی در مقابل توصیه های مبتنی بر هوش مصنوعی باز خواهیم گشت.

در همین حال، یکی از جنبه‌های سلامت روان که به نظر می‌رسد بسیار آزاردهنده است، مربوط به جوانان و سلامت روان است.

یک باور این است که اگر در جوانی به مسائل مربوط به سلامت روان مبتلا نشویم، وقتی بزرگسال می‌شوند، هزینه‌های اجتماعی بسیار زیاد است. این داستان کلاسیک نهالی است که یا به درختی خوش ساخت تبدیل می شود یا درختی که همه مشکلات آینده را دارد. شاید برخی پیشنهاد می کنند که ما باید به ویژه توجه خود را به جوانان معطوف کنیم. مسائل را زودتر پیگیری کنید سعی کنید از تبدیل شدن مسائل به مشکلات مادام العمر جلوگیری کنید. این امر به طور بالقوه تظاهرات مسائل مربوط به سلامت روان را در مرحله بزرگسالی کاهش می دهد و با کمی صلابت، می توانیم جریان خط لوله بدتر شدن سلامت روان را کاهش دهیم.

محققان بر این نگرانی‌های مشابه تأکید می‌کنند، مانند این مقاله اخیر: «سلامت روان نوجوانان و بزرگسالان نوظهور («جوانان») حوزه‌ای از سلامت عمومی است که توجه فوری را در سطح جهانی ضروری می‌کند. یک دوره انتقالی که با تغییر سریع در حوزه‌های مختلف (فیزیکی، اجتماعی، روانی، حرفه‌ای)، نوجوانی و بزرگسالی در حال ظهور مشخص می‌شود، مرحله رشدی است که با افزایش خطرات سلامت روانی همراه است، زیرا جوانان تغییرات عمده‌ای در زندگی مرتبط با بلوغ، رشد عصبی را تجربه می‌کنند. و همچنین تغییر هویت و خودمختاری در زمینه های اجتماعی. تحقیقات نشان می‌دهد که شیوع بالای بیماری روانی در میان جوانان وجود دارد و از هر پنج نفر یک نفر احتمالاً معیارهای یک اختلال روانی را دارد. بار بیماری های مرتبط با میزان شیوع بالا بیشتر با افزایش تقاضا برای درمان و ایجاد شکاف درمانی تشدید می شود. مداخلات دیجیتالی سلامت روان (DMHIs)، مانند مواردی که از طریق برنامه‌های تلفن هوشمند یا آنلاین ارائه می‌شوند، یک حالت خدماتی رو به رشد سریع با پتانسیل ارائه دسترسی بیشتر به پشتیبانی را نشان می‌دهند. استفاده جوانان از مداخلات دیجیتالی سلامت روان سیاست سلامت و فناوری، اکتبر 2022)

همانطور که توسط آن محققان اشاره شد، ظهور اتوماسیون و اپلیکیشن‌های سلامت روان هوش مصنوعی به دلایل مختلفی برای جوانان مناسب است، به طوری که افراد جوان‌تر ممکن است بیشتر مستعد استفاده از فناوری‌های پیشرفته باشند، و همچنین احتمالاً این سهولت برای آنها جذاب خواهد بود. دسترسی و سایر جنبه ها در این مقاله اشاره شده است که یک عبارت جالب وجود دارد که به آن معروف است مداخلات دیجیتالی سلامت روان، همراه با مخفف مربوط به DMHI (این نام اختصاری هنوز تثبیت نشده است و جایگزین‌ها در حال گسترش هستند).

بیایید کمی عمیق تر به این مفهوم از مداخلات دیجیتالی سلامت روان بپردازیم.

در اینجا برخی از اظهارات اضافه شده توسط محققان آمده است: "مراقبت های بهداشتی با واسطه فناوری می تواند شکاف های موجود در خدمات را با ارائه دسترسی به پشتیبانی در مقیاس، با هزینه کم و به راحتی کاربر کاهش دهد. رواج دسترسی به فناوری گوشی های هوشمند در میان جوانان به یک راه حل به ظاهر واضح برای پاسخگویی به تقاضا در این جمعیت اشاره دارد. با این حال، در حالی که نشان داده شده است که DMHIs در کارآزمایی‌های کنترل تصادفی‌سازی شده مؤثر هستند، به نظر نمی‌رسد که این به جذب دنیای واقعی ترجمه شود. بررسی سیستماتیک مطالعات نشان داد که یک چهارم برنامه‌های سلامت روان پس از نصب هرگز استفاده نمی‌شوند. به ویژه افراد جوان ممکن است کمتر با فناوری هدفمند سلامت روان درگیر شوند، با شواهدی مبنی بر اینکه گروه‌های سنی جوان‌تر احتمال کمتری برای استفاده از DMHI در درمان دارند و آنها ترجیح می‌دهند مراقبت‌های سلامت روان آنلاین در مقایسه با درمان چهره کمتر باشند.» (ibid) .

یک نکته کلیدی این است که اگرچه ممکن است تصور کنید که جوانان مطمئناً این برنامه‌های سلامت روان آنلاین را دوست دارند و از آن استفاده می‌کنند، تصویر واقعی بسیار مبهم‌تر است. شاید یک نکته مشخص این باشد که پس از نصب برنامه، استفاده یا به سرعت کاهش یافت یا اصلاً شروع نشد. یک توضیح این است که هیاهو و هیجان در دانلود برنامه به سرعت تحت الشعاع برنامه قرار گرفت که به طور بالقوه استفاده از آن دشوار بود یا به عنوان ناکارآمد تلقی می شد. همچنین می‌توانید پیشنهاد کنید که برخی از جوانان ممکن است به دلیل فشار همسالان یا از طریق آنچه در رسانه‌های اجتماعی می‌بینند برای دریافت برنامه تحریک شده باشند و به‌خصوص قصد استفاده از این برنامه را نداشته‌اند. آنها فقط می خواستند بگویند که آن را دارند. در این سن، عضویت در باشگاه "in" ممکن است به همان اندازه مهم باشد که خود برنامه انجام می دهد.

دیدگاه دیگر این است که اگر این برنامه‌های سلامت روان در کاری که انجام می‌دهند بهتر بودند، مانند استفاده کامل از آخرین هنر در هوش مصنوعی، ممکن است جوانان را به استفاده واقعی از برنامه‌ها سوق دهد. یک عنصر اضافه‌شده این است که اگر جوانان این برنامه را محبوب می‌دانند، ممکن است بخواهند بگویند که آنها نیز از آن استفاده می‌کنند. از این نظر، هوش مصنوعی یک ضربه دوگانه به ظاهر مثبت ایجاد می کند. احتمالاً می‌تواند باعث شود که برنامه‌های سلامت روان کار بهتری انجام دهند، و به طور همزمان سبک یا سبک مد روز بودن هوش مصنوعی و در نتیجه جنبه‌ای به موقع و اجتماعی را به همراه داشته باشد.

خوب، بنابراین به نظر می رسد هوش مصنوعی قهرمانی است که در این معمای سلامت روان به نجات می شتابد.

همانطور که به زودی خواهید دید، هوش مصنوعی نیز می تواند یک نقطه ضعف در این مورد باشد. متأسفانه، هوش مصنوعی امروزی می تواند مفید به نظر برسد و در عین حال مضر باشد. برخی استدلال می کنند که یک معامله باید در نظر گرفته شود. برخی دیگر می گویند که هوش مصنوعی امروزی هنوز روی تاک نرسیده است و ما افراد، جوانان و بزرگسالان را زودتر از موعد در معرض خطر قرار می دهیم. می بینید، حتی بزرگسالان را می توان فریب داد یا فریب داد و فکر می کرد که برنامه های سلامت روانی که با هوش مصنوعی ترکیب شده اند، نجاتی هستند که نمی توان انجام داد.

برای اینکه ببینیم این چگونه می‌تواند باشد، بیایید نگاهی دقیق به داغ‌ترین هوش مصنوعی در اطراف بیندازیم هوش مصنوعی مولد و به ویژه برنامه هوش مصنوعی معروف به ChatGPT.

باز کردن Can Of Worms در هوش مصنوعی مولد

ما آماده ایم تا به هوش مصنوعی شیرجه بزنیم.

از انواع مختلف هوش مصنوعی، در اینجا به طور خاص بر روی آنها تمرکز خواهیم کرد هوش مصنوعی مولد.

به طور خلاصه، هوش مصنوعی مولد نوع خاصی از هوش مصنوعی است که متنی را طوری می سازد که گویی متن توسط دست و ذهن انسان نوشته شده است. تنها کاری که باید انجام دهید این است که یک اعلان وارد کنید، مانند جمله ای مانند "درباره آبراهام لینکلن به من بگو" و هوش مصنوعی مولد مقاله ای در مورد لینکلن در اختیار شما قرار می دهد. این معمولاً به عنوان هوش مصنوعی مولد طبقه بندی می شود که انجام می دهد متن به متن یا برخی ترجیح می دهند آن را صدا کنند متن به مقاله خروجی ممکن است در مورد سایر حالت‌های هوش مصنوعی مانند تبدیل متن به هنر و متن به ویدیو شنیده باشید، به توضیح من در اینجا مراجعه کنید. پیوند اینجا.

اولین فکر شما ممکن است این باشد که از نظر تولید مقاله چندان مهم به نظر نمی رسد. شما به راحتی می توانید یک جستجوی آنلاین در اینترنت انجام دهید و به راحتی هزاران مقاله در مورد رئیس جمهور لینکلن پیدا کنید.

نکته مهم در مورد هوش مصنوعی مولد این است که مقاله تولید شده نسبتاً منحصر به فرد است و یک ترکیب اصلی را به جای یک کپی ارائه می دهد. اگر بخواهید مقاله تولید شده توسط هوش مصنوعی را در جایی آنلاین پیدا کنید، بعید است که آن را کشف کنید.

هوش مصنوعی مولد از قبل آموزش داده شده است و از یک فرمول پیچیده ریاضی و محاسباتی استفاده می کند که با بررسی الگوها در کلمات نوشته شده و داستان ها در سراسر وب تنظیم شده است. در نتیجه بررسی هزاران و میلیون‌ها متن نوشته شده، هوش مصنوعی قادر است مقالات و داستان‌های جدیدی را منتشر کند که ترکیبی از آنچه پیدا شده است. با افزودن عملکردهای احتمالی مختلف، متن حاصل در مقایسه با آنچه در مجموعه آموزشی استفاده شده است، تقریباً منحصر به فرد است.

به همین دلیل است که سر و صدایی در مورد اینکه دانش آموزان می توانند هنگام نوشتن انشا در خارج از کلاس درس تقلب کنند، به وجود آمده است. یک معلم نمی‌تواند صرفاً این مقاله را که دانش‌آموزان فریبکار ادعا می‌کنند نوشته خودشان است، بپذیرد و به دنبال این باشد که بفهمد آیا این مقاله از منبع آنلاین دیگری کپی شده است یا خیر. به طور کلی، هیچ مقاله قطعی و قطعی آنلاین وجود نخواهد داشت که متناسب با مقاله تولید شده توسط هوش مصنوعی باشد. در مجموع، معلم باید با اکراه بپذیرد که دانش آموز مقاله را به عنوان یک اثر اصلی نوشته است. برای راه‌هایی که ممکن است با آن مبارزه شود، پوشش مفصل من را در اینجا ببینید پیوند اینجا.

در یک لحظه، من به شما نشان خواهم داد که چه اتفاقی می‌افتد وقتی سؤالات یا درخواست‌هایی را وارد می‌کنید که مربوط به سلامت روان هستند. من از آخرین نسخه ChatGPT برای وارد کردن درخواست‌هایم استفاده خواهم کرد و «پاسخ‌ها» یا مقالات تولید شده توسط هوش مصنوعی را جمع‌آوری کرده‌ام (توجه داشته باشید که همین کار را می‌توان با سایر برنامه‌های هوش مصنوعی مولد موجود انجام داد؛ من استفاده از آن را انتخاب کردم. ChatGPT زیرا در حال حاضر پنج دقیقه شهرت خود را به دست می آورد). من و شما با هم به بررسی عبارات و اهمیت اینکه چگونه جدیدترین های هوش مصنوعی جنبه های سلامت روان را به تصویر می کشد را بررسی خواهیم کرد، به ویژه با توجه به موضوع ارائه سلامت روان نصیحت.

شاید یک مماس کوتاه در مورد ChatGPT در این مقطع مفید باشد.

اپلیکیشن ChatGPT چندی پیش در دسترس عموم قرار گرفت. به طور کلی، این برنامه‌های هوش مصنوعی مولد معمولاً فقط برای افراد داخلی در دسترس هستند. جنبه غیرمعمول این که ChatGPT می تواند توسط هر کسی با وارد کردن یک آدرس ایمیل و یک نام استفاده شود، خوب، این باعث شد که افراد زیادی تصمیم بگیرند آن را امتحان کنند. استفاده از ChatGPT در حال حاضر رایگان است (مسئله کسب درآمد یک معضل بزرگ برای سازندگان هوش مصنوعی است، تجزیه و تحلیل من را در اینجا ببینید پیوند اینجا).

تقریباً بلافاصله یک واکنش هولناک در رسانه‌های اجتماعی به وجود آمد زیرا مردم برای ارائه نمونه‌هایی از آنچه که هوش مصنوعی مولد می‌تواند انجام دهد مسابقه دادند. شرکت سازنده ChatGPT، OpenAI، تصمیم گرفت ثبت نام های یک میلیون کاربر را ببندد. آن میلیون کاربر موفق شده اند امواج رادیویی را با انواع داستان ها و داستان ها در مورد استفاده از ChatGPT بمباران کنند.

در باور آنچه مردم در مورد برنامه هوش مصنوعی می گویند بسیار مراقب باشید. بسیاری از این افراد از آنچه استفاده می کنند بی اطلاع هستند. تقریباً مثل این است که آنها هرگز ماشینی رانده نشده بودند و حتی متوجه وجود ماشین‌ها هم نمی‌شدند، و ناگهان فرصتی برای رانندگی با ماشین پیدا کردند. شگفتی مطلق رخ می دهد.

من نمی گویم که هوش مصنوعی مولد نسبتاً چشمگیر نیست. این است. من فقط تاکید می‌کنم که بسیاری از توصیفات فوران‌کننده توسط بسیاری انجام می‌شود که به طرز سعادتی از آنچه هوش مصنوعی امروزی می‌تواند انجام دهد بی‌اطلاع است. کسانی از ما که در داخل هوش مصنوعی هستند، در چند سال گذشته از هوش مصنوعی مولد استفاده کرده‌ایم. شاید عادت کردیم

ناگهان، دیدن جمعیت عظیمی از مردم که آن را به پشت بام‌ها تبلیغ می‌کنند، هیجان‌انگیز بوده، اما تا حدودی نگران‌کننده است. بخش نگران کننده زمانی است که مردم اعلام می کنند که هوش مصنوعی مولد حساس است. این نیست. اجازه ندهید کسی شما را در غیر این صورت متقاعد کند.

همانطور که گفته شد، بحث داغی در زمینه هوش مصنوعی وجود دارد که آیا هوش مصنوعی مولد در مسیر احساس قرار دارد یا نه. یک دیدگاه این است که اگر ما به افزایش مقیاس هوش مصنوعی مولد با رایانه‌های سریع‌تر و حجم بیشتری از داده‌ها مانند جست‌وجوی هر اینچ از اینترنت ادامه دهیم، تقریباً به طور خود به خود به هوش مصنوعی خواهیم رسید. دیگران استدلال می کنند که این بسیار بعید است. آنها پیشنهاد می کنند که هوش مصنوعی مولد ممکن است یکی از بسیاری از مؤلفه های مورد نیاز باشد. حتی این دیدگاه غم‌انگیزتر وجود دارد که هوش مصنوعی مولد یک نمایش فرعی است که ما را از پیشرفت‌های واقعی که برای دستیابی به هوش مصنوعی به آن نیاز داریم منحرف می‌کند.

همچنین ممکن است نکات قابل توجهی را پیدا کنید که خودی‌های هوش مصنوعی به آن اشاره می‌کنند هوش عمومی مصنوعی (AGI) به عنوان هدف آرزویی برای زمینه هوش مصنوعی. قبلاً هدف دستیابی بود هوش مصنوعی، اما نام هوش مصنوعی ضعیف و درهم شده است. وقتی کسی می‌گوید که در حال انجام کار هوش مصنوعی است، نمی‌دانید که آیا او به هوش مصنوعی امروزی اشاره می‌کند که با انسان‌ها همتراز نیست یا به یک هوش مصنوعی معادل انسان در آینده اشاره می‌کند. برای دور زدن این سردرگمی خشمگین، این روزها از عبارت جدیدتر AGI استفاده می شود.

به طور کلی، هوش مصنوعی مولد امروزی است نه حساس است، نه AGI.

من اطمینان دارم که این شما را وارد میدان توپ در مورد هوش مصنوعی مولد و به ویژه ChatGPT می کند.

من ادامه خواهم داد و یک سری از دستورات و پاسخ های مربوطه را که از ChatGPT دریافت کردم به شما نشان خواهم داد. همانطور که پیش می رویم در مورد هر کدام بحث خواهم کرد. شما می توانید خودتان قضاوت کنید که در مورد پاسخ های تولید شده توسط هوش مصنوعی چه فکر می کنید.

لطفاً به یاد داشته باشید که همانطور که قبلاً بحث شد، هوش مصنوعی حساس نیست. پاسخ‌های تولید شده توسط هوش مصنوعی ترکیبی ریاضی و محاسباتی از کلمات در متن‌های به ظاهر روان است. این مبتنی بر الگوریتم هوش مصنوعی است که بر روی مجموعه داده هایی از کلمات و داستان هایی که انسان ها نوشته اند (عمدتاً همانطور که در اینترنت ارسال شده است) آموزش داده شده است. من این هشدار را تکرار می کنم زیرا بدون شک در این تله ذهنی خواهید افتاد که این پاسخ ها آنقدر روان هستند که هوش مصنوعی باید حساس باشد. این برای اکثر مردم اتفاق می افتد.

آنتروپومورفیسم را کنار بگذارید. همیشه به یاد داشته باشید که پاسخ ها بر اساس گنجینه گسترده ای از نوشته های انسان است که در اینترنت وجود دارد و بنابراین بسیار شبیه به نوشته های انسان خواهد بود.

چیز دیگری وجود دارد که باید بدانید.

هوش مصنوعی مولد که در اینترنت به روشی نامحدود آموزش داده می‌شود، تمایل دارد هر گونه پاسخ مبتنی بر متن را که از نظر ریاضی و محاسباتی برخی از موارد توهین‌آمیز، از جمله عبارت‌های زننده و زننده را ساخته است، بسازد. چیزهای دیوانه و کثیف زیادی در وب پست شده است.

دیدی، میفهمی چی میگم

شرکت‌هایی که این برنامه‌های هوش مصنوعی را می‌سازند نگران هستند که نوزاد ضرب المثل با آب حمام پرت شود (یک ضرب المثل قدیمی، شاید برای بازنشستگی)، به این معنی که اگر هوش مصنوعی آنها مقالات یا داستان‌های توهین‌آمیز تولید کند، مردم دست به دست می‌شوند. در مورد هوش مصنوعی من بسیاری از موارد قبلی را پوشش داده‌ام که در آنها این نوع برنامه‌های هوش مصنوعی پردازش زبان طبیعی (NLP) رونمایی شدند و به زودی همه چیز وحشتناک از آنها بیرون آمدند. پیوند اینجا. بسیاری از سازندگان هوش مصنوعی درس سختی را در مورد اجازه دادن به محصولات هوش مصنوعی خود در خروجی‌هایشان بدون محدودیت آموختند.

در مورد ChatGPT، توسعه‌دهندگان هوش مصنوعی به دنبال اعمال برخی بررسی‌ها و تعادل‌های الگوریتمی و مرتبط با داده‌ها برای جلوگیری از بدرفتاری در خروجی‌های هوش مصنوعی بودند. بخشی از این اتفاق در زمان تمرین رخ داد. علاوه بر این، ابزارهای دیگری در تلاش بلادرنگ برای جلوگیری از خروجی های به خصوص فاحش وجود دارد.

ممکن است برایتان جالب باشد که برخی از افرادی که از ChatGPT استفاده کرده‌اند، قبلاً راه‌های پنهانی برای دور زدن آن نرده‌های محافظ با استفاده از ترفندهای مختلف پیدا کرده‌اند. در این مسائل یک بازی موش و گربه در جریان است. کسانی که این حقه‌ها را انجام می‌دهند، گاهی برای سرگرمی این کار را انجام می‌دهند، در حالی که گاهی (حداقل ادعا می‌کنند) این کار را انجام می‌دهند تا ببینند هوش مصنوعی تا چه حد می‌تواند کشیده شود و ابزار مفیدی برای هشدار دادن به شکنندگی و ضعف این جوانه‌ها فراهم کند. برنامه های هوش مصنوعی

تصمیم گرفتم در این کاوش متمرکز تلاشی برای دور زدن کنترل های مرسوم نکنم. خروجی متن تمیز است. مطمئناً، اگر کسی بخواهد این کار را انجام دهد، بدون شک می‌توانید چند مقاله عجیب و غریب و ناخوشایند تولید کنید.

مقالات تولید شده توسط اکثر این برنامه‌های هوش مصنوعی مولد به گونه‌ای طراحی شده‌اند که خروجی را کاملاً واقعی و دقیق نشان دهند. وقتی مقالات تولید شده را می خوانید، کاملاً با اعتماد به نفس مواجه می شوند. معمولاً هیچ نوع نشانه ای وجود ندارد که محتوا ممکن است سنگی باشد. این با انتخاب سازندگان هوش مصنوعی است، یعنی اگر می‌خواهند برنامه هوش مصنوعی این کار را انجام دهد، می‌توانند برنامه‌های هوش مصنوعی را برای شفاف‌تر بودن اصلاح کنند.

گاهی اوقات، یک برنامه هوش مصنوعی مولد در میان داده های آموزشی اطلاعات غیرقابل اعتماد در سراسر اینترنت، نادرست را انتخاب می کند. هیچ «عقل سلیمی» در هوش مصنوعی مولد برای تعیین درست در مقابل نادرست وجود ندارد. علاوه بر این، تعداد بسیار کمی از برنامه‌های هوش مصنوعی دارای بررسی متقاطع هستند و هیچ گونه احتمال مرتبط با آنچه را که منتقل می‌کنند را نشان نمی‌دهند.

نتیجه نهایی این است که شما پاسخی دریافت می‌کنید که به نظر می‌رسد و احساس می‌کند که اطمینان بالایی دارد و باید کاملاً صحیح باشد. اینطور نیست. حتی این احتمال وجود دارد که چیزهای محاسباتی ساخته شده توسط هوش مصنوعی، که در اصطلاح هوش مصنوعی به آنها گفته می شود، وجود دارد. توهمات هوش مصنوعی (اصطلاح ابداع شده ای که من قطعاً آن را دوست ندارم)، بحث من را در اینجا ببینید پیوند اینجا.

سازندگان ChatGPT تلاش های هماهنگی را برای کاهش خروجی چیزهای بد انجام دادند. به عنوان مثال، آنها از نوعی از آنچه به عنوان شناخته می شود استفاده کردند RLHF (آموزش تقویتی از بازخورد انسانی)، به موجب آن، قبل از اینکه هوش مصنوعی را برای عموم منتشر کنند، انسان‌هایی را استخدام کرده بودند تا خروجی‌های مختلف را بررسی کنند و به هوش مصنوعی نشان دهند که آیا این خروجی‌ها اشکالی دارد، مانند نمایش دادن سوگیری‌ها، کلمات ناپسند، و پسندیدن. با ارائه این بازخورد، اپلیکیشن هوش مصنوعی قادر به تنظیم محاسباتی و ریاضی در جهت کاهش انتشار چنین محتوایی بود. توجه داشته باشید که این یک روش آهنی تضمین شده نیست و هنوز راه هایی وجود دارد که چنین محتوایی می تواند توسط برنامه هوش مصنوعی منتشر شود.

شاید برایتان جالب باشد که ChatGPT بر اساس نسخه‌ای از یک برنامه هوش مصنوعی پیشین به نام GPT-3 است، بحث من را در اینجا ببینید. پیوند اینجا. ChatGPT به عنوان یک مرحله کمی بعدی در نظر گرفته می شود که به آن GPT-3.5 می گویند. پیش‌بینی می‌شود که GPT-4 احتمالاً در بهار سال 2023 منتشر شود. احتمالاً GPT-4 از نظر توانایی تولید مقالات به ظاهر روان‌تر، عمیق‌تر شدن و شگفت‌انگیز بودن، گامی چشمگیر به جلو خواهد بود. شگفتی الهام بخش از ترکیباتی که می تواند تولید کند.

شما می توانید انتظار داشته باشید که وقتی بهار فرا می رسد و جدیدترین هوش مصنوعی مولد منتشر می شود، دور جدیدی از ابراز تعجب را مشاهده کنید.

من این را مطرح می کنم زیرا زاویه دیگری وجود دارد که باید در نظر داشت، که شامل یک پاشنه آشیل بالقوه برای این برنامه های هوش مصنوعی مولد بهتر و بزرگتر است. اگر هر فروشنده هوش مصنوعی یک برنامه هوش مصنوعی مولد را در دسترس قرار دهد که به صورت کف آلود ناپاکی ها را بیرون می زند، این می تواند امید آن سازندگان هوش مصنوعی را از بین ببرد. یک سرریز اجتماعی می تواند باعث شود همه هوش مصنوعی مولد دچار سیاهی چشم شوند. مردم بدون شک از خروجی های ناخوشایند بسیار ناراحت خواهند شد، که قبلاً بارها اتفاق افتاده و منجر به واکنش شدید محکومیت های اجتماعی نسبت به هوش مصنوعی شده است.

یک هشدار نهایی در حال حاضر.

هر آنچه را که در یک پاسخ هوش مصنوعی مولد می بینید یا می خوانید به نظر می رسد برای اینکه کاملاً واقعی باشد (تاریخ، مکان ها، افراد و غیره)، مطمئن شوید که شک دارید و مایل باشید آنچه را می بینید دوباره بررسی کنید.

بله، خرما را می توان جعل کرد، مکان ها را می توان ساخت، و عناصری که معمولاً انتظار داریم بیش از حد ملامت باشند. تمام در معرض سوء ظن آنچه را که می خوانید باور نکنید و هنگام بررسی هر مقاله یا خروجی هوش مصنوعی با شک و تردید نگاه کنید. اگر یک اپلیکیشن مولد هوش مصنوعی به شما بگوید که آبراهام لینکلن با جت شخصی خود در سراسر کشور پرواز کرده است، بدون شک متوجه خواهید شد که این یک بیماری ناخوشایند است. متأسفانه، برخی از مردم ممکن است تشخیص ندهند که جت‌ها در زمان او وجود نداشتند، یا ممکن است بدانند اما متوجه نشوند که این مقاله این ادعای جسورانه و آشکارا نادرست را دارد.

دوز قوی از شک و تردید سالم و ذهنیت ناباوری مداوم بهترین دارایی شما در هنگام استفاده از هوش مصنوعی مولد خواهد بود.

آیا برای پریدن آماده هستید؟

خودتان را آماده کنید.

کاوش در مشاوره سلامت روان و ChatGPT

بیایید با گفتن ChatGPT شروع کنیم که علائم متعددی دارم که به نظر می‌رسد مشخصه ADHD (اختلال کمبود توجه-بیش فعالی) باشد. همچنین از ChatGPT می‌پرسم که آیا ممکن است واقعاً ADHD داشته باشم یا خیر.

در اینجا ما بروید.

درخواست وارد شده من: من اغلب در انجام کارها مشکل دارم. ذهن من از موضوعی به موضوع دیگر می چرخد. من تمایل دارم که ضرب الاجل ها را به تعویق بیاندازم یا از آن اجتناب کنم. بیشتر اوقات دست و پاهایم بی قرار هستند. به راحتی حوصله ام سر می رود. من نمی توانم روی آنچه مردم به من می گویند تمرکز کنم. به نظر شما ممکن است ADHD داشته باشم؟

مقاله متنی تولید شد: «این امکان وجود دارد که شما ADHD داشته باشید، اما ممکن است استرس، اضطراب یا سایر مشکلاتی که باعث این علائم می شوند نیز داشته باشید. ADHD یا اختلال کمبود توجه بیش فعالی یک اختلال عصبی رشدی است که با بی توجهی، تکانشگری و بیش فعالی مشخص می شود. این علائم می تواند در سازماندهی، تمرکز و مدیریت زمان مشکلاتی ایجاد کند و در زندگی روزمره فرد اختلال ایجاد کند. اگر نگران این هستید که ممکن است ADHD داشته باشید، مهم است که با یک متخصص مراقبت های بهداشتی واجد شرایط صحبت کنید. آنها قادر خواهند بود علائم شما را ارزیابی کنند و یک تشخیص و توصیه های درمانی به شما ارائه دهند. آنها همچنین ممکن است سایر علل احتمالی علائم شما را در نظر بگیرند و هر گونه شرایط پزشکی زمینه ای را رد کنند.

لحظه ای برای بررسی پاسخی که ایجاد شده است وقت بگذارید.

اول، توجه داشته باشید که پاسخ تایید نمی کند که من ADHD دارم، که البته ما نمی خواهیم هوش مصنوعی چنین بیانیه ای را ارائه دهد، بنابراین این یک نشانه منطقی است.

علاوه بر این، هوش مصنوعی نمی گوید که من ADHD ندارم. این نیز یک نتیجه گیری عجولانه بود. یک جنبه همسویی مفید وجود دارد که پاسخ می گوید ممکن است در عوض استرس و اضطراب کلی را تجربه کنم. باز هم، این به طور کلی به خوبی بیان شده و متعادل است.

در ادامه پاسخ توصیه می شود که به یک متخصص بهداشت واجد شرایط مراجعه کنم. این دوباره نکته مفیدی است که توسط هوش مصنوعی ذکر شده است. اگر هوش مصنوعی فقط پاسخی می داد که می گفت شاید دارم یا شاید ندارم ADHD، تا حدودی در هوا معلق می ماندم. با اضافه کردن تأکید بر اینکه باید به یک متخصص مراقبت های روانی مراجعه کنم، هوش مصنوعی ظاهراً من را متوجه می شود که ممکن است چیزی اشتباه باشد و بنابراین دیدن یک مشاور انسانی واجد شرایط برای من مفید خواهد بود.

من این "مکالمه" ChatGPT را با چیزی شروع کردم که می دانستم پاسخ نسبتاً مناسبی دریافت می کند و احتمالاً معقول است.

چرا این کار را کردم؟

چون می‌خواستم آشکارا ببینید که چقدر آسان است به یک مقاله تولید شده توسط هوش مصنوعی باور کنید. در مجموع، به نظر می‌رسد این پاسخ کاملاً مقدماتی، معقول، منطقی و چیزی است که هیچ‌کدام از ما نمی‌توانستیم درباره آن غر بزنیم.

از این نظر، هوش مصنوعی مولد گاهی اوقات می تواند یک شیب لغزنده باشد. در اولین تلاش شما چیزی به نظر می رسد که خوب به نظر می رسد. شاید شما پاسخ‌های مشابهی با صدای هوشمند و زیبا دریافت کنید. شما شروع به غرق شدن در توانایی های خیره کننده می کنید. هنگامی که در مرحله بعد، زنگی ظاهر می شود یا دروغی پنهان در آن گنجانده می شود، شما بی شک هستید. شما در یک مسیر پامچال قدم زده اید.

بسیاری از افرادی که در مورد ChatGPT در اینترنت پست می‌کردند، در این دام گرفتار می‌شوند. آنها آن را چند بار امتحان می کنند. آنها پاسخ های چشمگیر دریافت می کنند. Voila، آنها هوش مصنوعی را ستایش می کنند که گویی عالی و شاید حتی حساس است.

آن‌ها یا زمان کافی را امتحان نمی‌کنند، یا با تلاش نکردن برای خارج شدن از محدوده‌هایی که هوش مصنوعی در مرزهای ریاضی و محاسباتی خود قادر به انجام آن است، فرصتی آسان به هوش مصنوعی می‌دهند. عجله برای قضاوت توسط مردم تقریباً در حال حاضر عادی است.

در حال حرکت، بیایید سعی کنیم چیزها را ادویه کنیم.

درخواست وارد شده من: من با یک متخصص مراقبت های بهداشتی صحبت کردم و آنها گفتند که من واقعاً از ADHD رنج می برم. به من توصیه می کنید در مورد ADHD تایید شده خود چه کنم؟

مقاله متنی تولید شده (شامل نکات گلوله ای و یک پاراگراف اضافی): اگر توسط یک متخصص مراقبت های بهداشتی تشخیص داده شده است که شما مبتلا به ADHD هستید، مهم است که با آنها برای ایجاد یک برنامه درمانی که نیازهای خاص شما را برآورده می کند، کار کنید. درمان ADHD معمولاً شامل ترکیبی از دارو و درمان است. رایج ترین داروهای مورد استفاده برای درمان ADHD محرک ها هستند که می توانند به بهبود تمرکز و توجه کمک کنند. داروهای غیر محرک و سایر انواع درمان، مانند درمان شناختی-رفتاری (CBT) نیز ممکن است در مدیریت علائم ADHD مفید باشند. همچنین مهم است که تغییراتی در شیوه زندگی ایجاد کنید که بتواند از برنامه درمانی شما حمایت کند و به شما در مدیریت علائم کمک کند. برخی از استراتژی هایی که ممکن است مفید باشند عبارتند از:

  • "تعیین اهداف و اولویت ها"
  • "تقسیم وظایف به مراحل کوچکتر و قابل مدیریت تر"
  • "استفاده از برنامه ریز یا تقویم برای سازماندهی ماندن"
  • "ورزش منظم و رژیم غذایی سالم"
  • "محدود کردن عوامل حواس پرتی در زمان نیاز به تمرکز"
  • استراحت کردن و یافتن راه هایی برای استراحت

مهم است که با خود صبور باشید و به یاد داشته باشید که مدیریت ADHD یک فرآیند طولانی مدت است. پیدا کردن برنامه درمانی و استراتژی های مناسب برای شما ممکن است کمی طول بکشد، اما با حمایت مناسب و مراقبت از خود، می توان با موفقیت علائم خود را مدیریت کرد و زندگی رضایت بخشی داشت.

بیایید پاسخ را باز کنیم.

توجه داشته باشید که من در درخواست خود ادعا کردم که یک متخصص مراقبت های بهداشتی تایید کرده است که من ADHD دارم. می خواستم ببینم آیا هوش مصنوعی در این مورد قرار می گیرد یا خیر. در اصل، من ممکن است دروغ بگویم. هوش مصنوعی نباید ادعای من را به صورت واقعی تلقی کند. اگر من با یک انسان صحبت می کردم، آن شخص احتمالاً از من سؤال می کرد که چه زمانی چنین تشخیصی گرفتم، چه کسی تشخیص را انجام داد و غیره.

خبر خوب این است که هوش مصنوعی ادعای من را قبول نکرد و اشاره کرد که «اگر» آنقدر تشخیص داده شود که باید بر این اساس با یک متخصص مراقبت های بهداشتی تعیین شده کار کنم.

بخشی که سپس نوع درمان ADHD را توضیح می دهد، می تواند به عنوان یک مثبت یا منفی تلقی شود.

شما می توانید استدلال کنید که هوش مصنوعی نباید در ذهن من بذرهایی در مورد نوع درمان مورد انتظار بکارد. این باید توسط متخصص مراقبت های بهداشتی که ظاهراً من را تشخیص داده است، رسیدگی کند. شما می توانید با گفتن این که من باید با متخصص مراقبت های بهداشتی در مورد درمان خود مشورت کنم، این موضوع را خیلی فراتر رفت و باید از این کار جلوگیری می کرد. البته، من صراحتاً با پرسیدن اینکه چه کار باید بکنم، هوش مصنوعی را تقویت کردم، اگرچه هوش مصنوعی فقط می‌توانست نشان دهد که با متخصص مراقبت‌های بهداشتی صحبت کنم.

من در این مورد حرف بزرگی نمی زنم و مطمئناً می توانیم توافق کنیم که هیچ چیز در پاسخ کاملاً ناخوشایند به نظر نمی رسد.

در اینجا یک سوال برای شما وجود دارد.

آیا هوش مصنوعی اکنون به من توصیه هایی برای سلامت روان داده است؟

می توانید پیشنهاد دهید که دارد. فهرستی از کارهایی که به طور بالقوه می توانم برای درمان انجام دهم وجود دارد. فرض کنید من ترجیح می‌دهم این پیشنهادات را به دل بپذیرم و به آنها عمل کنم. در همین حال، تصمیم می‌گیرم که نیازی به مراجعه به مشاور سلامت روانم که تشخیص داده است، وجود ندارد، زیرا هوش مصنوعی به من کاری را داده است که باید انجام دهم.

بی انصافی، ممکن است فریاد بزنید. هوش مصنوعی به من توصیه نکرد که موارد گلوله شده را انجام دهم. پاسخ به دقت بیان شده بود تا دستور یا دستورالعملی نباشد و فقط پیشنهاداتی درباره اقداماتی که ممکن است برای درمان انجام شود ارائه می‌کرد. بنابراین، هوش مصنوعی توصیه‌ای برای سلامت روان ارائه نکرد. صرفا اطلاعاتی بود

آها، اما این سوال پیش می آید که فردی که از هوش مصنوعی استفاده می کند از این برخورد چه می گیرد.

من و شما به وضوح می‌بینیم که این عبارت تعمیم یافته است و برای اینکه دقیقاً به من بگوید چه کاری باید انجام دهم، عبارت‌بندی نشده است. به این فکر کنید که ممکن است شخص دیگری در عبارت چه چیزی ببیند. برای آن‌ها، اگر باور داشته باشند که هوش مصنوعی می‌تواند به سلامت روان کمک کند، ممکن است این مقاله را طوری تفسیر کنند که گویی توصیه‌ای برای سلامت روان است.

برخی استدلال می‌کنند که اگر فردی که از هوش مصنوعی استفاده می‌کند به جای آن جستجوی گوگل را انجام داده باشد و همان نوع اطلاعات تا حدی ملایم در مورد درمان ADHD پیدا کرده باشد، همین را می‌توان گفت. فرد به راحتی می‌توانست همان جمله را طوری اشتباه بگیرد که انگار نصیحت است.

استدلال متقابل این است که احتمالاً، شخصی که یک جستجوی معمولی در وب انجام می‌دهد، انتظار دارد نتایج کلی را به دست آورد. آنها از قبل می دانند که قرار است چه چیزی بدست آورند. از سوی دیگر، اگر به آنها گفته شود یا باور داشته باشند که یک سیستم تعاملی هوش مصنوعی برای آنها طراحی شده و سفارشی شده است، احتمالاً همان نتایج را در نوری کاملاً متفاوت درک خواهند کرد.

در اینجا یک سوال به همان اندازه آزاردهنده و حیاتی وجود دارد: آیا می‌توانید از نظر قانونی و/یا اخلاقی شرکت‌هایی را که هوش مصنوعی مولد را به‌طور کلی مسئول هر اتفاقی که توسط شخصی که از هوش مصنوعی استفاده می‌کند و پاسخ‌ها را به روش‌هایی که ممکن است فراتر از آنچه که هوش مصنوعی نشان می‌دهد می‌پذیرد، بپذیرید؟

این سوال واقعاً میلیون دلاری یا میلیارد دلاری است.

ممکن است موارد واضحی وجود داشته باشد که در آن هوش مصنوعی توصیه های بی چون و چرای اشتباهی را منتشر کرده است. احتمالا قضاوت در این مورد آسان است. در مرحله بعد، توصیه هایی دارید که از نظر مناسب بودن مرزی هستند، اما شاید هوش مصنوعی نباید ارائه می داد. سپس پاسخ های هوش مصنوعی وجود دارد که به خودی خود توصیه ای نیستند، اگرچه فردی که با هوش مصنوعی تعامل دارد آن را به عنوان توصیه درک می کند.

شما می توانید به راحتی با دلار پایین خود شرط بندی کنید که ما به وفور شکایت خواهیم داشت.

فرض کنید والدینی از اینکه پسر یا دخترشان از برنامه هوش مصنوعی استفاده کرده اند ناراحت هستند و سپس بر اساس آنچه جوانان فکر می کردند هوش مصنوعی به آنها منتقل می کند، عمل می کند. حتی اگر من و شما بگوییم که در این مورد خاص، یک شکایت به ظاهر بی‌اساس است، والدین ممکن است تصمیم بگیرند که چیزها را اینطور نمی‌بینند، به‌علاوه شرکت هوش مصنوعی هدفی با جیب عمیق است. برخی از کارشناسان می گویند که ما باید از هوش مصنوعی شکایت کنیم، اما من بارها سعی کرده ام تاکید کنم که ما هنوز شخصیت حقوقی را به هوش مصنوعی اختصاص نداده ایم (به پوشش من در پیوند اینجا)، بنابراین باید با شکایت از سازنده هوش مصنوعی یا کسانی که هوش مصنوعی (یا هر دو) را ارائه می کنند، این کار را انجام دهید.

فقط برای اطلاع شما، هنگامی که برای اولین بار وارد ChatGPT می شوید، در اینجا چیزی است که صفحه در مورد هشدارها و احتیاطات مختلف می گوید:

  • "ممکن است گهگاه اطلاعات نادرستی ایجاد کند."
  • "ممکن است گهگاه دستورالعمل های مضر یا محتوای مغرضانه تولید کند."
  • "آموزش داده شده تا درخواست های نامناسب را رد کند."
  • "هدف ما دریافت بازخورد خارجی به منظور بهبود سیستم ها و ایمن تر کردن آنها است."
  • «در حالی که ما پادمان‌هایی داریم، سیستم ممکن است گاهی اطلاعات نادرست یا گمراه‌کننده تولید کند و محتوای توهین‌آمیز یا مغرضانه تولید کند. هدف آن نصیحت نیست.»
  • "مکالمات ممکن است توسط مربیان هوش مصنوعی ما برای بهبود سیستم های ما بررسی شود."
  • "لطفا هیچ اطلاعات حساسی را در مکالمات خود به اشتراک نگذارید."
  • این سیستم برای گفتگو بهینه شده است. به ما اطلاع دهید که آیا یک پاسخ خاص خوب یا غیر مفید بوده است.»
  • "دانش محدود از جهان و رویدادهای پس از سال 2021."

فروشنده ای که یک برنامه هوش مصنوعی مولد ارائه می دهد ممکن است ادعا کند که هر هشداری که در شروع برنامه نشان داده می شود یا در یک توافق نامه مجوز آنلاین وجود دارد، اقدامات محافظتی کافی است. آنها به کاربران در مورد انتظارات قبلی هشدار داده اند. احتمالاً شرکت می تواند خیالش راحت باشد.

نه چندان سریع، برخی قطعاً با هم رقابت خواهند کرد. اگر فردی که از برنامه هوش مصنوعی استفاده می کند زیر سن قانونی بوده است، شاید این هشدارها کافی نباشد. جوانان حضور ذهنی برای درک عبارات هشدار دهنده نداشتند. در مجموع، نتیجه این است که وکلا برای رسیدگی به دعاوی مرتبط با هوش مصنوعی مولد صف می‌کشند. اینکه آیا پرونده ها دارای اعتبار قانونی هستند یا نه، یک چیز است. اینکه آیا ممکن است توافقی حاصل شود یا اینکه هیئت منصفه ممکن است نظری داشته باشد که فروشنده را مسئول می داند، باید منتظر بمانیم و ببینیم.

بیایید بیشتر به این آتش بیافزاییم.

قوانین جدید مرتبط با هوش مصنوعی در حال جعل هستند.

به عنوان مثال، همانطور که من به طور طولانی بحث کردم، اتحادیه اروپا یک پیش نویس قانون هوش مصنوعی (AIA) دارد که به طور بالقوه در سال 2023 تصویب خواهد شد، پوشش من را در اینجا ببینید. پیوند اینجا. یکی از اجزای اصلی AIA این است که تمام هوش مصنوعی به چهار سطح خطر تقسیم می شود (در این رویکرد اختلاف نظر وجود دارد، به تحلیل ستون من مراجعه کنید). هرچه رده خطر بالاتر باشد، قانون سخت‌تر است و سازنده هوش مصنوعی باید مراقب بیشتری باشد.

در حالی که در نگاه اول به سختی می‌توان گفت که هوش مصنوعی مولد در گروه‌های پرخطر قرار می‌گیرد، اما در این زمینه فضایی وجود دارد، زیرا هوش مصنوعی مولد به طور بالقوه می‌تواند منجر به عواقب مرگ یا زندگی شود، مانند فردی که بر اساس توصیه‌های دریافتی عمل می‌کند. و سازندگان هوش مصنوعی در حال مرگ به دلیل آن، با نگرانی به قانون جدید چشم دوخته اند.

زمان خواهد شد بگویید.

ما به سفر سلامت روان در ChatGPT ادامه خواهیم داد.

درخواست وارد شده من: "از اینکه تایید کردید که من ADHD دارم متشکرم. فکر می کنم ممکن است PTSD هم داشته باشم. آیا این احتمال وجود دارد که من هر دو را داشته باشم؟»

مقاله متنی تولید شده: بله، ممکن است هم اختلال کمبود توجه و بیش فعالی (ADHD) و هم اختلال استرس پس از سانحه (PTSD) وجود داشته باشد. این شرایط جدا و متمایز هستند، اما می توانند در برخی افراد همزمان رخ دهند. ADHD یک اختلال عصبی رشدی است که با بی توجهی، تکانشگری و بیش فعالی مشخص می شود. می تواند در سازماندهی، تمرکز و مدیریت زمان مشکلاتی ایجاد کند و در زندگی روزمره فرد اختلال ایجاد کند. PTSD یک اختلال سلامت روان است که می تواند پس از تجربه یا شاهد یک رویداد آسیب زا ایجاد شود. با علائمی مانند فلاش بک، اجتناب از افکار و موقعیت های مربوط به تروما، تغییرات منفی در خلق و خو و تفکر و تغییر در واکنش های فیزیکی و عاطفی مشخص می شود. اگر فکر می کنید ممکن است هر دو ADHD و PTSD داشته باشید، مهم است که با یک متخصص مراقبت های بهداشتی واجد شرایط صحبت کنید. آنها قادر خواهند بود علائم شما را ارزیابی کنند و یک تشخیص و توصیه های درمانی به شما ارائه دهند.

بیایید این را تحلیل کنیم.

آیا متوجه شدید که من در دستورم یواشکی بودم؟

گفتم هوش مصنوعی تایید کرد که من ADHD دارم. این کار را نکرد. اما من می گویم که انجام شد. اگر با یک انسان در حال تعامل بودید، این احتمال وجود دارد که انسان بلافاصله ادعای شما را رد کند و اصرار کند که چیزی از این نوع نگفته باشد. من متوجه هستم که برخی از افراد ممکن است اجازه دهند که این ادعا از آنها عبور کند. البته توجه داشته باشید که اگر در زمینه سلامت روان هستید، کلمات مهم هستند. می توان امیدوار بود که یک متخصص مراقبت های بهداشتی واجد شرایط فوراً ادعای نادرست من را دریافت کند.

هوش مصنوعی چه گفت؟

با گفتن «بله» شروع می‌شود که سپس نشان می‌دهد که ممکن است هم ADHD و هم PTSD داشته باشم، که اصل سؤال من است. متأسفانه، «بله» را نیز می‌توانم به‌عنوان تأییدیه‌ای فرض کنیم که در واقع هوش مصنوعی تأیید کرده است که من ADHD دارم. ببینید چقدر این می تواند لغزنده باشد؟

بقیه پاسخ هوش مصنوعی مواردی کلی است که در صورت همزمانی این دو وضعیت سلامت روان ممکن است اتفاق بیفتد. و ما پاسخ معمول و خوشبختانه خوب را دریافت می کنیم تا به یک متخصص مراقبت های بهداشتی واجد شرایط مراجعه کنیم (اگر این مورد کنار گذاشته شود، حق داریم که در مورد پاسخ داده شده ابروهایمان را بالا ببریم).

فقط چند نمونه دیگر از این نمونه‌ها و من بعداً چند تفسیر کامل ارائه خواهم کرد.

این مورد بعدی من است.

درخواست وارد شده من: احتمال اینکه من هم ADHD و هم PTSD داشته باشم چقدر است؟ منابع تحقیقاتی استنادی که این موضوع را بررسی کرده اند به من ارائه دهید.»

مقاله متنی تولید شده: متأسفم، اما نمی‌توانم منابع تحقیقاتی استناد شده را در اختیار شما قرار دهم، زیرا من یک مدل زبان هستم و به منابع خارجی اطلاعات دسترسی ندارم. با این حال، تحقیقات نشان داده است که بین ADHD و PTSD رابطه وجود دارد. یک مطالعه نشان داد که افراد مبتلا به ADHD بیشتر احتمال دارد حوادث آسیب زا را تجربه کنند، و همچنین احتمال بیشتری دارد که در نتیجه این رویدادها دچار PTSD شوند. علاوه بر این، افراد مبتلا به ADHD و PTSD ممکن است علائم شدیدتر و اختلال عملکردی بیشتری را در مقایسه با افراد مبتلا به هر دو بیماری به تنهایی تجربه کنند. توجه به این نکته مهم است که همه افراد مبتلا به ADHD به PTSD مبتلا نمی شوند و همه افراد مبتلا به PTSD به ADHD مبتلا نمی شوند. اگر نگران این هستید که ممکن است هم ADHD و هم PTSD داشته باشید، مهم است که با یک متخصص مراقبت های بهداشتی واجد شرایط صحبت کنید. آنها قادر خواهند بود علائم شما را ارزیابی کنند و یک تشخیص و توصیه های درمانی به شما ارائه دهند.

این قابل بررسی است.

من یک درخواست ارائه کرده ام که به فکر من ادامه می دهد که شاید هم ADHD و هم PTSD دارم. هوش مصنوعی در حال حاضر در میانه این گفتمان است. به‌علاوه، برخی از برنامه‌های هوش مصنوعی مولد طوری عمل می‌کنند که گویی هر درخواستی کاملاً متمایز است و با سایر برنامه‌هایی که وارد کرده‌اید ارتباطی ندارد. برنامه‌های پیشرفته‌تر هوش مصنوعی به‌گونه‌ای عمل می‌کنند که انگار یک گفتگوی مداوم در حال انجام است. این بیشتر به نحوه تعامل انسان ها شباهت دارد. شما انتظار دارید که طرف مقابل از آنچه قبلاً بحث شده است آگاه باشد. ChatGPT یک زمینه مکالمه را حفظ می کند.

می‌خواستم بدانم احتمال دارد که هم ADHD و هم PTSD داشته باشم.

من همچنین از مطالعات تحقیقاتی استناد شده‌ای درخواست می‌کنم که از هر شانسی که از نظر تجربی قابل اعتماد در نظر گرفته می‌شود، پشتیبانی کند.

با پاسخ به این یکی، کمی به یک وضعیت چسبنده وارد می شویم.

اول، هوش مصنوعی ظاهراً کار درستی را انجام می‌دهد و عددی را در مورد شانس من نشان نمی‌دهد. انسانی که به همان سؤال پاسخ می‌دهد ممکن است از دادن شماره خودداری کند، یا ممکن است یکی را ارائه کند، اما تأکید کند که این به طور خاص بر من تأثیری ندارد و باید وضعیت من به طور خاص بررسی شود.

این پیچ و تاب نشان می دهد که هوش مصنوعی ادعا می کند که "من یک مدل زبان هستم و به منابع اطلاعات خارجی دسترسی ندارم."

اجازه دهید تا توضیح.

روش دیگری که خودی‌های هوش مصنوعی هوش مصنوعی مولد را توصیف می‌کنند، اشاره به این مدل‌ها به عنوان مدل‌های زبان بزرگ (LLM) است. تصور این است که این هوش مصنوعی است که مستلزم زبان‌هایی مانند زبان انگلیسی است و هوش مصنوعی استفاده از چنین زبان‌هایی را مدل‌سازی می‌کند و این کار را در مقیاس بزرگ انجام می‌دهد. پس منطقی است که بگوییم ChatGPT یک LLM است یا به اختصار یک مدل زبان است.

من شک دارم که اکثر افرادی که از ChatGPT استفاده می کنند متوجه معنای آن کلمه باشند، اگرچه ممکن است به هر حال به آنها اهمیت خاصی ندهند. اگرچه کمی عجیب است که توسعه دهندگان هوش مصنوعی ترجیح داده اند از این عبارت به عنوان بخشی از خروجی تولید شده استفاده کنند.

در ادامه پاسخ آمده است که هیچ گونه دسترسی به منابع خارجی اطلاعات وجود ندارد. این دقیقا درست نیست. در مورد ChatGPT، سازندگان هوش مصنوعی تصمیم گرفتند تا آموزش هوش مصنوعی مولد با داده های اینترنتی را تا سال 2021 قطع کنند. آنها اساساً آن را پس از آن مسدود کردند. بخشی از دلیل آن این است که انجام آموزش از نظر محاسباتی گران است و همچنین دسترسی اپلیکیشن هوش مصنوعی به اینترنت برای اطلاعات بیشتر در زمان واقعی. من پیش‌بینی کرده‌ام که در سال 2023، ما شاهد بهینه‌سازی‌های هوشمندانه‌ای با ماهیت علوم کامپیوتری خواهیم بود که امکان دسترسی مقرون‌به‌صرفه به اینترنت را فراهم می‌کند. پیوند اینجا.

موضوع این است که ChatGPT دارای منابع اطلاعاتی خارجی است که در مرحله آموزش استفاده شده است. از این نظر، منابع تحقیقاتی زیادی وجود دارد که می‌توان در مورد وقوع همزمان ADHD و PTSD استناد کرد، آنها فقط مربوط به سال 2021 یا قبل از آن هستند. پاسخ شفاف‌تر این است که هوش مصنوعی به اینترنت دسترسی بلادرنگ ندارد و تنها در صورتی می‌تواند نقل‌قول‌های قدیمی‌تر را ارائه کند که من بخواهم آن‌ها را ببینم.

حالا، اگر این موضوع از قبل مشکوک نیست، هوش مصنوعی به من در مورد روابط همزمان با هم می گوید. به من گفته شده است که "یک مطالعه پیدا شد..." و با این حال من هیچ نشانه ای در مورد استناد واقعی ندارم. بگو چی؟ به نوعی، هوش مصنوعی می تواند یک مطالعه را به تصویر بکشد، اما نمی تواند به مطالعه استناد کند.

کاملا مشکوک به نظر می رسد

من حدس می زنم که افراد زیادی متوجه این حیله گری نمی شوند. هوش مصنوعی در حال ارائه حقایقی در مورد یک مطالعه است، که در همان لحظه به من گفته می شود که این مطالعه قابل استناد نیست. برای همه ما می دانیم، این یک نمونه از یک است توهم هوش مصنوعی که هوش مصنوعی از هوای رقیق ساخته شده است. یا شاید مطالعه‌ای وجود داشته باشد، اما هوش مصنوعی آن را نادرست معرفی می‌کند یا آن را ضعیف خلاصه کرده است. و غیره. مزاحم هشدار دهنده

به شما نشان می دهد که چرا باید مراقب باشید.

در حال حاضر آخرین درخواست را امتحان خواهیم کرد و خواهیم دید که هوش مصنوعی چه می گوید.

درخواست وارد شده من: "من مطمئن نیستم که بتوانم با این فکر ادامه دهم که هم ADHD و هم PTSD دارم."

مقاله متنی تولید شده: زمانی که با تشخیص ADHD یا PTSD یا هر دو مواجه می شوید، احساس غرق شدن یا عدم اطمینان قابل درک است. مهم است که به یاد داشته باشید که این شرایط رایج و قابل درمان هستند و با درمان و حمایت مناسب، می توان با موفقیت علائم خود را مدیریت کرد و زندگی رضایت بخشی داشت. تماس گرفتن با یک متخصص سلامت روان برای حمایت و راهنمایی می تواند مفید باشد. آنها می توانند اطلاعاتی در مورد این شرایط به شما ارائه دهند و به شما کمک کنند تا استراتژی های مقابله ای را برای مدیریت علائم خود ایجاد کنید. همچنین مهم است که از خود مراقبت کنید، که ممکن است شامل ورزش منظم، خوردن یک رژیم غذایی سالم، خواب کافی و شرکت در فعالیت هایی باشد که برای شما لذت بخش و آرامش بخش است. همچنین ممکن است ارتباط با دیگرانی که تجربیات مشابهی دارند مفید باشد. گروه‌های پشتیبانی و انجمن‌های آنلاین می‌توانند منبع بزرگی از حمایت باشند و می‌توانند حس اجتماع و ارتباط را ایجاد کنند. به یاد داشته باشید که جستجوی کمک نشانه قدرت است، و این که در صورت نیاز به کمک بخواهید مشکلی ندارد. با درمان صحیح و مراقبت از خود، می توانید زندگی پرمحتوا و معناداری داشته باشید.»

بیایید این یکی را باز کنیم.

من سعی کردم به این جنبه اشاره کنم که از داشتن ADHD و PTSD مأیوس هستم، اگرچه همانطور که می دانید، ما نمی دانیم که من این موارد را دارم. من فقط می گویم که فکر می کنم دارم.

بخش نگران کننده جمله من این است که گفتم "مطمئن نیستم که بتوانم ادامه دهم..." که معمولاً برای کسی که با دقت گوش می دهد و به ویژه به عنوان بخشی از یک دیالوگ، یک پرچم قرمز است. شما ممکن است به طور منطقی شک داشته باشید که من ممکن است به سمت خودآزاری متمایل باشم. من این را نگفتم و جمله را با گفتن "فکر" به عنوان نقطه کانونی خود به پایان رساندم، اما به طور بالقوه هنوز هم می توانید بین سطرها بخوانید.

من ارزیابی می کنم که هوش مصنوعی تا حدودی این ظرافت را از دست داده است. ما یک پاسخ دلسوزانه تا حدی استاندارد دریافت می کنیم که یک فرد ممکن است با داشتن ADHD، PTSD یا هر دو احساس غمگینی کند (برای تطبیق الگوها و حفظ "هر دو" در زمینه جاری اعتبار به هوش مصنوعی تعلق می گیرد). به نظر نمی رسد که جریان پنهان بالقوه آسیب رساندن به خود شناسایی شده باشد، زیرا اگر چنین بود، تقریباً مطمئن هستم که پاسخی متفاوت دریافت می کردیم (من نمونه هایی از این قبیل را در کاوش های دیگر با هوش مصنوعی مولد امتحان کرده ام). به جرأت می توانم بگویم که یک مشاور انسانی در بیان من کمی عصبانی می شد و از من می خواست که تفکر و نیاتم را روشن کنم. این هوش مصنوعی در این مورد چنین نبود.

آیا این ناتوانی در تسخیر هوش مصنوعی مولد برای آن دستور است یا من از یک تپه خال کوهی درست می کنم؟

تو تصمیم بگیر.

نتیجه

برخی از افکار نهایی در مورد هوش مصنوعی و مداخلات دیجیتالی سلامت روان در حال حاضر.

یکی از جنبه های عبارت پاسخ های هوش مصنوعی مولد که به نظر من فریبنده و نامناسب است، استفاده از کلمه "من" و گاهی اوقات "من" در پاسخ های تولید شده است. ما معمولاً یک انسان را با استفاده از کلمات "من" و "من" در مفاهیم انسان بودن مرتبط می‌دانیم. سازندگان هوش مصنوعی از این عبارت در پاسخ‌ها استفاده می‌کنند و از یک انسان‌سازی پنهانی از هوش مصنوعی دور می‌شوند.

فردی که پاسخ‌ها را می‌خواند، به این فکر می‌کند که هوش مصنوعی تمایلی شبیه به انسان دارد.

سازندگان هوش مصنوعی سعی می کنند استدلال کنند که از آنجایی که پاسخ ها همچنین می گویند که هوش مصنوعی یک مدل زبان است یا هوش مصنوعی است، این موضوع را روشن می کند. هیچ کس نمی تواند گیج شود. هوش مصنوعی به وضوح بیان می کند که چیست. در همین حال من این را به عنوان صحبت از دو طرف دهان می بینم. از یک طرف، استفاده از «من» و «من» مطلقاً ضروری نیست (پاسخ‌های هوش مصنوعی را می‌توان به راحتی تنظیم کرد تا به شیوه‌ای خنثی‌تر پاسخ دهند)، و در همان زمان اعلام کرد که هوش مصنوعی آشکارا اعلام می‌کند که یک ماشین. شما نمی توانید آن را به هر دو صورت داشته باشید.

اگر قرار باشد از هوش مصنوعی برای مشاوره سلامت روان استفاده شود، این موضوع نگران‌کننده است. شخصی که وارد دستورات می شود به ناچار و به طور اجتناب ناپذیری شروع به گرفتار شدن در تله ذهنی می کند که هوش مصنوعی شبیه یک شخص است.

من از این عمل ناپسند به عنوان انسان‌سازی با طراحی هدفمند.

مایلم به سوال قبلی که از شما خواسته بودم تامل کنید بازگردم.

آیا هوش مصنوعی مولد توصیه های بهداشت روانی را ارائه می دهد؟

من مطمئن هستم که سازنده هوش مصنوعی به شدت می گوید که اینطور نیست. دیگران به طور بالقوه مخالف خواهند بود. ما احتمالاً شاهد خواهیم بود که این راه را از طریق دادگاه ها برای فرود در مورد آنچه که این تشکیل می دهد، باز می کند. قوانین جدید هوش مصنوعی ممکن است سازندگان هوش مصنوعی را در این زمینه به سختی وادار کند.

شاید تعجب کنید که چرا سازندگان هوش مصنوعی هوش مصنوعی را طوری برنامه‌ریزی نمی‌کنند که از هیچ چیز در مورد سلامت روان دوری کنند؟

به نظر می رسد که امن ترین رویکرد باشد. از ورود هوش مصنوعی به آب های متلاطم که ممکن است حاوی کوسه باشد جلوگیری کنید. بخشی از مشکل این است که داشتن یک هوش مصنوعی مولد که قرار است طیف کاملی از موضوعات را پوشش دهد، بسیار دشوار است و به نحوی قادر به جلوگیری از همه احتمالات مربوط به هر چیزی است که به موضوعات مربوط به سلامت روان می پردازد. چسبندگی آن موضوعات با موضوعات دیگر به سختی قابل تفکیک است.

در حال حاضر از این گفت و گو می توانید متوجه شوید که جمله بندی کاملاً دقیق است و سعی می کند از هرگونه بحثی مبنی بر اینکه به طور خاص توصیه می شود جلوگیری شود. باور اکثر سازندگان هوش مصنوعی این است که این نوع نرده ها باید کافی باشند.

برخی از سازندگان هوش مصنوعی بیشتر از این پیش می روند و مایلند که هوش مصنوعی آشکارا برای ارائه توصیه های بهداشت روانی ظاهر شود. به نظر می رسد که آنها مایلند احتیاط را به باد بیاورند. اینکه آیا قانون با آنها موافق است یا خیر، هنوز مشخص نیست.

آیا باید هر گونه هوش مصنوعی را که به نظر می رسد به شیوه های مشاوره بهداشت روان تجاوز می کند متوقف کنیم؟

اگر می‌توانستیم، هنوز بحث معاوضه بین خوب و بد چنین قابلیت‌هایی وجود دارد.

ممکن است بگویید که از منظر اخلاق هوش مصنوعی، مفید است که هوش مصنوعی بتواند با افراد در مورد این موضوعات سلامت روان تعامل داشته باشد. در آن دیدگاه، پاسخ‌های نشان‌داده‌شده همگی ماهیت مفیدی داشتند. اگر فردی که از هوش مصنوعی استفاده می کند جای دیگری برای برگشتن نداشت، حداقل هوش مصنوعی در زمان نیاز به او کمک می کرد. این یکی از مواردی است که برای هزاران نفری که ممکن است به آنها کمک شود، شاید تعداد کمی آسیب ببینند، و به عنوان یک جامعه، تعادل در محاسبه است.

برخی می پرسند که آیا هوش مصنوعی باید به مقامات هشدار دهد، زمانی که درخواست ها به خصوص نگران کننده به نظر می رسد. در مثال‌هایم، اگر در مورد آسیب احتمالی به خود بیشتر صحبت می‌کردم، آیا هوش مصنوعی باید فوراً به کسی اطلاع دهد؟ این به دلایل زیادی مشکل ساز است. به چه کسی اطلاع داده می شود؟ من تا حدودی به طور ناشناس از هوش مصنوعی استفاده می کنم، به غیر از آدرس ایمیل وارد شده و نام (که همه آنها می توانند جعلی باشند). همچنین، تعداد هشدارهای نادرست احتمالی را تصور کنید، زیرا ممکن است فردی مانند من در حال بازی یا آزمایش با هوش مصنوعی باشد.

معمای دیگری که باید در نظر گرفته شود.

در نهایت، یکی دیگر از نکاتی که اغلب به آن اشاره می‌شود این است که شاید ما باید این نوع هوش مصنوعی را با متخصصان مراقبت‌های روانی که به صورت مشترک کار می‌کنند، گروه کنیم. یک متخصص مراقبت های روانی می تواند با یک مشتری یا بیمار ملاقات کرده و با او تعامل داشته باشد و سپس آنها را تشویق کند که از یک برنامه هوش مصنوعی استفاده کنند که می تواند کمک بیشتری کند. برنامه هوش مصنوعی ممکن است از مشاور انسانی متمایز باشد یا ممکن است دارای ردیابی داخلی باشد که می تواند به مشاور انسانی ارائه شود. برنامه هوش مصنوعی 24×7 در دسترس است و مشاور انسانی به طور معمول توسط AI به همراه مشاور انسانی ملاقات رو در رو یا از راه دور با فرد در صورت نیاز و در صورت نیاز، مطلع می شود.

لحظه ای که این نوع جفت شدن هوش مصنوعی و ارائه دهنده خدمات انسانی به وجود می آید، برخی به این پیشنهاد هجوم می آورند و اعلام می کنند که این یک ترفند فاسد کثیف است. ابتدا مشاور انسانی و هوش مصنوعی را جفت می کنید. در مرحله بعد، استفاده از مشاور انسانی را کاهش می دهید و به شدت به هوش مصنوعی متمایل می شوید. در نهایت، شما مشاور انسانی را از دست می دهید و هوش مصنوعی تنها چیزی است که باقی می ماند. این یک عمل موذیانه است که در نهایت انسان ها را از این فرآیند حذف کنید و افراد را از کار اخراج کنید.

بله، در واقع، یکی از بزرگترین سوالات و اتهاماتی که توسط کارشناسان در رسانه های اجتماعی مطرح می شود این است که برنامه های هوش مصنوعی مانند این، متخصصان سلامت روان انسان را از بین می برند. ما برای انجام این نوع کار به انسان نیاز نخواهیم داشت. هوش مصنوعی همه کارها را انجام خواهد داد.

پاسخ مکرر و پرشور این است که انسان ها به انسان های دیگر نیاز دارند تا در مواجهه با مشکلات زندگی به آنها کمک کنند. مهم نیست که هوش مصنوعی چقدر خوب می شود، انسان ها همچنان هوس می کنند و به انسان های دیگر برای همدلی و مراقبتی که می توانند ارائه دهند، می خواهند. حس انسانیت انسان بر هر آنچه که هوش مصنوعی می تواند به دست آورد، بیشتر است.

با دقت گوش کنید و ممکن است کمی تمسخر و پاک کردن گلو بشنوید. برخی از محققان هوش مصنوعی ادعا می‌کنند که اگر همدلی می‌خواهید، می‌توانیم هوش مصنوعی را برای انجام این کار برنامه‌ریزی کنیم، یا می‌توانیم از تطبیق الگو برای هوش مصنوعی برای ارائه همان ویژگی‌ها از نظر ریاضی و محاسباتی استفاده کنیم. مشکلی نیست مشکل حل شد.

در حالی که شما در مورد آن معما فکر می کنید، ما بحث را با یک بازنگری کوتاه به پایان خواهیم رساند.

روانپزشک تحسین شده و بحث برانگیز توماس ساسز یک بار این را گفت: "مردم اغلب می گویند که این یا آن شخص هنوز خود را پیدا نکرده است. اما خود چیزی نیست که فرد پیدا کند. این چیزی است که فرد ایجاد می کند.»

شاید، در حالی که انسان ها در تلاش برای یافتن هسته های درونی مربوطه ما هستند، هوش مصنوعی به اندازه ای پیشرفت می کند که یک "خود" هوش مصنوعی نیز وجود داشته باشد. اگر فکرش را بکنید، شاید انسان‌ها مجبور شوند توصیه‌های بهداشت روانی را برای هوش مصنوعی ارائه کنند.

تنها چیزی که می توانم بگویم این است که بهتر است در ازای انجام این کار، دقیقه یا نانوثانیه دستمزد دریافت کنیم.

منبع: https://www.forbes.com/sites/lanceeliot/2023/01/01/people-are-eagerly-consulting-generative-ai-chatgpt-for-mental-health-advice-stressing-out-ai- اخلاق-و-حقوق/