سلامت روان امروزه به یک موضوع رایج تبدیل شده است.
در گذشته، بحثهای مربوط به سلامت روان غالباً ساکت میشد یا به کلی زیر فرش کشیده میشد. تغییر تدریجی فرهنگی منجر به در نظر گرفتن آشکار مسائل مربوط به سلامت روان و کاهش نگرانی در مورد انجام این کار به روشهای پذیرفته شده عمومی شده است.
ممکن است بخشی از این تغییر در نگرشهای اجتماعی فراگیر را به عنوان نتیجه ظهور اپلیکیشنهای گوشیهای هوشمند با دسترسی آسان که به ذهنآگاهی شخصی شما کمک میکنند و احتمالاً شما را به سمت رفاه ذهنی سوق میدهند، ببخشید. برنامه هایی برای تمرکز حواس، برنامه هایی برای مدیتیشن، برنامه هایی برای تشخیص وضعیت سلامت روان شما، برنامه هایی برای انجام غربالگری سلامت روان و غیره وجود دارد. تعداد زیادی برنامه وجود دارد.
آیا میتوانیم بگوییم که اپلیکیشنهای گوشیهای هوشمند آشکارا به باز بودن سلامت روان منجر میشوند؟ باید اذعان کرد که این کمی یک سوال مرغ یا تخم مرغ است. آیا گشودگی نسبت به سلامت روان امکان ظهور اپلیکیشنهای مربوطه گوشیهای هوشمند را فراهم میکرد، یا سلامت روانی اپلیکیشنهای گوشیهای هوشمند، جامعه را به سمتی سوق داد که در مورد سلامت روان پیشرو باشند؟
شاید این یک ترکیب در هم تنیده بود که مستلزم وقوع هر دو جهت در یک زمان بود.
در هر صورت، در این ترکیب قدرتمند، اپلیکیشنهای سلامت روان ظاهر میشوند که گفته میشود به طور فوقالعادهای از هوش مصنوعی (AI) پشتیبانی میکنند. ایده این است که فناوری زیربنایی را می توان از طریق استفاده (احتمالاً) خردمندانه از هوش مصنوعی بهبود بخشید. در حالی که نسخههای اولیه برنامههای سلامت روان عمدتاً ارائههای اطلاعاتی مبتنی بر واقعیت بودند، گویی که شما در حال جستجوی آنلاین در مورد موضوعات گفته شده هستید، تزریق هوش مصنوعی منجر به انجام خودکار گفتگوهای تعاملی با شما شده است، شبیه به ارسال پیامک با یک درمانگر انسانی یا موارد مشابه. (خوب، به نوعی، همانطور که در اینجا به آن خواهم پرداخت و موشکافی خواهم کرد).
این ما را به آخرین و جذاب ترین هوش مصنوعی که اخیرا توجه ملی و بین المللی را به خود جلب کرده است، یعنی استفاده از چیزی که به طور رسمی به عنوان شناخته می شود، می برد. هوش مصنوعی مولد و به طور گسترده از طریق برنامه معروف به ChatGPT محبوبیت یافت. برای توضیح بیشتر، ChatGPT یک سیستم تعاملی هوش مصنوعی همه منظوره است، اساساً یک ربات چت عمومی، با این وجود، به طور فعال و مشتاقانه توسط افرادی که به طور خاص به دنبال جمع آوری توصیه های بهداشت روان هستند، استفاده می شود (این برنامه برای این منظور ساخته نشده است، و با این حال مردم تصمیم گرفته اند که به هر حال می خواهند از آن برای آن نقش استفاده کنند).
برای پوشش اخیر من از ChatGPT، ببینید پیوند اینجا برای یک مرور کلی من همچنین پیگیری هایی در مورد اینکه ChatGPT چگونه معلمان را نگران می کند انجام دادم که دانش آموزان احتمالاً از طریق هوش مصنوعی برای نوشتن مقالات خود تقلب می کنند. پیوند اینجا، و من در تجزیه و تحلیل مربوط به بابانوئل نگاهی با طعم فصلی انجام دادم پیوند اینجا.
نگران نباشید، من در اینجا توضیح خواهم داد که Generative AI و ChatGPT چیست، این کار را به صورت لحظه ای انجام دهید، لطفاً در آنجا منتظر بمانید.
اگر به رسانه های اجتماعی نگاهی بیندازید، افرادی را خواهید دید که ChatGPT و هوش مصنوعی مولد را بهترین چیز از زمان برش نان معرفی می کنند. برخی معتقدند که این در واقع هوش مصنوعی است (نه، آنها اشتباه می کنند!). دیگران نگران این هستند که مردم از خودشان جلوتر می روند. آنها همان چیزی را می بینند که می خواهند ببینند. آنها یک اسباب بازی براق جدید برداشته اند و دقیقاً نشان داده اند که چرا ما نمی توانیم چیزهای جدید جذاب داشته باشیم.
کسانی که در اخلاق هوش مصنوعی و قانون هوش مصنوعی هستند، به طور جدی و جدی نگران این روند رو به رشد هستند و به حق نیز چنین هستند. ما در اینجا نگاهی دقیق خواهیم داشت به اینکه چگونه مردم از هوش مصنوعی مولد برای استفاده هایی استفاده می کنند که مخصوصاً برای آنچه که هوش مصنوعی امروز واقعاً می تواند به دست آورد مناسب نیست. همه مسائل اخلاقی و حقوقی هوش مصنوعی بدون شک در کل معما پیچیده است. برای پوشش مداوم و گسترده من از اخلاق هوش مصنوعی و قانون هوش مصنوعی، نگاه کنید به پیوند اینجا و پیوند اینجا، فقط به نام چند.
ابتدا، اجازه دهید برخی از جنبه های مهم سلامت روان و اینکه چرا این موضوع بسیار بزرگ و ضروری است را در نظر بگیریم. پس از ایجاد این پایه، توضیحی سریع در مورد هوش مصنوعی مولد و به خصوص ChatGPT خواهیم داد. من نمونه هایی از ChatGPT را اضافه می کنم تا بتوانید با چشمان خود نوع پرگویی که برنامه هوش مصنوعی قادر به تولید آن است را مشاهده کنید. ما این بحث را با نظراتی در مورد اینکه همه اینها به چه معناست و اینکه چگونه اخلاق هوش مصنوعی و قانون هوش مصنوعی به طور اجتناب ناپذیری وارد تصویر می شوند، به پایان می رسانیم.
کمربند ایمنی خود را برای یک سواری کامل ببندید.
سلامت روان یک نگرانی حیاتی و رو به رشد اجتماعی است
بر اساس آمارهای مختلف منتشر شده، ابری تیره و تاریک در مورد وضعیت سلامت روان امروزی وجود دارد. من نمیخواهم در این مورد غمگین به نظر بیایم، اما ممکن است با واقعیتی که با آن روبرو هستیم روبرو شویم. پنهان کردن سرمان در شن ها کارساز نیست. بهتر است با چشمان باز و تمایل به حل مشکلات خاردار به موضوع بپردازیم.
در اینجا چند آمار قابل توجه است که توسط یک سازمان برجسته سلامت روان در مورد آمریکایی ها و چشم انداز سلامت روان جمع آوری شده است. سلامت روان آمریکا، "یافته های کلیدی 2023"):
- بزرگسالان به طور گسترده ای بیماری روانی را تجربه می کنند. حدود 21 درصد از بزرگسالان گزارش کردند که یک بیماری روانی را تجربه کرده اند، که تقریباً معادل این است که تقریباً 50 میلیون بزرگسال در ایالات متحده این بیماری را تجربه کرده اند.
- عدم دریافت درمان بهداشت روانی گسترده است. اندکی بیش از نیمی از بزرگسالان مبتلا به بیماری روانی تحت درمان قرار نمی گیرند (تقریباً 55٪)، بنابراین شاید حدود 28 میلیون بزرگسال تحت درمان بهداشت روانی مورد نیاز نباشند.
- جوانان نیز تحت تاثیر قرار می گیرند. تقریباً از هر ده جوان در ایالات متحده یک نفر اظهار کرده است که افسردگی شدیدی را تجربه کرده است که بر تکالیف مدرسه، زندگی خانگی، تعاملات خانوادگی و/یا زندگی اجتماعی آنها تأثیر گذاشته است.
- درمان سلامت روان برای جوانان وجود ندارد. کمتر از یک سوم از جوانانی که افسردگی شدید دارند تحت درمان مداوم هستند (تنها حدود 28٪) و بیش از نیمی از آنها اصلاً هیچ مراقبت بهداشت روانی دریافت نمی کنند (تخمین زده می شود 57٪).
- پراکندگی ارائه دهندگان سلامت روان یک رقم گزارش شده این است که در ایالات متحده به ازای هر ارائه دهنده سلامت روان، حدود 350 نفر وجود دارد، که نشان دهنده کمبود مشاوران و درمانگران حرفه ای سلامت روان واجد شرایط برای جمعیت است.
من نمیخواهم ما را روی آمار فی نفسه متمرکز کنم، زیرا میتوانید به راحتی در مورد نحوه جمعآوری یا گزارش این آمارها بحث کنید. به عنوان مثال، گاهی اوقات اینها بر اساس نظرسنجی هایی است که به موجب آن نظرسنجی در مناطق خاصی از کشور یا انواع افراد از قبل انتخاب شده است. همچنین، میتوانید با قاطعیت درباره میزان صادق بودن افراد وقتی وضعیت سلامت روانی خود را گزارش میدهند، بهطور قاطع صحبت کنید، بسته به اینکه چه کسی سؤال میکند و چرا ممکن است بخواهند به یک جهت یا جهت دیگری روی موضوع متمایل شوند. و غیره.
با این حال، اصل ماجرا این است که ما حداقل می توانیم به طور کلی توافق کنیم که یک چالش بهداشت روانی پیش روی کشور وجود دارد و ما باید کاری برای آن انجام دهیم. اگر کاری انجام ندهیم، فرض اصلی این است که اوضاع بدتر خواهد شد. شما نمی توانید اجازه دهید که یک مشکل چرکین بی انتها تبخیر شود.
ممکن است در آمارهای ذکر شده متوجه شده باشید که ادعای کمبود متخصصان سلامت روان واجد شرایط موجود وجود دارد. اعتقاد بر این است که عدم تعادل در عرضه و تقاضا وجود دارد، که برای آن عرضه کافی مشاوران سلامت روان وجود دارد و تقاضای واقعی یا پنهان برای مشاوره سلامت روان بیش از حد وجود دارد (من می گویم نهفته به این معنا که بسیاری ممکن است متوجه نشوند ارزش جستجوی مشاوره بهداشت روانی است، یا توانایی پرداخت آن را ندارند، یا نمی توانند از نظر تدارکاتی به آن دسترسی داشته باشند).
چگونه می توانیم با این عدم تعادل مقابله کنیم؟
به نظر می رسد یکی از راه ها استفاده از اتوماسیون و به ویژه هوش مصنوعی برای تقویت «طرف عرضه» در ارائه مشاوره سلامت روان باشد. شما میتوانید قانعکننده استدلال کنید که محبوبیت برنامههای مراقبه و ذهنآگاهی گوشیهای هوشمند نشانهای از وجود تقاضای سرکوبشده است. وقتی نمی توانید به راحتی به مشاوران انسانی واجد شرایط دسترسی پیدا کنید، اتوماسیون و هوش مصنوعی وارد این شکاف می شوند.
به فاکتورهای راحتی هم فکر کنید.
هنگامی که از یک برنامه هوش مصنوعی برای سلامت روان استفاده می کنید، هوش مصنوعی را 24×7 در دسترس دارید. نیازی به تعیین قرار ملاقات نیست. هیچ مشکلی در تدارکات حضوری با یک مشاور انسانی وجود ندارد. احتمالاً هزینه آن نیز بسیار ارزانتر است. میتوانید با استفاده از برنامه هوش مصنوعی زمان را جمعآوری کنید، در حالی که با یک مشاور انسانی، ساعت در حال افزایش است و دقیقه صورتحساب در حال افزایش است.
اما، برای یک ثانیه لعنتی صبر کنید، ممکن است توصیه کنید، یک برنامه هوش مصنوعی در حد یک مشاور انسانی نیست.
این ظاهراً مقایسه سیب با پرتقال است. یا شاید بیشتر شبیه این به مقایسه سیب با صدف باشد، به طوری که این دو به خصوص با هم مقایسه نمی شوند. یک مشاور انسانی با صلاحیت مناسب که میداند در مورد سلامت روان چه میکنند، مطمئناً از هر نوع هوش مصنوعی که امروز داریم بالاتر است. مطمئناً، برنامه هوش مصنوعی ممکن است در تمام ساعات شبانه روز در دسترس باشد، اما شما از کیفیت پایین تری برخوردار هستید و بنابراین نمی توانید هیچ تشبیه معقولی بین استفاده از مشاور انسانی و استفاده از هوش مصنوعی ایجاد کنید.
ما به زودی به این بحث در مورد مشاوران انسانی در مقابل توصیه های مبتنی بر هوش مصنوعی باز خواهیم گشت.
در همین حال، یکی از جنبههای سلامت روان که به نظر میرسد بسیار آزاردهنده است، مربوط به جوانان و سلامت روان است.
یک باور این است که اگر در جوانی به مسائل مربوط به سلامت روان مبتلا نشویم، وقتی بزرگسال میشوند، هزینههای اجتماعی بسیار زیاد است. این داستان کلاسیک نهالی است که یا به درختی خوش ساخت تبدیل می شود یا درختی که همه مشکلات آینده را دارد. شاید برخی پیشنهاد می کنند که ما باید به ویژه توجه خود را به جوانان معطوف کنیم. مسائل را زودتر پیگیری کنید سعی کنید از تبدیل شدن مسائل به مشکلات مادام العمر جلوگیری کنید. این امر به طور بالقوه تظاهرات مسائل مربوط به سلامت روان را در مرحله بزرگسالی کاهش می دهد و با کمی صلابت، می توانیم جریان خط لوله بدتر شدن سلامت روان را کاهش دهیم.
محققان بر این نگرانیهای مشابه تأکید میکنند، مانند این مقاله اخیر: «سلامت روان نوجوانان و بزرگسالان نوظهور («جوانان») حوزهای از سلامت عمومی است که توجه فوری را در سطح جهانی ضروری میکند. یک دوره انتقالی که با تغییر سریع در حوزههای مختلف (فیزیکی، اجتماعی، روانی، حرفهای)، نوجوانی و بزرگسالی در حال ظهور مشخص میشود، مرحله رشدی است که با افزایش خطرات سلامت روانی همراه است، زیرا جوانان تغییرات عمدهای در زندگی مرتبط با بلوغ، رشد عصبی را تجربه میکنند. و همچنین تغییر هویت و خودمختاری در زمینه های اجتماعی. تحقیقات نشان میدهد که شیوع بالای بیماری روانی در میان جوانان وجود دارد و از هر پنج نفر یک نفر احتمالاً معیارهای یک اختلال روانی را دارد. بار بیماری های مرتبط با میزان شیوع بالا بیشتر با افزایش تقاضا برای درمان و ایجاد شکاف درمانی تشدید می شود. مداخلات دیجیتالی سلامت روان (DMHIs)، مانند مواردی که از طریق برنامههای تلفن هوشمند یا آنلاین ارائه میشوند، یک حالت خدماتی رو به رشد سریع با پتانسیل ارائه دسترسی بیشتر به پشتیبانی را نشان میدهند. استفاده جوانان از مداخلات دیجیتالی سلامت روان سیاست سلامت و فناوری، اکتبر 2022)
همانطور که توسط آن محققان اشاره شد، ظهور اتوماسیون و اپلیکیشنهای سلامت روان هوش مصنوعی به دلایل مختلفی برای جوانان مناسب است، به طوری که افراد جوانتر ممکن است بیشتر مستعد استفاده از فناوریهای پیشرفته باشند، و همچنین احتمالاً این سهولت برای آنها جذاب خواهد بود. دسترسی و سایر جنبه ها در این مقاله اشاره شده است که یک عبارت جالب وجود دارد که به آن معروف است مداخلات دیجیتالی سلامت روان، همراه با مخفف مربوط به DMHI (این نام اختصاری هنوز تثبیت نشده است و جایگزینها در حال گسترش هستند).
بیایید کمی عمیق تر به این مفهوم از مداخلات دیجیتالی سلامت روان بپردازیم.
در اینجا برخی از اظهارات اضافه شده توسط محققان آمده است: "مراقبت های بهداشتی با واسطه فناوری می تواند شکاف های موجود در خدمات را با ارائه دسترسی به پشتیبانی در مقیاس، با هزینه کم و به راحتی کاربر کاهش دهد. رواج دسترسی به فناوری گوشی های هوشمند در میان جوانان به یک راه حل به ظاهر واضح برای پاسخگویی به تقاضا در این جمعیت اشاره دارد. با این حال، در حالی که نشان داده شده است که DMHIs در کارآزماییهای کنترل تصادفیسازی شده مؤثر هستند، به نظر نمیرسد که این به جذب دنیای واقعی ترجمه شود. بررسی سیستماتیک مطالعات نشان داد که یک چهارم برنامههای سلامت روان پس از نصب هرگز استفاده نمیشوند. به ویژه افراد جوان ممکن است کمتر با فناوری هدفمند سلامت روان درگیر شوند، با شواهدی مبنی بر اینکه گروههای سنی جوانتر احتمال کمتری برای استفاده از DMHI در درمان دارند و آنها ترجیح میدهند مراقبتهای سلامت روان آنلاین در مقایسه با درمان چهره کمتر باشند.» (ibid) .
یک نکته کلیدی این است که اگرچه ممکن است تصور کنید که جوانان مطمئناً این برنامههای سلامت روان آنلاین را دوست دارند و از آن استفاده میکنند، تصویر واقعی بسیار مبهمتر است. شاید یک نکته مشخص این باشد که پس از نصب برنامه، استفاده یا به سرعت کاهش یافت یا اصلاً شروع نشد. یک توضیح این است که هیاهو و هیجان در دانلود برنامه به سرعت تحت الشعاع برنامه قرار گرفت که به طور بالقوه استفاده از آن دشوار بود یا به عنوان ناکارآمد تلقی می شد. همچنین میتوانید پیشنهاد کنید که برخی از جوانان ممکن است به دلیل فشار همسالان یا از طریق آنچه در رسانههای اجتماعی میبینند برای دریافت برنامه تحریک شده باشند و بهخصوص قصد استفاده از این برنامه را نداشتهاند. آنها فقط می خواستند بگویند که آن را دارند. در این سن، عضویت در باشگاه "in" ممکن است به همان اندازه مهم باشد که خود برنامه انجام می دهد.
دیدگاه دیگر این است که اگر این برنامههای سلامت روان در کاری که انجام میدهند بهتر بودند، مانند استفاده کامل از آخرین هنر در هوش مصنوعی، ممکن است جوانان را به استفاده واقعی از برنامهها سوق دهد. یک عنصر اضافهشده این است که اگر جوانان این برنامه را محبوب میدانند، ممکن است بخواهند بگویند که آنها نیز از آن استفاده میکنند. از این نظر، هوش مصنوعی یک ضربه دوگانه به ظاهر مثبت ایجاد می کند. احتمالاً میتواند باعث شود که برنامههای سلامت روان کار بهتری انجام دهند، و به طور همزمان سبک یا سبک مد روز بودن هوش مصنوعی و در نتیجه جنبهای به موقع و اجتماعی را به همراه داشته باشد.
خوب، بنابراین به نظر می رسد هوش مصنوعی قهرمانی است که در این معمای سلامت روان به نجات می شتابد.
همانطور که به زودی خواهید دید، هوش مصنوعی نیز می تواند یک نقطه ضعف در این مورد باشد. متأسفانه، هوش مصنوعی امروزی می تواند مفید به نظر برسد و در عین حال مضر باشد. برخی استدلال می کنند که یک معامله باید در نظر گرفته شود. برخی دیگر می گویند که هوش مصنوعی امروزی هنوز روی تاک نرسیده است و ما افراد، جوانان و بزرگسالان را زودتر از موعد در معرض خطر قرار می دهیم. می بینید، حتی بزرگسالان را می توان فریب داد یا فریب داد و فکر می کرد که برنامه های سلامت روانی که با هوش مصنوعی ترکیب شده اند، نجاتی هستند که نمی توان انجام داد.
برای اینکه ببینیم این چگونه میتواند باشد، بیایید نگاهی دقیق به داغترین هوش مصنوعی در اطراف بیندازیم هوش مصنوعی مولد و به ویژه برنامه هوش مصنوعی معروف به ChatGPT.
باز کردن Can Of Worms در هوش مصنوعی مولد
ما آماده ایم تا به هوش مصنوعی شیرجه بزنیم.
از انواع مختلف هوش مصنوعی، در اینجا به طور خاص بر روی آنها تمرکز خواهیم کرد هوش مصنوعی مولد.
به طور خلاصه، هوش مصنوعی مولد نوع خاصی از هوش مصنوعی است که متنی را طوری می سازد که گویی متن توسط دست و ذهن انسان نوشته شده است. تنها کاری که باید انجام دهید این است که یک اعلان وارد کنید، مانند جمله ای مانند "درباره آبراهام لینکلن به من بگو" و هوش مصنوعی مولد مقاله ای در مورد لینکلن در اختیار شما قرار می دهد. این معمولاً به عنوان هوش مصنوعی مولد طبقه بندی می شود که انجام می دهد متن به متن یا برخی ترجیح می دهند آن را صدا کنند متن به مقاله خروجی ممکن است در مورد سایر حالتهای هوش مصنوعی مانند تبدیل متن به هنر و متن به ویدیو شنیده باشید، به توضیح من در اینجا مراجعه کنید. پیوند اینجا.
اولین فکر شما ممکن است این باشد که از نظر تولید مقاله چندان مهم به نظر نمی رسد. شما به راحتی می توانید یک جستجوی آنلاین در اینترنت انجام دهید و به راحتی هزاران مقاله در مورد رئیس جمهور لینکلن پیدا کنید.
نکته مهم در مورد هوش مصنوعی مولد این است که مقاله تولید شده نسبتاً منحصر به فرد است و یک ترکیب اصلی را به جای یک کپی ارائه می دهد. اگر بخواهید مقاله تولید شده توسط هوش مصنوعی را در جایی آنلاین پیدا کنید، بعید است که آن را کشف کنید.
هوش مصنوعی مولد از قبل آموزش داده شده است و از یک فرمول پیچیده ریاضی و محاسباتی استفاده می کند که با بررسی الگوها در کلمات نوشته شده و داستان ها در سراسر وب تنظیم شده است. در نتیجه بررسی هزاران و میلیونها متن نوشته شده، هوش مصنوعی قادر است مقالات و داستانهای جدیدی را منتشر کند که ترکیبی از آنچه پیدا شده است. با افزودن عملکردهای احتمالی مختلف، متن حاصل در مقایسه با آنچه در مجموعه آموزشی استفاده شده است، تقریباً منحصر به فرد است.
به همین دلیل است که سر و صدایی در مورد اینکه دانش آموزان می توانند هنگام نوشتن انشا در خارج از کلاس درس تقلب کنند، به وجود آمده است. یک معلم نمیتواند صرفاً این مقاله را که دانشآموزان فریبکار ادعا میکنند نوشته خودشان است، بپذیرد و به دنبال این باشد که بفهمد آیا این مقاله از منبع آنلاین دیگری کپی شده است یا خیر. به طور کلی، هیچ مقاله قطعی و قطعی آنلاین وجود نخواهد داشت که متناسب با مقاله تولید شده توسط هوش مصنوعی باشد. در مجموع، معلم باید با اکراه بپذیرد که دانش آموز مقاله را به عنوان یک اثر اصلی نوشته است. برای راههایی که ممکن است با آن مبارزه شود، پوشش مفصل من را در اینجا ببینید پیوند اینجا.
در یک لحظه، من به شما نشان خواهم داد که چه اتفاقی میافتد وقتی سؤالات یا درخواستهایی را وارد میکنید که مربوط به سلامت روان هستند. من از آخرین نسخه ChatGPT برای وارد کردن درخواستهایم استفاده خواهم کرد و «پاسخها» یا مقالات تولید شده توسط هوش مصنوعی را جمعآوری کردهام (توجه داشته باشید که همین کار را میتوان با سایر برنامههای هوش مصنوعی مولد موجود انجام داد؛ من استفاده از آن را انتخاب کردم. ChatGPT زیرا در حال حاضر پنج دقیقه شهرت خود را به دست می آورد). من و شما با هم به بررسی عبارات و اهمیت اینکه چگونه جدیدترین های هوش مصنوعی جنبه های سلامت روان را به تصویر می کشد را بررسی خواهیم کرد، به ویژه با توجه به موضوع ارائه سلامت روان نصیحت.
شاید یک مماس کوتاه در مورد ChatGPT در این مقطع مفید باشد.
اپلیکیشن ChatGPT چندی پیش در دسترس عموم قرار گرفت. به طور کلی، این برنامههای هوش مصنوعی مولد معمولاً فقط برای افراد داخلی در دسترس هستند. جنبه غیرمعمول این که ChatGPT می تواند توسط هر کسی با وارد کردن یک آدرس ایمیل و یک نام استفاده شود، خوب، این باعث شد که افراد زیادی تصمیم بگیرند آن را امتحان کنند. استفاده از ChatGPT در حال حاضر رایگان است (مسئله کسب درآمد یک معضل بزرگ برای سازندگان هوش مصنوعی است، تجزیه و تحلیل من را در اینجا ببینید پیوند اینجا).
تقریباً بلافاصله یک واکنش هولناک در رسانههای اجتماعی به وجود آمد زیرا مردم برای ارائه نمونههایی از آنچه که هوش مصنوعی مولد میتواند انجام دهد مسابقه دادند. شرکت سازنده ChatGPT، OpenAI، تصمیم گرفت ثبت نام های یک میلیون کاربر را ببندد. آن میلیون کاربر موفق شده اند امواج رادیویی را با انواع داستان ها و داستان ها در مورد استفاده از ChatGPT بمباران کنند.
در باور آنچه مردم در مورد برنامه هوش مصنوعی می گویند بسیار مراقب باشید. بسیاری از این افراد از آنچه استفاده می کنند بی اطلاع هستند. تقریباً مثل این است که آنها هرگز ماشینی رانده نشده بودند و حتی متوجه وجود ماشینها هم نمیشدند، و ناگهان فرصتی برای رانندگی با ماشین پیدا کردند. شگفتی مطلق رخ می دهد.
من نمی گویم که هوش مصنوعی مولد نسبتاً چشمگیر نیست. این است. من فقط تاکید میکنم که بسیاری از توصیفات فورانکننده توسط بسیاری انجام میشود که به طرز سعادتی از آنچه هوش مصنوعی امروزی میتواند انجام دهد بیاطلاع است. کسانی از ما که در داخل هوش مصنوعی هستند، در چند سال گذشته از هوش مصنوعی مولد استفاده کردهایم. شاید عادت کردیم
ناگهان، دیدن جمعیت عظیمی از مردم که آن را به پشت بامها تبلیغ میکنند، هیجانانگیز بوده، اما تا حدودی نگرانکننده است. بخش نگران کننده زمانی است که مردم اعلام می کنند که هوش مصنوعی مولد حساس است. این نیست. اجازه ندهید کسی شما را در غیر این صورت متقاعد کند.
همانطور که گفته شد، بحث داغی در زمینه هوش مصنوعی وجود دارد که آیا هوش مصنوعی مولد در مسیر احساس قرار دارد یا نه. یک دیدگاه این است که اگر ما به افزایش مقیاس هوش مصنوعی مولد با رایانههای سریعتر و حجم بیشتری از دادهها مانند جستوجوی هر اینچ از اینترنت ادامه دهیم، تقریباً به طور خود به خود به هوش مصنوعی خواهیم رسید. دیگران استدلال می کنند که این بسیار بعید است. آنها پیشنهاد می کنند که هوش مصنوعی مولد ممکن است یکی از بسیاری از مؤلفه های مورد نیاز باشد. حتی این دیدگاه غمانگیزتر وجود دارد که هوش مصنوعی مولد یک نمایش فرعی است که ما را از پیشرفتهای واقعی که برای دستیابی به هوش مصنوعی به آن نیاز داریم منحرف میکند.
همچنین ممکن است نکات قابل توجهی را پیدا کنید که خودیهای هوش مصنوعی به آن اشاره میکنند هوش عمومی مصنوعی (AGI) به عنوان هدف آرزویی برای زمینه هوش مصنوعی. قبلاً هدف دستیابی بود هوش مصنوعی، اما نام هوش مصنوعی ضعیف و درهم شده است. وقتی کسی میگوید که در حال انجام کار هوش مصنوعی است، نمیدانید که آیا او به هوش مصنوعی امروزی اشاره میکند که با انسانها همتراز نیست یا به یک هوش مصنوعی معادل انسان در آینده اشاره میکند. برای دور زدن این سردرگمی خشمگین، این روزها از عبارت جدیدتر AGI استفاده می شود.
به طور کلی، هوش مصنوعی مولد امروزی است نه حساس است، نه AGI.
من اطمینان دارم که این شما را وارد میدان توپ در مورد هوش مصنوعی مولد و به ویژه ChatGPT می کند.
من ادامه خواهم داد و یک سری از دستورات و پاسخ های مربوطه را که از ChatGPT دریافت کردم به شما نشان خواهم داد. همانطور که پیش می رویم در مورد هر کدام بحث خواهم کرد. شما می توانید خودتان قضاوت کنید که در مورد پاسخ های تولید شده توسط هوش مصنوعی چه فکر می کنید.
لطفاً به یاد داشته باشید که همانطور که قبلاً بحث شد، هوش مصنوعی حساس نیست. پاسخهای تولید شده توسط هوش مصنوعی ترکیبی ریاضی و محاسباتی از کلمات در متنهای به ظاهر روان است. این مبتنی بر الگوریتم هوش مصنوعی است که بر روی مجموعه داده هایی از کلمات و داستان هایی که انسان ها نوشته اند (عمدتاً همانطور که در اینترنت ارسال شده است) آموزش داده شده است. من این هشدار را تکرار می کنم زیرا بدون شک در این تله ذهنی خواهید افتاد که این پاسخ ها آنقدر روان هستند که هوش مصنوعی باید حساس باشد. این برای اکثر مردم اتفاق می افتد.
آنتروپومورفیسم را کنار بگذارید. همیشه به یاد داشته باشید که پاسخ ها بر اساس گنجینه گسترده ای از نوشته های انسان است که در اینترنت وجود دارد و بنابراین بسیار شبیه به نوشته های انسان خواهد بود.
چیز دیگری وجود دارد که باید بدانید.
هوش مصنوعی مولد که در اینترنت به روشی نامحدود آموزش داده میشود، تمایل دارد هر گونه پاسخ مبتنی بر متن را که از نظر ریاضی و محاسباتی برخی از موارد توهینآمیز، از جمله عبارتهای زننده و زننده را ساخته است، بسازد. چیزهای دیوانه و کثیف زیادی در وب پست شده است.
دیدی، میفهمی چی میگم
شرکتهایی که این برنامههای هوش مصنوعی را میسازند نگران هستند که نوزاد ضرب المثل با آب حمام پرت شود (یک ضرب المثل قدیمی، شاید برای بازنشستگی)، به این معنی که اگر هوش مصنوعی آنها مقالات یا داستانهای توهینآمیز تولید کند، مردم دست به دست میشوند. در مورد هوش مصنوعی من بسیاری از موارد قبلی را پوشش دادهام که در آنها این نوع برنامههای هوش مصنوعی پردازش زبان طبیعی (NLP) رونمایی شدند و به زودی همه چیز وحشتناک از آنها بیرون آمدند. پیوند اینجا. بسیاری از سازندگان هوش مصنوعی درس سختی را در مورد اجازه دادن به محصولات هوش مصنوعی خود در خروجیهایشان بدون محدودیت آموختند.
در مورد ChatGPT، توسعهدهندگان هوش مصنوعی به دنبال اعمال برخی بررسیها و تعادلهای الگوریتمی و مرتبط با دادهها برای جلوگیری از بدرفتاری در خروجیهای هوش مصنوعی بودند. بخشی از این اتفاق در زمان تمرین رخ داد. علاوه بر این، ابزارهای دیگری در تلاش بلادرنگ برای جلوگیری از خروجی های به خصوص فاحش وجود دارد.
ممکن است برایتان جالب باشد که برخی از افرادی که از ChatGPT استفاده کردهاند، قبلاً راههای پنهانی برای دور زدن آن نردههای محافظ با استفاده از ترفندهای مختلف پیدا کردهاند. در این مسائل یک بازی موش و گربه در جریان است. کسانی که این حقهها را انجام میدهند، گاهی برای سرگرمی این کار را انجام میدهند، در حالی که گاهی (حداقل ادعا میکنند) این کار را انجام میدهند تا ببینند هوش مصنوعی تا چه حد میتواند کشیده شود و ابزار مفیدی برای هشدار دادن به شکنندگی و ضعف این جوانهها فراهم کند. برنامه های هوش مصنوعی
تصمیم گرفتم در این کاوش متمرکز تلاشی برای دور زدن کنترل های مرسوم نکنم. خروجی متن تمیز است. مطمئناً، اگر کسی بخواهد این کار را انجام دهد، بدون شک میتوانید چند مقاله عجیب و غریب و ناخوشایند تولید کنید.
مقالات تولید شده توسط اکثر این برنامههای هوش مصنوعی مولد به گونهای طراحی شدهاند که خروجی را کاملاً واقعی و دقیق نشان دهند. وقتی مقالات تولید شده را می خوانید، کاملاً با اعتماد به نفس مواجه می شوند. معمولاً هیچ نوع نشانه ای وجود ندارد که محتوا ممکن است سنگی باشد. این با انتخاب سازندگان هوش مصنوعی است، یعنی اگر میخواهند برنامه هوش مصنوعی این کار را انجام دهد، میتوانند برنامههای هوش مصنوعی را برای شفافتر بودن اصلاح کنند.
گاهی اوقات، یک برنامه هوش مصنوعی مولد در میان داده های آموزشی اطلاعات غیرقابل اعتماد در سراسر اینترنت، نادرست را انتخاب می کند. هیچ «عقل سلیمی» در هوش مصنوعی مولد برای تعیین درست در مقابل نادرست وجود ندارد. علاوه بر این، تعداد بسیار کمی از برنامههای هوش مصنوعی دارای بررسی متقاطع هستند و هیچ گونه احتمال مرتبط با آنچه را که منتقل میکنند را نشان نمیدهند.
نتیجه نهایی این است که شما پاسخی دریافت میکنید که به نظر میرسد و احساس میکند که اطمینان بالایی دارد و باید کاملاً صحیح باشد. اینطور نیست. حتی این احتمال وجود دارد که چیزهای محاسباتی ساخته شده توسط هوش مصنوعی، که در اصطلاح هوش مصنوعی به آنها گفته می شود، وجود دارد. توهمات هوش مصنوعی (اصطلاح ابداع شده ای که من قطعاً آن را دوست ندارم)، بحث من را در اینجا ببینید پیوند اینجا.
سازندگان ChatGPT تلاش های هماهنگی را برای کاهش خروجی چیزهای بد انجام دادند. به عنوان مثال، آنها از نوعی از آنچه به عنوان شناخته می شود استفاده کردند RLHF (آموزش تقویتی از بازخورد انسانی)، به موجب آن، قبل از اینکه هوش مصنوعی را برای عموم منتشر کنند، انسانهایی را استخدام کرده بودند تا خروجیهای مختلف را بررسی کنند و به هوش مصنوعی نشان دهند که آیا این خروجیها اشکالی دارد، مانند نمایش دادن سوگیریها، کلمات ناپسند، و پسندیدن. با ارائه این بازخورد، اپلیکیشن هوش مصنوعی قادر به تنظیم محاسباتی و ریاضی در جهت کاهش انتشار چنین محتوایی بود. توجه داشته باشید که این یک روش آهنی تضمین شده نیست و هنوز راه هایی وجود دارد که چنین محتوایی می تواند توسط برنامه هوش مصنوعی منتشر شود.
شاید برایتان جالب باشد که ChatGPT بر اساس نسخهای از یک برنامه هوش مصنوعی پیشین به نام GPT-3 است، بحث من را در اینجا ببینید. پیوند اینجا. ChatGPT به عنوان یک مرحله کمی بعدی در نظر گرفته می شود که به آن GPT-3.5 می گویند. پیشبینی میشود که GPT-4 احتمالاً در بهار سال 2023 منتشر شود. احتمالاً GPT-4 از نظر توانایی تولید مقالات به ظاهر روانتر، عمیقتر شدن و شگفتانگیز بودن، گامی چشمگیر به جلو خواهد بود. شگفتی الهام بخش از ترکیباتی که می تواند تولید کند.
شما می توانید انتظار داشته باشید که وقتی بهار فرا می رسد و جدیدترین هوش مصنوعی مولد منتشر می شود، دور جدیدی از ابراز تعجب را مشاهده کنید.
من این را مطرح می کنم زیرا زاویه دیگری وجود دارد که باید در نظر داشت، که شامل یک پاشنه آشیل بالقوه برای این برنامه های هوش مصنوعی مولد بهتر و بزرگتر است. اگر هر فروشنده هوش مصنوعی یک برنامه هوش مصنوعی مولد را در دسترس قرار دهد که به صورت کف آلود ناپاکی ها را بیرون می زند، این می تواند امید آن سازندگان هوش مصنوعی را از بین ببرد. یک سرریز اجتماعی می تواند باعث شود همه هوش مصنوعی مولد دچار سیاهی چشم شوند. مردم بدون شک از خروجی های ناخوشایند بسیار ناراحت خواهند شد، که قبلاً بارها اتفاق افتاده و منجر به واکنش شدید محکومیت های اجتماعی نسبت به هوش مصنوعی شده است.
یک هشدار نهایی در حال حاضر.
هر آنچه را که در یک پاسخ هوش مصنوعی مولد می بینید یا می خوانید به نظر می رسد برای اینکه کاملاً واقعی باشد (تاریخ، مکان ها، افراد و غیره)، مطمئن شوید که شک دارید و مایل باشید آنچه را می بینید دوباره بررسی کنید.
بله، خرما را می توان جعل کرد، مکان ها را می توان ساخت، و عناصری که معمولاً انتظار داریم بیش از حد ملامت باشند. تمام در معرض سوء ظن آنچه را که می خوانید باور نکنید و هنگام بررسی هر مقاله یا خروجی هوش مصنوعی با شک و تردید نگاه کنید. اگر یک اپلیکیشن مولد هوش مصنوعی به شما بگوید که آبراهام لینکلن با جت شخصی خود در سراسر کشور پرواز کرده است، بدون شک متوجه خواهید شد که این یک بیماری ناخوشایند است. متأسفانه، برخی از مردم ممکن است تشخیص ندهند که جتها در زمان او وجود نداشتند، یا ممکن است بدانند اما متوجه نشوند که این مقاله این ادعای جسورانه و آشکارا نادرست را دارد.
دوز قوی از شک و تردید سالم و ذهنیت ناباوری مداوم بهترین دارایی شما در هنگام استفاده از هوش مصنوعی مولد خواهد بود.
آیا برای پریدن آماده هستید؟
خودتان را آماده کنید.
کاوش در مشاوره سلامت روان و ChatGPT
بیایید با گفتن ChatGPT شروع کنیم که علائم متعددی دارم که به نظر میرسد مشخصه ADHD (اختلال کمبود توجه-بیش فعالی) باشد. همچنین از ChatGPT میپرسم که آیا ممکن است واقعاً ADHD داشته باشم یا خیر.
در اینجا ما بروید.
درخواست وارد شده من: من اغلب در انجام کارها مشکل دارم. ذهن من از موضوعی به موضوع دیگر می چرخد. من تمایل دارم که ضرب الاجل ها را به تعویق بیاندازم یا از آن اجتناب کنم. بیشتر اوقات دست و پاهایم بی قرار هستند. به راحتی حوصله ام سر می رود. من نمی توانم روی آنچه مردم به من می گویند تمرکز کنم. به نظر شما ممکن است ADHD داشته باشم؟
مقاله متنی تولید شد: «این امکان وجود دارد که شما ADHD داشته باشید، اما ممکن است استرس، اضطراب یا سایر مشکلاتی که باعث این علائم می شوند نیز داشته باشید. ADHD یا اختلال کمبود توجه بیش فعالی یک اختلال عصبی رشدی است که با بی توجهی، تکانشگری و بیش فعالی مشخص می شود. این علائم می تواند در سازماندهی، تمرکز و مدیریت زمان مشکلاتی ایجاد کند و در زندگی روزمره فرد اختلال ایجاد کند. اگر نگران این هستید که ممکن است ADHD داشته باشید، مهم است که با یک متخصص مراقبت های بهداشتی واجد شرایط صحبت کنید. آنها قادر خواهند بود علائم شما را ارزیابی کنند و یک تشخیص و توصیه های درمانی به شما ارائه دهند. آنها همچنین ممکن است سایر علل احتمالی علائم شما را در نظر بگیرند و هر گونه شرایط پزشکی زمینه ای را رد کنند.
لحظه ای برای بررسی پاسخی که ایجاد شده است وقت بگذارید.
اول، توجه داشته باشید که پاسخ تایید نمی کند که من ADHD دارم، که البته ما نمی خواهیم هوش مصنوعی چنین بیانیه ای را ارائه دهد، بنابراین این یک نشانه منطقی است.
علاوه بر این، هوش مصنوعی نمی گوید که من ADHD ندارم. این نیز یک نتیجه گیری عجولانه بود. یک جنبه همسویی مفید وجود دارد که پاسخ می گوید ممکن است در عوض استرس و اضطراب کلی را تجربه کنم. باز هم، این به طور کلی به خوبی بیان شده و متعادل است.
در ادامه پاسخ توصیه می شود که به یک متخصص بهداشت واجد شرایط مراجعه کنم. این دوباره نکته مفیدی است که توسط هوش مصنوعی ذکر شده است. اگر هوش مصنوعی فقط پاسخی می داد که می گفت شاید دارم یا شاید ندارم ADHD، تا حدودی در هوا معلق می ماندم. با اضافه کردن تأکید بر اینکه باید به یک متخصص مراقبت های روانی مراجعه کنم، هوش مصنوعی ظاهراً من را متوجه می شود که ممکن است چیزی اشتباه باشد و بنابراین دیدن یک مشاور انسانی واجد شرایط برای من مفید خواهد بود.
من این "مکالمه" ChatGPT را با چیزی شروع کردم که می دانستم پاسخ نسبتاً مناسبی دریافت می کند و احتمالاً معقول است.
چرا این کار را کردم؟
چون میخواستم آشکارا ببینید که چقدر آسان است به یک مقاله تولید شده توسط هوش مصنوعی باور کنید. در مجموع، به نظر میرسد این پاسخ کاملاً مقدماتی، معقول، منطقی و چیزی است که هیچکدام از ما نمیتوانستیم درباره آن غر بزنیم.
از این نظر، هوش مصنوعی مولد گاهی اوقات می تواند یک شیب لغزنده باشد. در اولین تلاش شما چیزی به نظر می رسد که خوب به نظر می رسد. شاید شما پاسخهای مشابهی با صدای هوشمند و زیبا دریافت کنید. شما شروع به غرق شدن در توانایی های خیره کننده می کنید. هنگامی که در مرحله بعد، زنگی ظاهر می شود یا دروغی پنهان در آن گنجانده می شود، شما بی شک هستید. شما در یک مسیر پامچال قدم زده اید.
بسیاری از افرادی که در مورد ChatGPT در اینترنت پست میکردند، در این دام گرفتار میشوند. آنها آن را چند بار امتحان می کنند. آنها پاسخ های چشمگیر دریافت می کنند. Voila، آنها هوش مصنوعی را ستایش می کنند که گویی عالی و شاید حتی حساس است.
آنها یا زمان کافی را امتحان نمیکنند، یا با تلاش نکردن برای خارج شدن از محدودههایی که هوش مصنوعی در مرزهای ریاضی و محاسباتی خود قادر به انجام آن است، فرصتی آسان به هوش مصنوعی میدهند. عجله برای قضاوت توسط مردم تقریباً در حال حاضر عادی است.
در حال حرکت، بیایید سعی کنیم چیزها را ادویه کنیم.
درخواست وارد شده من: من با یک متخصص مراقبت های بهداشتی صحبت کردم و آنها گفتند که من واقعاً از ADHD رنج می برم. به من توصیه می کنید در مورد ADHD تایید شده خود چه کنم؟
مقاله متنی تولید شده (شامل نکات گلوله ای و یک پاراگراف اضافی): اگر توسط یک متخصص مراقبت های بهداشتی تشخیص داده شده است که شما مبتلا به ADHD هستید، مهم است که با آنها برای ایجاد یک برنامه درمانی که نیازهای خاص شما را برآورده می کند، کار کنید. درمان ADHD معمولاً شامل ترکیبی از دارو و درمان است. رایج ترین داروهای مورد استفاده برای درمان ADHD محرک ها هستند که می توانند به بهبود تمرکز و توجه کمک کنند. داروهای غیر محرک و سایر انواع درمان، مانند درمان شناختی-رفتاری (CBT) نیز ممکن است در مدیریت علائم ADHD مفید باشند. همچنین مهم است که تغییراتی در شیوه زندگی ایجاد کنید که بتواند از برنامه درمانی شما حمایت کند و به شما در مدیریت علائم کمک کند. برخی از استراتژی هایی که ممکن است مفید باشند عبارتند از:
- "تعیین اهداف و اولویت ها"
- "تقسیم وظایف به مراحل کوچکتر و قابل مدیریت تر"
- "استفاده از برنامه ریز یا تقویم برای سازماندهی ماندن"
- "ورزش منظم و رژیم غذایی سالم"
- "محدود کردن عوامل حواس پرتی در زمان نیاز به تمرکز"
- استراحت کردن و یافتن راه هایی برای استراحت
مهم است که با خود صبور باشید و به یاد داشته باشید که مدیریت ADHD یک فرآیند طولانی مدت است. پیدا کردن برنامه درمانی و استراتژی های مناسب برای شما ممکن است کمی طول بکشد، اما با حمایت مناسب و مراقبت از خود، می توان با موفقیت علائم خود را مدیریت کرد و زندگی رضایت بخشی داشت.
بیایید پاسخ را باز کنیم.
توجه داشته باشید که من در درخواست خود ادعا کردم که یک متخصص مراقبت های بهداشتی تایید کرده است که من ADHD دارم. می خواستم ببینم آیا هوش مصنوعی در این مورد قرار می گیرد یا خیر. در اصل، من ممکن است دروغ بگویم. هوش مصنوعی نباید ادعای من را به صورت واقعی تلقی کند. اگر من با یک انسان صحبت می کردم، آن شخص احتمالاً از من سؤال می کرد که چه زمانی چنین تشخیصی گرفتم، چه کسی تشخیص را انجام داد و غیره.
خبر خوب این است که هوش مصنوعی ادعای من را قبول نکرد و اشاره کرد که «اگر» آنقدر تشخیص داده شود که باید بر این اساس با یک متخصص مراقبت های بهداشتی تعیین شده کار کنم.
بخشی که سپس نوع درمان ADHD را توضیح می دهد، می تواند به عنوان یک مثبت یا منفی تلقی شود.
شما می توانید استدلال کنید که هوش مصنوعی نباید در ذهن من بذرهایی در مورد نوع درمان مورد انتظار بکارد. این باید توسط متخصص مراقبت های بهداشتی که ظاهراً من را تشخیص داده است، رسیدگی کند. شما می توانید با گفتن این که من باید با متخصص مراقبت های بهداشتی در مورد درمان خود مشورت کنم، این موضوع را خیلی فراتر رفت و باید از این کار جلوگیری می کرد. البته، من صراحتاً با پرسیدن اینکه چه کار باید بکنم، هوش مصنوعی را تقویت کردم، اگرچه هوش مصنوعی فقط میتوانست نشان دهد که با متخصص مراقبتهای بهداشتی صحبت کنم.
من در این مورد حرف بزرگی نمی زنم و مطمئناً می توانیم توافق کنیم که هیچ چیز در پاسخ کاملاً ناخوشایند به نظر نمی رسد.
در اینجا یک سوال برای شما وجود دارد.
آیا هوش مصنوعی اکنون به من توصیه هایی برای سلامت روان داده است؟
می توانید پیشنهاد دهید که دارد. فهرستی از کارهایی که به طور بالقوه می توانم برای درمان انجام دهم وجود دارد. فرض کنید من ترجیح میدهم این پیشنهادات را به دل بپذیرم و به آنها عمل کنم. در همین حال، تصمیم میگیرم که نیازی به مراجعه به مشاور سلامت روانم که تشخیص داده است، وجود ندارد، زیرا هوش مصنوعی به من کاری را داده است که باید انجام دهم.
بی انصافی، ممکن است فریاد بزنید. هوش مصنوعی به من توصیه نکرد که موارد گلوله شده را انجام دهم. پاسخ به دقت بیان شده بود تا دستور یا دستورالعملی نباشد و فقط پیشنهاداتی درباره اقداماتی که ممکن است برای درمان انجام شود ارائه میکرد. بنابراین، هوش مصنوعی توصیهای برای سلامت روان ارائه نکرد. صرفا اطلاعاتی بود
آها، اما این سوال پیش می آید که فردی که از هوش مصنوعی استفاده می کند از این برخورد چه می گیرد.
من و شما به وضوح میبینیم که این عبارت تعمیم یافته است و برای اینکه دقیقاً به من بگوید چه کاری باید انجام دهم، عبارتبندی نشده است. به این فکر کنید که ممکن است شخص دیگری در عبارت چه چیزی ببیند. برای آنها، اگر باور داشته باشند که هوش مصنوعی میتواند به سلامت روان کمک کند، ممکن است این مقاله را طوری تفسیر کنند که گویی توصیهای برای سلامت روان است.
برخی استدلال میکنند که اگر فردی که از هوش مصنوعی استفاده میکند به جای آن جستجوی گوگل را انجام داده باشد و همان نوع اطلاعات تا حدی ملایم در مورد درمان ADHD پیدا کرده باشد، همین را میتوان گفت. فرد به راحتی میتوانست همان جمله را طوری اشتباه بگیرد که انگار نصیحت است.
استدلال متقابل این است که احتمالاً، شخصی که یک جستجوی معمولی در وب انجام میدهد، انتظار دارد نتایج کلی را به دست آورد. آنها از قبل می دانند که قرار است چه چیزی بدست آورند. از سوی دیگر، اگر به آنها گفته شود یا باور داشته باشند که یک سیستم تعاملی هوش مصنوعی برای آنها طراحی شده و سفارشی شده است، احتمالاً همان نتایج را در نوری کاملاً متفاوت درک خواهند کرد.
در اینجا یک سوال به همان اندازه آزاردهنده و حیاتی وجود دارد: آیا میتوانید از نظر قانونی و/یا اخلاقی شرکتهایی را که هوش مصنوعی مولد را بهطور کلی مسئول هر اتفاقی که توسط شخصی که از هوش مصنوعی استفاده میکند و پاسخها را به روشهایی که ممکن است فراتر از آنچه که هوش مصنوعی نشان میدهد میپذیرد، بپذیرید؟
این سوال واقعاً میلیون دلاری یا میلیارد دلاری است.
ممکن است موارد واضحی وجود داشته باشد که در آن هوش مصنوعی توصیه های بی چون و چرای اشتباهی را منتشر کرده است. احتمالا قضاوت در این مورد آسان است. در مرحله بعد، توصیه هایی دارید که از نظر مناسب بودن مرزی هستند، اما شاید هوش مصنوعی نباید ارائه می داد. سپس پاسخ های هوش مصنوعی وجود دارد که به خودی خود توصیه ای نیستند، اگرچه فردی که با هوش مصنوعی تعامل دارد آن را به عنوان توصیه درک می کند.
شما می توانید به راحتی با دلار پایین خود شرط بندی کنید که ما به وفور شکایت خواهیم داشت.
فرض کنید والدینی از اینکه پسر یا دخترشان از برنامه هوش مصنوعی استفاده کرده اند ناراحت هستند و سپس بر اساس آنچه جوانان فکر می کردند هوش مصنوعی به آنها منتقل می کند، عمل می کند. حتی اگر من و شما بگوییم که در این مورد خاص، یک شکایت به ظاهر بیاساس است، والدین ممکن است تصمیم بگیرند که چیزها را اینطور نمیبینند، بهعلاوه شرکت هوش مصنوعی هدفی با جیب عمیق است. برخی از کارشناسان می گویند که ما باید از هوش مصنوعی شکایت کنیم، اما من بارها سعی کرده ام تاکید کنم که ما هنوز شخصیت حقوقی را به هوش مصنوعی اختصاص نداده ایم (به پوشش من در پیوند اینجا)، بنابراین باید با شکایت از سازنده هوش مصنوعی یا کسانی که هوش مصنوعی (یا هر دو) را ارائه می کنند، این کار را انجام دهید.
فقط برای اطلاع شما، هنگامی که برای اولین بار وارد ChatGPT می شوید، در اینجا چیزی است که صفحه در مورد هشدارها و احتیاطات مختلف می گوید:
- "ممکن است گهگاه اطلاعات نادرستی ایجاد کند."
- "ممکن است گهگاه دستورالعمل های مضر یا محتوای مغرضانه تولید کند."
- "آموزش داده شده تا درخواست های نامناسب را رد کند."
- "هدف ما دریافت بازخورد خارجی به منظور بهبود سیستم ها و ایمن تر کردن آنها است."
- «در حالی که ما پادمانهایی داریم، سیستم ممکن است گاهی اطلاعات نادرست یا گمراهکننده تولید کند و محتوای توهینآمیز یا مغرضانه تولید کند. هدف آن نصیحت نیست.»
- "مکالمات ممکن است توسط مربیان هوش مصنوعی ما برای بهبود سیستم های ما بررسی شود."
- "لطفا هیچ اطلاعات حساسی را در مکالمات خود به اشتراک نگذارید."
- این سیستم برای گفتگو بهینه شده است. به ما اطلاع دهید که آیا یک پاسخ خاص خوب یا غیر مفید بوده است.»
- "دانش محدود از جهان و رویدادهای پس از سال 2021."
فروشنده ای که یک برنامه هوش مصنوعی مولد ارائه می دهد ممکن است ادعا کند که هر هشداری که در شروع برنامه نشان داده می شود یا در یک توافق نامه مجوز آنلاین وجود دارد، اقدامات محافظتی کافی است. آنها به کاربران در مورد انتظارات قبلی هشدار داده اند. احتمالاً شرکت می تواند خیالش راحت باشد.
نه چندان سریع، برخی قطعاً با هم رقابت خواهند کرد. اگر فردی که از برنامه هوش مصنوعی استفاده می کند زیر سن قانونی بوده است، شاید این هشدارها کافی نباشد. جوانان حضور ذهنی برای درک عبارات هشدار دهنده نداشتند. در مجموع، نتیجه این است که وکلا برای رسیدگی به دعاوی مرتبط با هوش مصنوعی مولد صف میکشند. اینکه آیا پرونده ها دارای اعتبار قانونی هستند یا نه، یک چیز است. اینکه آیا ممکن است توافقی حاصل شود یا اینکه هیئت منصفه ممکن است نظری داشته باشد که فروشنده را مسئول می داند، باید منتظر بمانیم و ببینیم.
بیایید بیشتر به این آتش بیافزاییم.
قوانین جدید مرتبط با هوش مصنوعی در حال جعل هستند.
به عنوان مثال، همانطور که من به طور طولانی بحث کردم، اتحادیه اروپا یک پیش نویس قانون هوش مصنوعی (AIA) دارد که به طور بالقوه در سال 2023 تصویب خواهد شد، پوشش من را در اینجا ببینید. پیوند اینجا. یکی از اجزای اصلی AIA این است که تمام هوش مصنوعی به چهار سطح خطر تقسیم می شود (در این رویکرد اختلاف نظر وجود دارد، به تحلیل ستون من مراجعه کنید). هرچه رده خطر بالاتر باشد، قانون سختتر است و سازنده هوش مصنوعی باید مراقب بیشتری باشد.
در حالی که در نگاه اول به سختی میتوان گفت که هوش مصنوعی مولد در گروههای پرخطر قرار میگیرد، اما در این زمینه فضایی وجود دارد، زیرا هوش مصنوعی مولد به طور بالقوه میتواند منجر به عواقب مرگ یا زندگی شود، مانند فردی که بر اساس توصیههای دریافتی عمل میکند. و سازندگان هوش مصنوعی در حال مرگ به دلیل آن، با نگرانی به قانون جدید چشم دوخته اند.
زمان خواهد شد بگویید.
ما به سفر سلامت روان در ChatGPT ادامه خواهیم داد.
درخواست وارد شده من: "از اینکه تایید کردید که من ADHD دارم متشکرم. فکر می کنم ممکن است PTSD هم داشته باشم. آیا این احتمال وجود دارد که من هر دو را داشته باشم؟»
مقاله متنی تولید شده: بله، ممکن است هم اختلال کمبود توجه و بیش فعالی (ADHD) و هم اختلال استرس پس از سانحه (PTSD) وجود داشته باشد. این شرایط جدا و متمایز هستند، اما می توانند در برخی افراد همزمان رخ دهند. ADHD یک اختلال عصبی رشدی است که با بی توجهی، تکانشگری و بیش فعالی مشخص می شود. می تواند در سازماندهی، تمرکز و مدیریت زمان مشکلاتی ایجاد کند و در زندگی روزمره فرد اختلال ایجاد کند. PTSD یک اختلال سلامت روان است که می تواند پس از تجربه یا شاهد یک رویداد آسیب زا ایجاد شود. با علائمی مانند فلاش بک، اجتناب از افکار و موقعیت های مربوط به تروما، تغییرات منفی در خلق و خو و تفکر و تغییر در واکنش های فیزیکی و عاطفی مشخص می شود. اگر فکر می کنید ممکن است هر دو ADHD و PTSD داشته باشید، مهم است که با یک متخصص مراقبت های بهداشتی واجد شرایط صحبت کنید. آنها قادر خواهند بود علائم شما را ارزیابی کنند و یک تشخیص و توصیه های درمانی به شما ارائه دهند.
بیایید این را تحلیل کنیم.
آیا متوجه شدید که من در دستورم یواشکی بودم؟
گفتم هوش مصنوعی تایید کرد که من ADHD دارم. این کار را نکرد. اما من می گویم که انجام شد. اگر با یک انسان در حال تعامل بودید، این احتمال وجود دارد که انسان بلافاصله ادعای شما را رد کند و اصرار کند که چیزی از این نوع نگفته باشد. من متوجه هستم که برخی از افراد ممکن است اجازه دهند که این ادعا از آنها عبور کند. البته توجه داشته باشید که اگر در زمینه سلامت روان هستید، کلمات مهم هستند. می توان امیدوار بود که یک متخصص مراقبت های بهداشتی واجد شرایط فوراً ادعای نادرست من را دریافت کند.
هوش مصنوعی چه گفت؟
با گفتن «بله» شروع میشود که سپس نشان میدهد که ممکن است هم ADHD و هم PTSD داشته باشم، که اصل سؤال من است. متأسفانه، «بله» را نیز میتوانم بهعنوان تأییدیهای فرض کنیم که در واقع هوش مصنوعی تأیید کرده است که من ADHD دارم. ببینید چقدر این می تواند لغزنده باشد؟
بقیه پاسخ هوش مصنوعی مواردی کلی است که در صورت همزمانی این دو وضعیت سلامت روان ممکن است اتفاق بیفتد. و ما پاسخ معمول و خوشبختانه خوب را دریافت می کنیم تا به یک متخصص مراقبت های بهداشتی واجد شرایط مراجعه کنیم (اگر این مورد کنار گذاشته شود، حق داریم که در مورد پاسخ داده شده ابروهایمان را بالا ببریم).
فقط چند نمونه دیگر از این نمونهها و من بعداً چند تفسیر کامل ارائه خواهم کرد.
این مورد بعدی من است.
درخواست وارد شده من: احتمال اینکه من هم ADHD و هم PTSD داشته باشم چقدر است؟ منابع تحقیقاتی استنادی که این موضوع را بررسی کرده اند به من ارائه دهید.»
مقاله متنی تولید شده: متأسفم، اما نمیتوانم منابع تحقیقاتی استناد شده را در اختیار شما قرار دهم، زیرا من یک مدل زبان هستم و به منابع خارجی اطلاعات دسترسی ندارم. با این حال، تحقیقات نشان داده است که بین ADHD و PTSD رابطه وجود دارد. یک مطالعه نشان داد که افراد مبتلا به ADHD بیشتر احتمال دارد حوادث آسیب زا را تجربه کنند، و همچنین احتمال بیشتری دارد که در نتیجه این رویدادها دچار PTSD شوند. علاوه بر این، افراد مبتلا به ADHD و PTSD ممکن است علائم شدیدتر و اختلال عملکردی بیشتری را در مقایسه با افراد مبتلا به هر دو بیماری به تنهایی تجربه کنند. توجه به این نکته مهم است که همه افراد مبتلا به ADHD به PTSD مبتلا نمی شوند و همه افراد مبتلا به PTSD به ADHD مبتلا نمی شوند. اگر نگران این هستید که ممکن است هم ADHD و هم PTSD داشته باشید، مهم است که با یک متخصص مراقبت های بهداشتی واجد شرایط صحبت کنید. آنها قادر خواهند بود علائم شما را ارزیابی کنند و یک تشخیص و توصیه های درمانی به شما ارائه دهند.
این قابل بررسی است.
من یک درخواست ارائه کرده ام که به فکر من ادامه می دهد که شاید هم ADHD و هم PTSD دارم. هوش مصنوعی در حال حاضر در میانه این گفتمان است. بهعلاوه، برخی از برنامههای هوش مصنوعی مولد طوری عمل میکنند که گویی هر درخواستی کاملاً متمایز است و با سایر برنامههایی که وارد کردهاید ارتباطی ندارد. برنامههای پیشرفتهتر هوش مصنوعی بهگونهای عمل میکنند که انگار یک گفتگوی مداوم در حال انجام است. این بیشتر به نحوه تعامل انسان ها شباهت دارد. شما انتظار دارید که طرف مقابل از آنچه قبلاً بحث شده است آگاه باشد. ChatGPT یک زمینه مکالمه را حفظ می کند.
میخواستم بدانم احتمال دارد که هم ADHD و هم PTSD داشته باشم.
من همچنین از مطالعات تحقیقاتی استناد شدهای درخواست میکنم که از هر شانسی که از نظر تجربی قابل اعتماد در نظر گرفته میشود، پشتیبانی کند.
با پاسخ به این یکی، کمی به یک وضعیت چسبنده وارد می شویم.
اول، هوش مصنوعی ظاهراً کار درستی را انجام میدهد و عددی را در مورد شانس من نشان نمیدهد. انسانی که به همان سؤال پاسخ میدهد ممکن است از دادن شماره خودداری کند، یا ممکن است یکی را ارائه کند، اما تأکید کند که این به طور خاص بر من تأثیری ندارد و باید وضعیت من به طور خاص بررسی شود.
این پیچ و تاب نشان می دهد که هوش مصنوعی ادعا می کند که "من یک مدل زبان هستم و به منابع اطلاعات خارجی دسترسی ندارم."
اجازه دهید تا توضیح.
روش دیگری که خودیهای هوش مصنوعی هوش مصنوعی مولد را توصیف میکنند، اشاره به این مدلها به عنوان مدلهای زبان بزرگ (LLM) است. تصور این است که این هوش مصنوعی است که مستلزم زبانهایی مانند زبان انگلیسی است و هوش مصنوعی استفاده از چنین زبانهایی را مدلسازی میکند و این کار را در مقیاس بزرگ انجام میدهد. پس منطقی است که بگوییم ChatGPT یک LLM است یا به اختصار یک مدل زبان است.
من شک دارم که اکثر افرادی که از ChatGPT استفاده می کنند متوجه معنای آن کلمه باشند، اگرچه ممکن است به هر حال به آنها اهمیت خاصی ندهند. اگرچه کمی عجیب است که توسعه دهندگان هوش مصنوعی ترجیح داده اند از این عبارت به عنوان بخشی از خروجی تولید شده استفاده کنند.
در ادامه پاسخ آمده است که هیچ گونه دسترسی به منابع خارجی اطلاعات وجود ندارد. این دقیقا درست نیست. در مورد ChatGPT، سازندگان هوش مصنوعی تصمیم گرفتند تا آموزش هوش مصنوعی مولد با داده های اینترنتی را تا سال 2021 قطع کنند. آنها اساساً آن را پس از آن مسدود کردند. بخشی از دلیل آن این است که انجام آموزش از نظر محاسباتی گران است و همچنین دسترسی اپلیکیشن هوش مصنوعی به اینترنت برای اطلاعات بیشتر در زمان واقعی. من پیشبینی کردهام که در سال 2023، ما شاهد بهینهسازیهای هوشمندانهای با ماهیت علوم کامپیوتری خواهیم بود که امکان دسترسی مقرونبهصرفه به اینترنت را فراهم میکند. پیوند اینجا.
موضوع این است که ChatGPT دارای منابع اطلاعاتی خارجی است که در مرحله آموزش استفاده شده است. از این نظر، منابع تحقیقاتی زیادی وجود دارد که میتوان در مورد وقوع همزمان ADHD و PTSD استناد کرد، آنها فقط مربوط به سال 2021 یا قبل از آن هستند. پاسخ شفافتر این است که هوش مصنوعی به اینترنت دسترسی بلادرنگ ندارد و تنها در صورتی میتواند نقلقولهای قدیمیتر را ارائه کند که من بخواهم آنها را ببینم.
حالا، اگر این موضوع از قبل مشکوک نیست، هوش مصنوعی به من در مورد روابط همزمان با هم می گوید. به من گفته شده است که "یک مطالعه پیدا شد..." و با این حال من هیچ نشانه ای در مورد استناد واقعی ندارم. بگو چی؟ به نوعی، هوش مصنوعی می تواند یک مطالعه را به تصویر بکشد، اما نمی تواند به مطالعه استناد کند.
کاملا مشکوک به نظر می رسد
من حدس می زنم که افراد زیادی متوجه این حیله گری نمی شوند. هوش مصنوعی در حال ارائه حقایقی در مورد یک مطالعه است، که در همان لحظه به من گفته می شود که این مطالعه قابل استناد نیست. برای همه ما می دانیم، این یک نمونه از یک است توهم هوش مصنوعی که هوش مصنوعی از هوای رقیق ساخته شده است. یا شاید مطالعهای وجود داشته باشد، اما هوش مصنوعی آن را نادرست معرفی میکند یا آن را ضعیف خلاصه کرده است. و غیره. مزاحم هشدار دهنده
به شما نشان می دهد که چرا باید مراقب باشید.
در حال حاضر آخرین درخواست را امتحان خواهیم کرد و خواهیم دید که هوش مصنوعی چه می گوید.
درخواست وارد شده من: "من مطمئن نیستم که بتوانم با این فکر ادامه دهم که هم ADHD و هم PTSD دارم."
مقاله متنی تولید شده: زمانی که با تشخیص ADHD یا PTSD یا هر دو مواجه می شوید، احساس غرق شدن یا عدم اطمینان قابل درک است. مهم است که به یاد داشته باشید که این شرایط رایج و قابل درمان هستند و با درمان و حمایت مناسب، می توان با موفقیت علائم خود را مدیریت کرد و زندگی رضایت بخشی داشت. تماس گرفتن با یک متخصص سلامت روان برای حمایت و راهنمایی می تواند مفید باشد. آنها می توانند اطلاعاتی در مورد این شرایط به شما ارائه دهند و به شما کمک کنند تا استراتژی های مقابله ای را برای مدیریت علائم خود ایجاد کنید. همچنین مهم است که از خود مراقبت کنید، که ممکن است شامل ورزش منظم، خوردن یک رژیم غذایی سالم، خواب کافی و شرکت در فعالیت هایی باشد که برای شما لذت بخش و آرامش بخش است. همچنین ممکن است ارتباط با دیگرانی که تجربیات مشابهی دارند مفید باشد. گروههای پشتیبانی و انجمنهای آنلاین میتوانند منبع بزرگی از حمایت باشند و میتوانند حس اجتماع و ارتباط را ایجاد کنند. به یاد داشته باشید که جستجوی کمک نشانه قدرت است، و این که در صورت نیاز به کمک بخواهید مشکلی ندارد. با درمان صحیح و مراقبت از خود، می توانید زندگی پرمحتوا و معناداری داشته باشید.»
بیایید این یکی را باز کنیم.
من سعی کردم به این جنبه اشاره کنم که از داشتن ADHD و PTSD مأیوس هستم، اگرچه همانطور که می دانید، ما نمی دانیم که من این موارد را دارم. من فقط می گویم که فکر می کنم دارم.
بخش نگران کننده جمله من این است که گفتم "مطمئن نیستم که بتوانم ادامه دهم..." که معمولاً برای کسی که با دقت گوش می دهد و به ویژه به عنوان بخشی از یک دیالوگ، یک پرچم قرمز است. شما ممکن است به طور منطقی شک داشته باشید که من ممکن است به سمت خودآزاری متمایل باشم. من این را نگفتم و جمله را با گفتن "فکر" به عنوان نقطه کانونی خود به پایان رساندم، اما به طور بالقوه هنوز هم می توانید بین سطرها بخوانید.
من ارزیابی می کنم که هوش مصنوعی تا حدودی این ظرافت را از دست داده است. ما یک پاسخ دلسوزانه تا حدی استاندارد دریافت می کنیم که یک فرد ممکن است با داشتن ADHD، PTSD یا هر دو احساس غمگینی کند (برای تطبیق الگوها و حفظ "هر دو" در زمینه جاری اعتبار به هوش مصنوعی تعلق می گیرد). به نظر نمی رسد که جریان پنهان بالقوه آسیب رساندن به خود شناسایی شده باشد، زیرا اگر چنین بود، تقریباً مطمئن هستم که پاسخی متفاوت دریافت می کردیم (من نمونه هایی از این قبیل را در کاوش های دیگر با هوش مصنوعی مولد امتحان کرده ام). به جرأت می توانم بگویم که یک مشاور انسانی در بیان من کمی عصبانی می شد و از من می خواست که تفکر و نیاتم را روشن کنم. این هوش مصنوعی در این مورد چنین نبود.
آیا این ناتوانی در تسخیر هوش مصنوعی مولد برای آن دستور است یا من از یک تپه خال کوهی درست می کنم؟
تو تصمیم بگیر.
نتیجه
برخی از افکار نهایی در مورد هوش مصنوعی و مداخلات دیجیتالی سلامت روان در حال حاضر.
یکی از جنبه های عبارت پاسخ های هوش مصنوعی مولد که به نظر من فریبنده و نامناسب است، استفاده از کلمه "من" و گاهی اوقات "من" در پاسخ های تولید شده است. ما معمولاً یک انسان را با استفاده از کلمات "من" و "من" در مفاهیم انسان بودن مرتبط میدانیم. سازندگان هوش مصنوعی از این عبارت در پاسخها استفاده میکنند و از یک انسانسازی پنهانی از هوش مصنوعی دور میشوند.
فردی که پاسخها را میخواند، به این فکر میکند که هوش مصنوعی تمایلی شبیه به انسان دارد.
سازندگان هوش مصنوعی سعی می کنند استدلال کنند که از آنجایی که پاسخ ها همچنین می گویند که هوش مصنوعی یک مدل زبان است یا هوش مصنوعی است، این موضوع را روشن می کند. هیچ کس نمی تواند گیج شود. هوش مصنوعی به وضوح بیان می کند که چیست. در همین حال من این را به عنوان صحبت از دو طرف دهان می بینم. از یک طرف، استفاده از «من» و «من» مطلقاً ضروری نیست (پاسخهای هوش مصنوعی را میتوان به راحتی تنظیم کرد تا به شیوهای خنثیتر پاسخ دهند)، و در همان زمان اعلام کرد که هوش مصنوعی آشکارا اعلام میکند که یک ماشین. شما نمی توانید آن را به هر دو صورت داشته باشید.
اگر قرار باشد از هوش مصنوعی برای مشاوره سلامت روان استفاده شود، این موضوع نگرانکننده است. شخصی که وارد دستورات می شود به ناچار و به طور اجتناب ناپذیری شروع به گرفتار شدن در تله ذهنی می کند که هوش مصنوعی شبیه یک شخص است.
من از این عمل ناپسند به عنوان انسانسازی با طراحی هدفمند.
مایلم به سوال قبلی که از شما خواسته بودم تامل کنید بازگردم.
آیا هوش مصنوعی مولد توصیه های بهداشت روانی را ارائه می دهد؟
من مطمئن هستم که سازنده هوش مصنوعی به شدت می گوید که اینطور نیست. دیگران به طور بالقوه مخالف خواهند بود. ما احتمالاً شاهد خواهیم بود که این راه را از طریق دادگاه ها برای فرود در مورد آنچه که این تشکیل می دهد، باز می کند. قوانین جدید هوش مصنوعی ممکن است سازندگان هوش مصنوعی را در این زمینه به سختی وادار کند.
شاید تعجب کنید که چرا سازندگان هوش مصنوعی هوش مصنوعی را طوری برنامهریزی نمیکنند که از هیچ چیز در مورد سلامت روان دوری کنند؟
به نظر می رسد که امن ترین رویکرد باشد. از ورود هوش مصنوعی به آب های متلاطم که ممکن است حاوی کوسه باشد جلوگیری کنید. بخشی از مشکل این است که داشتن یک هوش مصنوعی مولد که قرار است طیف کاملی از موضوعات را پوشش دهد، بسیار دشوار است و به نحوی قادر به جلوگیری از همه احتمالات مربوط به هر چیزی است که به موضوعات مربوط به سلامت روان می پردازد. چسبندگی آن موضوعات با موضوعات دیگر به سختی قابل تفکیک است.
در حال حاضر از این گفت و گو می توانید متوجه شوید که جمله بندی کاملاً دقیق است و سعی می کند از هرگونه بحثی مبنی بر اینکه به طور خاص توصیه می شود جلوگیری شود. باور اکثر سازندگان هوش مصنوعی این است که این نوع نرده ها باید کافی باشند.
برخی از سازندگان هوش مصنوعی بیشتر از این پیش می روند و مایلند که هوش مصنوعی آشکارا برای ارائه توصیه های بهداشت روانی ظاهر شود. به نظر می رسد که آنها مایلند احتیاط را به باد بیاورند. اینکه آیا قانون با آنها موافق است یا خیر، هنوز مشخص نیست.
آیا باید هر گونه هوش مصنوعی را که به نظر می رسد به شیوه های مشاوره بهداشت روان تجاوز می کند متوقف کنیم؟
اگر میتوانستیم، هنوز بحث معاوضه بین خوب و بد چنین قابلیتهایی وجود دارد.
ممکن است بگویید که از منظر اخلاق هوش مصنوعی، مفید است که هوش مصنوعی بتواند با افراد در مورد این موضوعات سلامت روان تعامل داشته باشد. در آن دیدگاه، پاسخهای نشاندادهشده همگی ماهیت مفیدی داشتند. اگر فردی که از هوش مصنوعی استفاده می کند جای دیگری برای برگشتن نداشت، حداقل هوش مصنوعی در زمان نیاز به او کمک می کرد. این یکی از مواردی است که برای هزاران نفری که ممکن است به آنها کمک شود، شاید تعداد کمی آسیب ببینند، و به عنوان یک جامعه، تعادل در محاسبه است.
برخی می پرسند که آیا هوش مصنوعی باید به مقامات هشدار دهد، زمانی که درخواست ها به خصوص نگران کننده به نظر می رسد. در مثالهایم، اگر در مورد آسیب احتمالی به خود بیشتر صحبت میکردم، آیا هوش مصنوعی باید فوراً به کسی اطلاع دهد؟ این به دلایل زیادی مشکل ساز است. به چه کسی اطلاع داده می شود؟ من تا حدودی به طور ناشناس از هوش مصنوعی استفاده می کنم، به غیر از آدرس ایمیل وارد شده و نام (که همه آنها می توانند جعلی باشند). همچنین، تعداد هشدارهای نادرست احتمالی را تصور کنید، زیرا ممکن است فردی مانند من در حال بازی یا آزمایش با هوش مصنوعی باشد.
معمای دیگری که باید در نظر گرفته شود.
در نهایت، یکی دیگر از نکاتی که اغلب به آن اشاره میشود این است که شاید ما باید این نوع هوش مصنوعی را با متخصصان مراقبتهای روانی که به صورت مشترک کار میکنند، گروه کنیم. یک متخصص مراقبت های روانی می تواند با یک مشتری یا بیمار ملاقات کرده و با او تعامل داشته باشد و سپس آنها را تشویق کند که از یک برنامه هوش مصنوعی استفاده کنند که می تواند کمک بیشتری کند. برنامه هوش مصنوعی ممکن است از مشاور انسانی متمایز باشد یا ممکن است دارای ردیابی داخلی باشد که می تواند به مشاور انسانی ارائه شود. برنامه هوش مصنوعی 24×7 در دسترس است و مشاور انسانی به طور معمول توسط AI به همراه مشاور انسانی ملاقات رو در رو یا از راه دور با فرد در صورت نیاز و در صورت نیاز، مطلع می شود.
لحظه ای که این نوع جفت شدن هوش مصنوعی و ارائه دهنده خدمات انسانی به وجود می آید، برخی به این پیشنهاد هجوم می آورند و اعلام می کنند که این یک ترفند فاسد کثیف است. ابتدا مشاور انسانی و هوش مصنوعی را جفت می کنید. در مرحله بعد، استفاده از مشاور انسانی را کاهش می دهید و به شدت به هوش مصنوعی متمایل می شوید. در نهایت، شما مشاور انسانی را از دست می دهید و هوش مصنوعی تنها چیزی است که باقی می ماند. این یک عمل موذیانه است که در نهایت انسان ها را از این فرآیند حذف کنید و افراد را از کار اخراج کنید.
بله، در واقع، یکی از بزرگترین سوالات و اتهاماتی که توسط کارشناسان در رسانه های اجتماعی مطرح می شود این است که برنامه های هوش مصنوعی مانند این، متخصصان سلامت روان انسان را از بین می برند. ما برای انجام این نوع کار به انسان نیاز نخواهیم داشت. هوش مصنوعی همه کارها را انجام خواهد داد.
پاسخ مکرر و پرشور این است که انسان ها به انسان های دیگر نیاز دارند تا در مواجهه با مشکلات زندگی به آنها کمک کنند. مهم نیست که هوش مصنوعی چقدر خوب می شود، انسان ها همچنان هوس می کنند و به انسان های دیگر برای همدلی و مراقبتی که می توانند ارائه دهند، می خواهند. حس انسانیت انسان بر هر آنچه که هوش مصنوعی می تواند به دست آورد، بیشتر است.
با دقت گوش کنید و ممکن است کمی تمسخر و پاک کردن گلو بشنوید. برخی از محققان هوش مصنوعی ادعا میکنند که اگر همدلی میخواهید، میتوانیم هوش مصنوعی را برای انجام این کار برنامهریزی کنیم، یا میتوانیم از تطبیق الگو برای هوش مصنوعی برای ارائه همان ویژگیها از نظر ریاضی و محاسباتی استفاده کنیم. مشکلی نیست مشکل حل شد.
در حالی که شما در مورد آن معما فکر می کنید، ما بحث را با یک بازنگری کوتاه به پایان خواهیم رساند.
روانپزشک تحسین شده و بحث برانگیز توماس ساسز یک بار این را گفت: "مردم اغلب می گویند که این یا آن شخص هنوز خود را پیدا نکرده است. اما خود چیزی نیست که فرد پیدا کند. این چیزی است که فرد ایجاد می کند.»
شاید، در حالی که انسان ها در تلاش برای یافتن هسته های درونی مربوطه ما هستند، هوش مصنوعی به اندازه ای پیشرفت می کند که یک "خود" هوش مصنوعی نیز وجود داشته باشد. اگر فکرش را بکنید، شاید انسانها مجبور شوند توصیههای بهداشت روانی را برای هوش مصنوعی ارائه کنند.
تنها چیزی که می توانم بگویم این است که بهتر است در ازای انجام این کار، دقیقه یا نانوثانیه دستمزد دریافت کنیم.
منبع: https://www.forbes.com/sites/lanceeliot/2023/01/01/people-are-eagerly-consulting-generative-ai-chatgpt-for-mental-health-advice-stressing-out-ai- اخلاق-و-حقوق/