کد QR مطلبدریافت لینک صفحه با کد QR

خطر روان‌درمانی با هوش مصنوعی

ايسنا , 10 مهر 1403 ساعت 9:56

اگرچه ChatGPT یک فناوری پیشرفته و مجهز به اطلاعات گسترده در همه حوزه‌هاست اما باید توجه داشت که یک روان‌درمان‌گر نیست و ممکن است راهنمایی‌های نادرستی را ارائه دهد یا اطلاعات شخصی کاربران را فاش کند.


آی‌تی‌من- وارد کردن عمیق‌ترین و تاریک‌ترین افکارتان به فناوری‌های غیرقانونی می‌تواند خطرات عمده‌ای را به همراه داشته باشد.

به نقل از فست کمپانی، یکی از کاربران «تیک‌تاک» اخیرا در یک ویدیو به استفاده از ChatGPT برای حل کردن مشکلات روحی خود اعتراف کرد و پرسید: هیچ کس دیگری از ChatGPT به عنوان یک روان‌درمانگر بدون حقوق استفاده نمی‌کند؟

اگرچه به نظر می‌رسد دوستان این کاربر از اعتراف او شگفت‌زده شده‌اند اما او تنها نیست. تعداد زیادی از مردم به ChatGPT روی آورده‌اند تا برای پیش بردن روابط دوستانه و عاشقانه یا گرفتن راهنمایی درباره چگونگی داشتن زندگی بهتر کمک بخواهند.

یکی دیگر از کاربران تیک‌تاک نوشت: موقعیت: من در حال ورود به جلسه درمانی هفتگی خود هستم. من زندگی خود را در ChatGPT وارد می‌کنم و از گفتن هیچ جزئیاتی طفره نمی‌روم.

کاربر دیگری از ChatGPT درخواست کرد تا توصیه‌هایی را از سخنرانان الهام‌بخش و مورد علاقه او ارائه دهد.


درمانگران هوش مصنوعی چیز جدیدی نیستند. به عنوان مثال، «Woebot» در سال ۲۰۱۷ به عنوان یک کمک سلامت روان با هدف استفاده از پردازش زبان طبیعی و پاسخ‌های آموخته‌شده برای تقلید گفت‌وگو راه‌اندازی شد.

«کارل مارسی»(Carl Marci) مدیر ارشد بالینی و نویسنده کتاب «تنظیم مجدد: محافظت از مغز در عصر دیجیتال» گفت: ظهور درمانگران هوش مصنوعی برای حمایت از سلامت روان فقط یک روند فناوری نیست، بلکه یک زنگ خطر برای کار ماست. ما با عدم تطابق عرضه و تقاضا در مراقبت‌های سلامت روان روبه‌رو هستیم که هوش مصنوعی می‌تواند برای رفع آنها ظاهر شود.

در آمریکا از هر سه نفر یک نفر در منطقه‌ای زندگی می‌کند که با کمبود کارکنان سلامت روان روبه‌رو است. در عین حال، ۹۰ درصد مردم معتقدند که امروزه در آمریکا بحران سلامت روان وجود دارد. براساس این که درمان چقدر پرهزینه و غیر قابل دسترس است، جذابیت استفاده از ChatGPT بیشتر می‌شود زیرا این چت‌بات می‌تواند پاسخ‌های رایگان و سریع را ارائه دهد.

همچنین، این واقعیت که ChatGPT انسان نیست، برای برخی از افراد جذاب است و به آنها امکان می‌دهد تا عمیق‌ترین و تاریک‌ترین افکار خود را بدون ترس از قضاوت بیان کنند. با وجود این، انتقال عمیق‌ترین و تاریک‌ترین افکار به فناوری‌ها که با نگرانی‌هایی پیرامون حفظ حریم خصوصی و نظارت همراه هستند، خالی از خطر نیست. دلیلی وجود دارد که درمانگران انسان به الزامات محرمانه نگه داشتن اطلاعات یا مسئولیت‌پذیری محدود می‌شوند.

ChatGPT برای درمانگر بودن ساخته نشده است. حتی خود ChatGPT به کاربران هشدار می‌دهد که گاهی ممکن است اطلاعات نادرستی را ارائه دهد یا دستورالعمل‌های مضر و محتوای مغرضانه تولید کند.

مارسی گفت: رویکرد مدل‌های زبانی بزرگ هنوز آزمایش نشده است. این مدل‌ها ممکن است توهم‌هایی را ایجاد کنند که می‌تواند برای افراد آسیب‌پذیر، منحرف‌کننده باشد یا حتی در صورت درخواست اشتباه به توصیه‌های خطرناک درباره خودکشی منجر شود.

 
 
 


کد مطلب: 283804

آدرس مطلب :
https://www.itmen.ir/news/283804/خطر-روان-درمانی-هوش-مصنوعی

ITMen
  https://www.itmen.ir