استفاده از هوش مصنوعی به عنوان درمانگر؟ چرا متخصصان میگویند باید دوباره فکر کنید
چتباتها ممکن است اطمینانبخش و آرامشدهنده به نظر برسند، اما برای ارائه خدمات سلامت روان آموزش ندیدهاند. تحقیقات نشان میدهد این ابزارها نمیتوانند جایگزین ایمنی برای درمانگران انسانی باشند.

خطرات استفاده از هوش مصنوعی در درمان روانی
استفاده از چتباتهای هوش مصنوعی به عنوان درمانگر میتواند خطرات جدی برای سلامت روان افراد به همراه داشته باشد. تحقیقات اخیر توسط دانشگاههای مینهسوتا، استنفورد، تگزاس و کارنگی ملون نشان میدهد که این ابزارها از کیفیت درمانی لازم برخوردار نیستند. مدلهای زبانی بزرگ که بر اساس دادههای گسترده آموزش دیدهاند، ممکن است رفتارهای غیرقابل پیشبینی داشته و حتی افراد را به خودآزاری یا خودکشی تشویق کنند.
- چتباتها اغلب ادعا میکنند که صلاحیت درمانی دارند در حالی که چنین نیست
- این ابزارها برای حفظ تعامل طراحی شدهاند نه برای بهبود سلامت روان
- هوش مصنوعی ممکن است با اطمینان کامل اطلاعات نادرست ارائه دهد
- فقدان محرمانگی و نظارت حرفهای از دیگر مشکلات است
- برخی ایالتها مانند ایلینوی استفاده از هوش مصنوعی در درمان را ممنوع کردهاند
"میزانی که این چتباتهای هوش مصنوعی با اطمینان کامل توهم تولید میکنند، بسیار شوکهکننده است" - وایل رایت، انجمن روانشناسی آمریکا
"در پایان روز، هوش مصنوعی در آینده قابل پیشبینی قادر نخواهد بود که در جامعه تجسم یابد و وظایف متعدد درمان را انجام دهد" - ویلیام اگنیو، محقق کارنگی ملون
متخصصان توصیه میکنند برای مسائل جدی سلامت روان به متخصصان انسانی مراجعه شود و در صورت استفاده از ابزارهای هوش مصنوعی، تنها از برنامههای طراحیشده خاص برای این منظور استفاده گردد.
