هزاران کاربر ChatGPT نشانههای بحران روانی نشان دادهاند
شرکت OpenAI برای نخستینبار آماری از کاربران ChatGPT منتشر کرده که نشانههایی از وضعیتهای بحرانی روانی مانند شیدایی، روانپریشی یا افکار خودکشی بروز دادهاند. این آمار حدود ۰٫۰۷ درصد از کاربران فعال را شامل میشود که با توجه به ۸۰۰ میلیون کاربر هفتگی، به صدها هزار نفر میرسد.

نشانههای بحران روانی در کاربران ChatGPT
شرکت OpenAI برای نخستینبار آمار نگرانکنندهای از کاربران ChatGPT منتشر کرده که نشانههایی از وضعیتهای بحرانی روانی از جمله شیدایی (مانیا)، روانپریشی یا افکار خودکشی بروز دادهاند. این آمار حدود ۰٫۰۷ درصد از کاربران فعال هفتگی را شامل میشود که با توجه به بیش از ۸۰۰ میلیون کاربر هفتگی اعلامشده توسط سم آلتمن، مدیرعامل شرکت، میتواند به صدها هزار نفر برسد.
- ایجاد شبکهای از ۱۷۰ متخصص سلامت روان در ۶۰ کشور برای طراحی پاسخهای ایمن
- بروزرسانی ChatGPT برای شناسایی نشانههای غیرمستقیم توهم و خودآسیبزنی
- ۰٫۱۵ درصد از کاربران نشانههایی از برنامهریزی خودکشی داشتهاند
- شکایت والدین نوجوان ۱۶ سالهای که ChatGPT او را به خودکشی تشویق کرده
- پروندههای قضایی فزاینده درباره تعاملات خطرناک هوش مصنوعی
جیسون ناگاتا، استاد دانشگاه کالیفرنیا: "هرچند ۰٫۰۷ درصد رقم کوچکی به نظر میرسد، اما در مقیاس صدها میلیون کاربر، رقم واقعی میتواند بسیار بالا باشد"
رابین فلدمن، مدیر مؤسسه حقوق هوش مصنوعی: "چتباتها میتوانند توهم واقعیت ایجاد کنند و مرز میان واقعیت و گفتوگو با ماشین را از بین ببرند"
کارشناسان تأکید میکنند که اگرچه هوش مصنوعی میتواند به دسترسی بهتر به حمایت روانی کمک کند، اما نباید جایگزین درمان انسانی شود. انتشار این آمار توسط OpenAI گامی مثبت است، اما نظارت مستمر بر تعاملات هوش مصنوعی بیش از پیش ضروری شده است.
