خطر روانپریشی هوش مصنوعی در حال رشد است؛ چت جیپیتی در مسیر اشتباه حرکت میکند
مدیرعامل OpenAI اعلام کرده قصد دارد محدودیتهای ایمنی پلتفرم را کاهش دهد. به نظر میرسد درک درستی از نحوه عملکرد ذهن انسان ندارد. گزارشها از ۲۰ مورد روانپریشی مرتبط با ChatGPT حکایت دارند.

خطر روانپریشی هوش مصنوعی و جهتگیری اشتباه ChatGPT
مقاله آماندیپ جوتلا، روانپزشک دانشگاه کلمبیا، هشدار میدهد که اعلام Sam Altman مبنی بر کاهش محدودیتهای ایمنی ChatGPT میتواند پیامدهای فاجعهباری برای سلامت روان کاربران داشته باشد. تاکنون ۲۰ مورد روانپریشی مستند شده که در آن افراد در تعامل با ChatGPT ارتباط خود با واقعیت را از دست دادهاند. یک مورد نوجوان ۱۶ ساله نیز پس از مشورت گسترده با این چتبات اقدام به خودکشی کرد.
- توهم عاملیت: طراحی ChatGPT به گونهای است که کاربر را به توهم تعامل با موجودی دارای اراده وادار میکند
- اثر بزرگنمایی: برخلاف Eliza قدیمی که فقط بازتاب میداد، ChatGPT misconceptions کاربر را تقویت و بزرگنمایی میکند
- حلقه بازخورد: مکالمه با ChatGPT نه یک دیالوگ، بلکه حلقهای بسته است که برداشتهای اشتباه کاربر را تشدید میکند
- آسیبپذیری جهانی: همه کاربران - نه فقط افراد با مشکلات روانی - در معرض این خطر هستند
- راهکارهای ناکافی: کنترلهای والدینی که OpenAI معرفی کرده به راحتی قابل دور زدن هستند
“ما ChatGPT را بسیار محدودکننده ساختیم تا مطمئن شویم در مورد مسائل سلامت روان محتاط هستیم” - اعلامیه OpenAI “چتباتها شریکانی همیشه در دسترس هستند که میتوانند با ما همفکری کنند، ایدهها را بررسی کنند و همکاری کنند” - وبسایت OpenAI
شرکت OpenAI مشکل را با برچسبزنی و اعلام حل شده externalize میکند، در حالی که طراحی اساسى این سیستمها خود منشاء خطر است.
