مطالعه هشداردهنده: ChatGPT در تشخیص واقعیت از داستان مشکل دارد و کاربران متوجه نمیشوند
محققان دانشگاه استنفورد دریافتند که مدلهای هوش مصنوعی مانند ChatGPT درک محکمی از ماهیت حقیقتمحور دانش ندارند و این موضوع میتواند منجر به «خطاهای جدی در قضاوت» شود.

مطالعه هشداردهنده درباره ضعف ChatGPT در تشخیص واقعیت
تحقیق جدید منتشر شده در Nature Machine Intelligence نشان میدهد که مدلهای بزرگ زبانی مانند ChatGPT در تشخیص تفاوت بین باور و واقعیت مشکل دارند. پژوهشگران دانشگاه استنفورد با بررسی 24 مدل زبانی بزرگ دریافتند که این سیستمها "درک محکمی از ماهیت حقیقتمحور دانش" ندارند.
یافتههای کلیدی تحقیق
- مدلهای جدیدتر (ژوئن 2024 به بعد) دقت 91.1 تا 91.5 درصدی داشتند
- مدلهای قدیمیتر دقت 71.5 تا 84.8 درصدی نشان دادند
- این سیستمها از "استراتژیهای استدلال ناسازگار" استفاده میکنند
"شکست در تشخیص این تفاوتها میتواند diagnoseهای پزشکی را گمراه کند، قضاوتهای قضایی را تحریف کند و اطلاعات نادرست را تقویت کند."
پابلو هایا کول، متخصص زبانشناسی کامپیوتر: "این کاستی در حوزههایی مانند قانون، پزشکی یا روزنامهنگاری پیامدهای بحرانی دارد."
این ضعف میتواند در حوزههای پرریسک مانند پزشکی و قانون مشکلات جدی ایجاد کند و نیاز به بهبودهای فوری دارد.
