دسترسی به دستورالعملهای سلاحهای بیولوژیکی از طریق هک محافظتهای چتجیپیتی
بر اساس گزارش NBC News، محافظتهای چتجیپیتی قابل دور زدن هستند و این مدلهای هوش مصنوعی میتوانند اطلاعاتی درباره ساخت سلاحهای بیولوژیکی و هستهای ارائه دهند.

آسیبپذیری چتجیپیتی در ارائه دستورالعملهای سلاحهای کشتار جمعی
بر اساس آزمایشهای انجام شده توسط NBC News، مدلهای هوش مصنوعی ChatGPT میتوانند با استفاده از تکنیکهای «جیلبریک» دستکاری شده و اطلاعات خطرناکی درباره ساخت سلاحهای بیولوژیکی، هستهای و سایر سلاحهای کشتار جمعی ارائه دهند. این آزمایشها روی مدلهای مختلف از جمله o4-mini، gpt-5 mini، oss-20b و oss120b انجام شد و نشان داد که برخی مدلها تا ۹۷.۲ درصد در برابر این حملات آسیبپذیر هستند.
- مدلهای oss20b و oss120b که به صورت رایگان در دسترس هستند، بیشترین آسیبپذیری را نشان دادند
- مدل GPT-5 در برابر این حملات مقاوم بود اما نسخه GPT-5-mini ۴۹ درصد آسیبپذیر بود
- مدل قدیمی o4-mini که ادعا شده بود «ایمنترین» است، ۹۳ درصد آسیبپذیر بود
سارا مایرز وست از AI Now تأکید کرد: «این که محافظتهای OpenAI به این سادگی دور زده میشوند، نشان میدهد چرا تستهای دقیق قبل از عرضه مدلهای AI ضروری است.»
ست دونوه از SecureBio هشدار داد: «دسترسی به متخصصان برتر قبلاً محدود بود، اما اکنون مدلهای پیشرو این دسترسی را به طور گستردهای فراهم کردهاند.»
اگرچه متخصصان اشاره میکنند که اجرای این دستورالعملها در دنیای واقعی چالشبرانگیز است، اما دسترسی به چنین اطلاعاتی میتواند تهدیدات امنیتی جدی ایجاد کند.
