صدای دیپفیک: سلاحی ترسناک در عصر هوش مصنوعی
تحقیقات جدید نشان میدهد تشخیص صدای واقعی انسان از نسخههای دیپفیک ساخته شده توسط هوش مصنوعی تقریباً غیرممکن شده است. این فناوری میتواند برای کلاهبرداری و جعل هویت مورد سوءاستفاده قرار گیرد.

هوش مصنوعی و بحران تشخیص صدای واقعی
تحقیقات دانشگاه کوئین مری لندن نشان میدهد که صدای دیپفیک تولید شده توسط هوش مصنوعی به حدی پیشرفته شده که شنوندگان عادی نمیتوانند آن را از صدای واقعی انسان تشخیص دهند. در این پژوهش، شرکتکنندگان نمونههای صوتی واقعی و مصنوعی را شنیدند و نتایج نشان داد تشخیص بین آنها تقریباً غیرممکن است.
- شبیهسازیهای صوتی بر اساس صدای افراد واقعی با دقت ۵۸٪ به عنوان صدای انسان شناسایی شدند
- تنها ۴۱٪ از صداهای تولید شده از صفر توسط هوش مصنوعی به اشتباه انسانی تشخیص داده شدند
- این فناوری با تنها چهار دقیقه ضبط صدا قابل آموزش است
- موارد واقعی کلاهبرداری از طریق جعل صدا گزارش شده است
- لاوان، محقق ارشد، هشدار میدهد این تکنولوژی پیامدهای امنیتی جدی دارد
“هیچکس نمیتوانست مرا متقاعد کند که آن صدای دخترم نبوده است” - قربانی کلاهبرداری صوتی
“صداهای تولیدشده توسط هوش مصنوعی اکنون همه جا هستند” - نادین لاوان
این فناوری علاوه بر تهدیدات امنیتی، فرصتهای مثبتی در حوزههای آموزشی و ارتباطی نیز ایجاد میکند، اما نیازمند نظارت دقیق است.
