گول صداهای آشنا را نخورید: هوش مصنوعی با تقلید صدا حسابتان را خالی میکند
تحقیقات نشان میدهد مردم نمیتوانند تفاوت بین صدای واقعی انسان و دیپفیک هوش مصنوعی را تشخیص دهند. این فناوری میتواند برای کلاهبرداری و جعل هویت استفاده شود.

هوش مصنوعی و خطرات تقلید صدا
تحقیقات جدید نشان میدهد که هوش مصنوعی به نقطهای رسیده است که مردم نمیتوانند تفاوت بین صدای واقعی انسان و دیپفیک صوتی را تشخیص دهند. پژوهش دانشگاه کوئین مری لندن نشان داد شرکتکنندگان تنها ۴۱٪ از صداهای تولیدشده از صفر را بهدرستی شناسایی کردند، اما در مورد شبیهسازیهای مبتنی بر صدای واقعی، ۵۸٪ از صداهای هوش مصنوعی بهاشتباه انسان تشخیص داده شدند.
- شبیهسازی صوتی با تنها ۴ دقیقه ضبط صوت امکانپذیر است
- کلاهبرداران از این فناوری برای فریب افراد استفاده میکنند
- نمونههایی مانند فریب مادر آمریکایی با پرداخت ۱۵,۰۰۰ دلار
- جعل صدای سیاستمداران برای اهداف تبلیغاتی
- نیاز فوری به افزایش امنیت سیستمهای احراز هویت
نادین لاوان: “صداهای تولیدشده توسط هوش مصنوعی اکنون همه جا هستند و تشخیص آنها از انسان واقعی دشوار شده است.”
یکی از قربانیان: “هیچکس نمیتوانست مرا متقاعد کند که آن صدای دخترم نبوده است.”
این فناوری علاوه بر تهدیدات امنیتی، فرصتهای مثبتی در زمینه دسترسی و آموزش نیز ایجاد میکند.
