هوش مصنوعی اکنون بیشتر شبیه ما صحبت میکند – آیا باید نگران باشیم؟
پیشرفتهای هوش مصنوعی در تولید صوت جعلی میتواند به افزایش کلاهبرداری تلفنی منجر شود. تحقیقات نشان میدهد ۵۸ درصد از صداهای کلونشده هوش مصنوعی با صدای انسان اشتباه گرفته میشوند.

خطرات صوتهای جعلی هوش مصنوعی
پیشرفتهای هوش مصنوعی در تولید صوتهای دیپ فیک (جعل عمیق) باعث نگرانیهای جدی در زمینه امنیت سایبری شده است. تحقیقات جدید نشان میدهد که ۵۸ درصد از صداهای کلونشده هوش مصنوعی با صدای واقعی انسان اشتباه گرفته میشوند. این فناوری میتواند برای کلاهبرداری تلفنی و تولید اخبار جعلی مورد سوء استفاده قرار گیرد.
- کلاهبرداری در ایتالیا: تجار ثروتمند ایتالیایی با تماسهای تلفنی جعلی از سوی وزیر دفاع این کشور مواجه شدند
- تحقیقات دانشگاهی: مطالعه دانشگاه کوئین مری لندن نشان داد صداهای هوش مصنوعی حتی قابلاعتمادتر از صداهای انسان ارزیابی میشوند
- آمار نگرانکننده: تنها در نیمه اول سال ۲۰۲۵، بیش از ۵۴۷ میلیون دلار در سراسر جهان از طریق کلاهبرداری دیپ فیک از دست رفته است
- تهدیدات گسترده: از تولید محتوای مستهجن تا مواد سوء استفاده جنسی از کودکان
- تشخیص دشوار: تفکیک محتوای واقعی و جعلی روزبهروز پیچیدهتر میشود
“همه چیز واقعی به نظر میرسید. آنها خوب بودند. این میتواند برای anyone اتفاق بیفتد.” – ماسیمو موراتی، قربانی کلاهبرداری
“ترجیح میدهم واقعیت را public کنم تا کسی در دام نیفتد.” – گیدو کروستو، وزیر دفاع ایتالیا
با افزایش تولید دیپ فیکها از ۵۰۰۰۰۰ مورد در ۲۰۲۳ به ۸ میلیون مورد預測 شده در ۲۰۲۵، نیاز به راهکارهای تشخیص و مقابله با این تهدیدات بیش از پیش احساس میشود.
