بریان کرانستون و SAG-AFTRA میگویند OpenAI نگرانیهای دیپفیک آنها را جدی گرفته است
بازیگران، استودیوها، اتحادیه بازیگران و OpenAI بیانیه مشترکی صادر کردهاند که OpenAI پس از ظهور ویدیوهای جعلی بریان کرانستون در سورا 2، "محافظتها را تقویت کرده" و به سیاست انتخاب صریح برای شبیهسازی متعهد شده است.

نگرانیهای دیپفیک بازیگران و پاسخ OpenAI
اتحادیه بازیگران آمریکا (SAG-AFTRA) و بازیگرانی مانند بریان کرانستون از ظهور ویدیوهای جعلی تولید شده توسط هوش مصنوعی در اپلیکیشن Sora 2 شرکت OpenAI ابراز نگرانی کردهاند. بریان کرانستون، بازیگر سریال Breaking Bad، هرگز اجازه صریحی برای استفاده از تصویرش در این پلتفرم نداده بود، با این حال ویدیوهایی از او - از جمله یک سلفی با مایکل جکسون - در سورا ظاهر شد.
اقدامات OpenAI
- تقویت "محافظتها" در سیاست انتخاب صریح (opt-in) برای شبیهسازی چهره و صدا
- ابراز تاسف OpenAI برای تولیدات "ناخواسته"
- تعهد به بررسی "سریع" شکایتهای مربوط به نقض سیاست
شان آستین، رئیس SAG-AFTRA: "بازیگران به قانونی برای محافظت در برابر مصادره گسترده توسط فناوریهای شبیهسازی نیاز دارند." OpenAI: "همه هنرمندان و افراد حق خواهند داشت تعیین کنند که چگونه و آیا میتوانند شبیهسازی شوند."
کرانستون از OpenAI برای بهبود سیاستهایش ابراز gratitude کرد، اما نیاز به قانونی مانند لایحه پیشنهادی NO FAKES Act برای محافظت اساسیتر از هنرمندان همچنان احساس میشود.
