استفاده از تصاویر جعلی تولیدشده توسط هوش مصنوعی از فقر توسط آژانسهای کمکرسانی
تصاویر تولیدشده توسط هوش مصنوعی از فقر شدید، کودکان و بازماندگان خشونت جنسی در حال استفاده توسط سازمانهای غیردولتی هستند که نگرانی درباره «پورنوگرافی فقر» جدید را افزایش داده است.

استفاده از تصاویر جعلی هوش مصنوعی از فقر
سازمانهای کمکرسانی بینالمللی در حال استفاده از تصاویر تولیدشده توسط هوش مصنوعی از فقر شدید، کودکان و بازماندگان خشونت جنسی در کمپینهای رسانهای خود هستند. این تصاویر که به عنوان "پورنوگرافی فقر ۲.۰" توصیف شدهاند، بر اساس کلیشههای رایج درباره فقر در آفریقا و آسیا تولید میشوند. محققان بیش از ۱۰۰ تصویر جعلی را شناسایی کردهاند که در سایتهای استockphoto با قیمت حدود ۶۰ پوند به فروش میرسند.
- کاهش بودجه سازمانهای غیردولتی آمریکایی دلیل اصلی گرایش به تصاویر ارزان هوش مصنوعی
- نگرانی درباره رضایت و حریم خصوصی افراد واقعی در تصویربرداری
- استفاده سازمانهایی مانند Plan International و سازمان ملل از تصاویر جعلی
- تکثیر و تشدید کلیشههای نژادی توسط هوش مصنوعی
- حذف برخی ویدیوها پس از انتقادات عمومی
نوح آرنولد از Fairpicture میگوید: "مشخص است که سازمانها به جای عکسهای واقعی از تصاویر مصنوعی استفاده میکنند چون ارزانتر است و نیازی به رضایت نیست."
آرسنی آلنیچف محقق میگوید: "این تصاویر دستور زبان بصری فقر را تکرار میکنند - کودکان با بشقابهای خالی، زمینهای ترک خورده، تصاویر کلیشهای."
این پدیده پس از سالها بحث درباره تصویربرداری اخلاقی از فقر ظهور کرده و نگرانیهایی درباره تقویت پیشداوریها در نسل بعدی مدلهای هوش مصنوعی ایجاد کرده است.
