«Порнография бедности» от ИИ — благотворительные агентства начали использовать фейковые изображения - Такое кино
 

«Порнография бедности» от ИИ — благотворительные агентства начали использовать фейковые изображения

20.10.2025, 12:12, Общество
Теги: ,

Снимки самых уязвимых и бедных людей всё чаще появляются в кампаниях в социальных сетях. Причина — проблемы с получением согласия и стремление сэкономить.

Сгенерированные ИИ изображения крайней нищеты, детей и жертв сексуального насилия наводняют фотостоки и всё чаще используются ведущими гуманитарными НКО. Специалисты в области глобального здравоохранения бьют тревогу, говоря о наступлении новой эры «порнографии бедности».

— Это используется повсеместно, — говорит Ноа Арнольд из швейцарской организации Fairpicture, которая продвигает этичные стандарты в освещении глобального развития. — Некоторые активно используют ИИ-изображения, а другие, как нам известно, как минимум экспериментируют с ними.

Арсений Аленичев, исследователь из Института тропической медицины в Антверпене, изучающий создание изображений в сфере глобального здравоохранения, отмечает:

— Эти снимки копируют визуальный язык нищеты — дети с пустыми тарелками, растрескавшаяся земля, стереотипные образы.

Аленичев собрал более 100 сгенерированных ИИ изображений крайней нищеты, которые использовались частными лицами или НКО в рамках кампаний в социальных сетях против голода или сексуального насилия. Снимки, которыми он поделился с The Guardian, демонстрируют утрированные, укрепляющие стереотипы сцены: дети, сбившиеся в кучу в грязной воде; африканская девочка в свадебном платье со слезой на щеке. В своей колонке, опубликованной в четверг в журнале Lancet Global Health, он утверждает, что такие изображения представляют собой «порнографию бедности 2.0».

Хотя оценить распространённость таких изображений сложно, Аленичев и другие эксперты утверждают, что их использование растёт. Это обусловлено проблемами с получением согласия и стоимостью. По словам Арнольда, сокращение американского финансирования бюджетов НКО лишь усугубило ситуацию.

— Совершенно очевидно, что различные организации начинают рассматривать синтетические изображения как альтернативу реальным фотографиям, потому что это дёшево, и не нужно беспокоиться о согласии и прочих формальностях, — говорит Аленичев.

Сгенерированные ИИ изображения крайней нищеты теперь десятками появляются на популярных фотостоках, включая Adobe Stock Photos и Freepik, по таким запросам, как «бедность». Многие из них имеют подписи вроде «Фотореалистичный ребёнок в лагере беженцев», «Азиатские дети плавают в реке, полной отходов» и «Белый волонтёр-европеоид проводит медицинскую консультацию для маленьких чернокожих детей в африканской деревне». Adobe продаёт лицензии на два последних фото из этого списка примерно за 60 фунтов стерлингов.

— Они настолько пронизаны расовыми стереотипами. Такое вообще нельзя было публиковать, потому что это худшие стереотипы об Африке, Индии, да о ком угодно, — говорит Аленичев.

Хоакин Абела, генеральный директор Freepik, заявил, что ответственность за использование таких крайних изображений лежит на потребителях контента, а не на платформах, подобных его. По его словам, ИИ-фотографии на стоках генерируются мировым сообществом пользователей платформы, которые могут получать лицензионные отчисления, когда клиенты Freepik решают купить их изображения.

Он добавил, что Freepik пытался бороться с предвзятостью, обнаруженной в других разделах своей фотобиблиотеки, «добавляя разнообразия» и стараясь обеспечить гендерный баланс на фотографиях юристов и руководителей компаний, размещённых на сайте.

Но, по его словам, возможности его платформы ограничены. «Это как пытаться высушить океан. Мы прилагаем усилия, но в реальности, если клиенты по всему миру хотят видеть именно такие изображения, то с этим абсолютно ничего нельзя поделать».

В прошлом ведущие благотворительные организации уже использовали сгенерированные ИИ изображения в своих коммуникационных стратегиях. В 2023 году голландское отделение британской благотворительной организации Plan International выпустило видеокампанию против детских браков, содержащую сгенерированные ИИ изображения девочки с синяком под глазом, пожилого мужчины и беременного подростка.

В прошлом году ООН опубликовала на YouTube видео с ИИ-«реконструкциями» сексуального насилия в условиях конфликта, которое включало сгенерированные ИИ показания бурундийской женщины, описывающей, как в 1993 году во время гражданской войны в стране её изнасиловали трое мужчин и оставили умирать. Видео было удалено после того, как The Guardian обратился в ООН за комментарием.

Тогда представитель миротворческих сил ООН заявил:

— Данное видео, созданное более года назад с использованием быстро развивающегося инструмента, было удалено, так как мы считаем, что оно демонстрирует ненадлежащее использование ИИ и может создавать риски для целостности информации, смешивая реальные кадры с почти реалистичным, искусственно сгенерированным контентом.

Организация Объединённых Наций остаётся непоколебимой в своей приверженности поддержке жертв сексуального насилия в условиях конфликта, в том числе посредством инноваций и творческой правозащитной деятельности.

Арнольд отметил, что рост использования этих ИИ-изображений происходит после многолетних дебатов в секторе об этичности изображений и уважительном повествовании о бедности и насилии:

— Предполагается, что проще взять готовые ИИ-изображения, для которых не нужно согласие, потому что это не настоящие люди.

Кейт Кардол, консультант по коммуникациям для НКО, сказала, что эти изображения её пугают и напоминают о прошлых дебатах об использовании «порнографии бедности» в секторе.

— Меня огорчает, что борьба за более этичное изображение людей, живущих в нищете, теперь распространяется и на вымышленных, — сказала она.

Уже давно известно, что генеративные ИИ-инструменты воспроизводят, а порой и усугубляют, общие социальные предрассудки. Распространение предвзятых изображений в сфере глобального здравоохранения может усугубить проблему, считает Аленичев, потому что эти изображения могут просочиться в более широкий интернет и быть использованы для обучения следующего поколения ИИ-моделей — процесс, который, как было доказано, усиливает предрассудки.

Представитель Plan International заявил, что с этого года НКО «приняла руководство, не рекомендующее использовать ИИ для изображения отдельных детей», и сказал, что в кампании 2023 года сгенерированные изображения использовались для защиты «частной жизни и достоинства реальных девочек».

Компания Adobe от комментариев отказалась.


Смотреть комментарии → Комментариев нет


Добавить комментарий

Имя обязательно

Нажимая на кнопку "Отправить", я соглашаюсь c политикой обработки персональных данных. Комментарий c активными интернет-ссылками (http / www) автоматически помечается как spam

Политика конфиденциальности - GDPR

Карта сайта →

По вопросам информационного сотрудничества, размещения рекламы и публикации объявлений пишите на адрес: [email protected]

Поддержать проект:

PayPal - [email protected]; Payeer: P1124519143; WebMoney – Z399334682366, E296477880853, X100503068090

18+ © 2025 Такое кино: Самое интересное о культуре, технологиях, бизнесе и политике