Секс, Трамп и нейросети: как девушки в форме стали главным оружием политической пропаганды - Такое кино
 

Секс, Трамп и нейросети: как девушки в форме стали главным оружием политической пропаганды

29.03.2026, 4:04, Общество
Теги: , , ,

«Они кажутся настоящими»: влияние политических дипфейков растет — даже если люди знают, что это вымысел

По словам исследователей, сгенерированные ИИ изображения людей (например, женщин в военной форме) приносят деньги и служат мощным инструментом пропаганды.

Создатели контента в интернете больше не ограничиваются лишь подделкой фото и видео с известными публичными личностями. По словам исследователей искусственного интеллекта, они фабрикуют несуществующих людей и помещают их в военный или политический контекст, что позволяет им зарабатывать деньги и использовать эти образы в качестве эффективной пропаганды.

Эксперты отмечают, что некоторые из таких онлайн-аватаров представляют собой сексуализированные образы женщин в камуфляже. Они собирают огромную аудиторию и помогают формировать идеализированный образ таких политиков, как Дональд Трамп — притом что зрители прекрасно осознают: контент нереален.

— Мы стираем границы между политической карикатурой и реальностью, — говорит Дэниел Шифф, доцент кафедры технологической политики Университета Пердью и содиректор Лаборатории управления и ответственного ИИ (Grail). — Многим людям кажется, что эти изображения, видео или истории, которые они транслируют, — чистая правда.

Согласно базе данных Grail, количество политических дипфейков за последние годы резко возросло. Только с начала 2025 года организация зафиксировала более 1000 англоязычных постов в соцсетях, содержащих фейковые фото или видео с известными политиками или освещающих важные социальные проблемы. Для сравнения: за предыдущие восемь лет вместе взятые организация зарегистрировала всего 1344 подобных инцидента.

По словам Шиффа, этот всплеск во многом связан с совершенствованием технологий генеративного ИИ, которые позволили людям штамповать такой контент за считанные минуты. Мы дошли до того, что стало «банально просто сгенерировать весьма реалистичную сцену и поместить в нее настоящих людей», добавляет Сэм Грегори, исполнительный директор Witness — организации, занимающейся защитой прав человека и борьбой с обманом с помощью ИИ.

Однако фейковые аватары, имитирующие обычных людей, а не известных личностей, — это совершенно другая история.

ИИ-женщины в форме, Трамп и… фотографии ступней?

Как сообщает издание Fast Company, в декабре 2025 года в Instagram* появился аккаунт некоей Джессики Фостер — сгенерированной нейросетью блондинки, часто позирующей в форме американской армии. В профиле начали публиковаться фото, где Фостер сидит на двухъярусной кровати в казарме, закидывает ноги на рабочий стол в офисном кресле или шагает по взлетной полосе на высоких каблуках бок о бок с Трампом.

Создатели намеренно обували ее в такую обувь и делали акцент на ее ступнях. Изображения Фостер (которой не существует в природе) привлекли более миллиона подписчиков в Instagram*. Затем посты начали вести на аккаунт в OnlyFans (платформе, популярной среди создателей порноконтента), где посетители могли купить фотографии ступней якобы от самой Фостер.

По данным Washington Post, один из пользователей даже искренне возмущался в комментариях: «Почему ты НИКОГДА не отвечаешь?». На днях этот аккаунт был удален.

— Значительная часть ИИ-генераций создается исключительно ради кликов и денег, либо для того, чтобы заманить людей на более прибыльные площадки, — объясняет Грегори.

Но такие инструменты могут служить и политическим целям. По данным BBC, во время войны в Иране соцсети наводнили видео со сгенерированными иранскими женщинами-солдатами, призывающими: «Хабиби, приезжай в Иран». Одним из главных проколов авторов фейка стало то, что в Иране женщинам законодательно запрещено участвовать в боевых действиях.

Креаторы также создали ИИ-образ женщины-полицейского, набравший более 26 000 подписчиков в TikTok. В одном из видео она улыбается на фоне текста: «Президент Трамп депортировал из страны более 2,5 миллионов человек. Вы за это голосовали? Да». Ролик собрал сотни лайков и комментариев в духе: «Абсолютно да».

Во время предвыборной кампании 2024 года Трамп и сам делился сгенерированными картинками, на которых фанаты Тейлор Свифт якобы выражали ему поддержку. По данным базы Grail, с 2024 года Трамп и Белый дом опубликовали в соцсетях как минимум 18 дипфейков.

Однако эта проблема не ограничивается правым политическим флангом. Губернатор Калифорнии Гэвин Ньюсом, которому многие прочат выдвижение в президенты в 2028 году, также начал публиковать дипфейки, направленные против Трампа (включая тот, где президент улыбается голограмме скандального финансиста Джеффри Эпштейна).

Исследователи ИИ подчеркивают: политические дипфейки остаются убедительными, даже если потребители знают, что они ненастоящие.

— Фостер ходит на высоких каблуках в военной форме, а ее армейский значок абсолютно не соответствует уставу. У нее нет ни единой причины тусоваться с президентом Трампом и Николасом Мадуро, — отмечает Грегори. — Если вдуматься, всё это не имеет никакого смысла и не выдерживает критики. Но люди не обязательно ищут то, что реально; они ищут то, что отражает их убеждения.

В результате из-за дипфейков вероятность того, что люди пересмотрят свои взгляды, стремится к нулю, считает Валери Виртшафтер, научный сотрудник инициативы по ИИ и новым технологиям Брукингского института.

— Дипфейки — это просто еще один слой в процессе укрепления, а не переосмысления того, что люди считают правдой, — говорит она.

«Это похоже на фабрику троллей»

Ученые опасаются, что ситуация будет только ухудшаться. Согласно недавнему исследованию в авторитетном журнале Science, технологии, использованные для создания Фостер, могут применяться для производства так называемых «ИИ-роев». Такие системы способны «автономно координироваться, проникать в сообщества и эффективно фабриковать общественное мнение».

— Это похоже на фабрику троллей, только теперь для этого больше не нужны живые люди, — резюмирует Виртшафтер.

Тем не менее, по мнению экспертов, человечество всё еще может помешать злоумышленникам использовать ИИ для дестабилизации общества. Коалиция за происхождение и подлинность контента (C2PA) разработала «технический стандарт для издателей, создателей и потребителей, позволяющий устанавливать происхождение и факт редактирования цифрового контента». Этот стандарт «встраивается в фотографию, сделанную на камеру, или в контент, созданный либо отредактированный с помощью ИИ, а затем распространяется на платформе в виде набора криптографически подписанных метаданных», поясняет Грегори.

По его словам, технологические компании должны использовать эту информацию для обязательной маркировки ИИ-контента. LinkedIn, Pinterest, TikTok и YouTube уже обязались это делать. Однако недавно журналист-расследователь издания Indicator опубликовал на этих платформах 200 ИИ-изображений и видео, чтобы проверить работу алгоритмов на практике. Оказалось, что даже самые добросовестные из них — LinkedIn и Pinterest — пометили лишь 67% контента; Instagram* отметил всего 15 из 105 фейковых изображений.

Недавно Надзорный совет Meta выразил обеспокоенность тем, что компания «непоследовательно внедряет» стандарты Коалиции, «даже в отношении контента, созданного с помощью ее собственных ИИ-инструментов, и лишь малая часть таких материалов получает надлежащую маркировку».

Грегори считает, что проблема непоследовательной маркировки кроется в «отсутствии политической воли на высших уровнях» крупных технологических корпораций.

— Нам не нужно отказываться от способности отличать реальное от синтетического, — подытоживает он. — Но нам необходимо действовать быстро.

Примечания:

  1. Ключевая идея — и, пожалуй, самая тревожная — заключается в том, что дипфейки не обязаны быть убедительными в классическом смысле. Они работают не потому, что обманывают, а потому, что подтверждают. Это перекликается с концепцией «предвзятости подтверждения» (confirmation bias) в когнитивной психологии: люди склонны принимать информацию, соответствующую их существующим убеждениям, и отвергать противоречащую — вне зависимости от её достоверности. Дипфейки эксплуатируют этот механизм с беспрецедентной эффективностью.
  2. C2PA (Coalition for Content Provenance and Authenticity) — альянс, основанный в 2021 году компаниями Adobe, Arm, Intel, Microsoft и Truepic. Стандарт C2PA встраивает в файл «сертификат подлинности» — цепочку метаданных, фиксирующих, когда, где и как был создан или изменён контент. Его можно сравнить с цифровой «печатью нотариуса». Проблема, как показывает статья, — в применении: стандарт существует, но платформы внедряют его крайне неравномерно.
  3. «ИИ-рои» (AI swarms) — концепция, описанная в исследовании Science, представляет собой следующий эволюционный шаг за «тролль-фермами». Если традиционные тролль-фермы (вроде петербургского «Агентства интернет-исследований», известного вмешательством в выборы в США в 2016 году) требовали живых операторов, ИИ-рои способны действовать автономно: создавать аккаунты, генерировать контент, вступать в дискуссии, имитировать органический консенсус — всё без участия человека.
  4. Случай с Джессикой Фостер особенно показателен: аккаунт не просто распространял пропаганду — он одновременно монетизировался через OnlyFans. Это создаёт экономический стимул для массового производства подобных аватаров, превращая политическую дезинформацию в самоокупающийся (или даже прибыльный) бизнес.
  5. Статистика маркировки (Instagram* — 14% обнаружения) наглядно демонстрирует разрыв между декларируемыми обязательствами платформ и реальностью. Для русскоязычного контекста стоит отметить, что российские платформы (VK, «Одноклассники», Telegram) вообще не участвуют в инициативах по маркировке ИИ-контента, что делает русскоязычное информационное пространство ещё более уязвимым.
  6. «Хабиби, приезжай в Иран» — пример информационной войны нового типа, в которой ИИ-сгенерированные привлекательные женщины используются как инструмент «мягкой силы». Подобная тактика перекликается с давней практикой создания фальшивых профилей привлекательных женщин для шпионажа и социальной инженерии (так называемые «медовые ловушки»), но масштабирует её до уровня, недостижимого для операций с живыми людьми.

*Instagram принадлежит компании Meta, признанной экстремистской организацией и запрещенной в РФ.


Смотреть комментарии → Комментариев нет


Добавить комментарий

Имя обязательно

Нажимая на кнопку "Отправить", я соглашаюсь c политикой обработки персональных данных. Комментарий c активными интернет-ссылками (http / www) автоматически помечается как spam

Политика конфиденциальности - GDPR

Карта сайта →

По вопросам информационного сотрудничества, размещения рекламы и публикации объявлений пишите на адрес: rybinskonline@gmail.com

Поддержать проект:

PayPal – paypal.me/takoekino
WebMoney – Z399334682366, E296477880853, X100503068090

18+ © Такое кино: Самое интересное о культуре, технологиях, бизнесе и политике