Секс, Трамп и нейросети: как девушки в форме стали главным оружием политической пропаганды
«Они кажутся настоящими»: влияние политических дипфейков растет — даже если люди знают, что это вымысел
По словам исследователей, сгенерированные ИИ изображения людей (например, женщин в военной форме) приносят деньги и служат мощным инструментом пропаганды.
Создатели контента в интернете больше не ограничиваются лишь подделкой фото и видео с известными публичными личностями. По словам исследователей искусственного интеллекта, они фабрикуют несуществующих людей и помещают их в военный или политический контекст, что позволяет им зарабатывать деньги и использовать эти образы в качестве эффективной пропаганды.
Эксперты отмечают, что некоторые из таких онлайн-аватаров представляют собой сексуализированные образы женщин в камуфляже. Они собирают огромную аудиторию и помогают формировать идеализированный образ таких политиков, как Дональд Трамп — притом что зрители прекрасно осознают: контент нереален.
— Мы стираем границы между политической карикатурой и реальностью, — говорит Дэниел Шифф, доцент кафедры технологической политики Университета Пердью и содиректор Лаборатории управления и ответственного ИИ (Grail). — Многим людям кажется, что эти изображения, видео или истории, которые они транслируют, — чистая правда.
Согласно базе данных Grail, количество политических дипфейков за последние годы резко возросло. Только с начала 2025 года организация зафиксировала более 1000 англоязычных постов в соцсетях, содержащих фейковые фото или видео с известными политиками или освещающих важные социальные проблемы. Для сравнения: за предыдущие восемь лет вместе взятые организация зарегистрировала всего 1344 подобных инцидента.
По словам Шиффа, этот всплеск во многом связан с совершенствованием технологий генеративного ИИ, которые позволили людям штамповать такой контент за считанные минуты. Мы дошли до того, что стало «банально просто сгенерировать весьма реалистичную сцену и поместить в нее настоящих людей», добавляет Сэм Грегори, исполнительный директор Witness — организации, занимающейся защитой прав человека и борьбой с обманом с помощью ИИ.
Однако фейковые аватары, имитирующие обычных людей, а не известных личностей, — это совершенно другая история.
ИИ-женщины в форме, Трамп и… фотографии ступней?
Как сообщает издание Fast Company, в декабре 2025 года в Instagram* появился аккаунт некоей Джессики Фостер — сгенерированной нейросетью блондинки, часто позирующей в форме американской армии. В профиле начали публиковаться фото, где Фостер сидит на двухъярусной кровати в казарме, закидывает ноги на рабочий стол в офисном кресле или шагает по взлетной полосе на высоких каблуках бок о бок с Трампом.
Создатели намеренно обували ее в такую обувь и делали акцент на ее ступнях. Изображения Фостер (которой не существует в природе) привлекли более миллиона подписчиков в Instagram*. Затем посты начали вести на аккаунт в OnlyFans (платформе, популярной среди создателей порноконтента), где посетители могли купить фотографии ступней якобы от самой Фостер.
По данным Washington Post, один из пользователей даже искренне возмущался в комментариях: «Почему ты НИКОГДА не отвечаешь?». На днях этот аккаунт был удален.
— Значительная часть ИИ-генераций создается исключительно ради кликов и денег, либо для того, чтобы заманить людей на более прибыльные площадки, — объясняет Грегори.
Но такие инструменты могут служить и политическим целям. По данным BBC, во время войны в Иране соцсети наводнили видео со сгенерированными иранскими женщинами-солдатами, призывающими: «Хабиби, приезжай в Иран». Одним из главных проколов авторов фейка стало то, что в Иране женщинам законодательно запрещено участвовать в боевых действиях.
Креаторы также создали ИИ-образ женщины-полицейского, набравший более 26 000 подписчиков в TikTok. В одном из видео она улыбается на фоне текста: «Президент Трамп депортировал из страны более 2,5 миллионов человек. Вы за это голосовали? Да». Ролик собрал сотни лайков и комментариев в духе: «Абсолютно да».
Во время предвыборной кампании 2024 года Трамп и сам делился сгенерированными картинками, на которых фанаты Тейлор Свифт якобы выражали ему поддержку. По данным базы Grail, с 2024 года Трамп и Белый дом опубликовали в соцсетях как минимум 18 дипфейков.
Однако эта проблема не ограничивается правым политическим флангом. Губернатор Калифорнии Гэвин Ньюсом, которому многие прочат выдвижение в президенты в 2028 году, также начал публиковать дипфейки, направленные против Трампа (включая тот, где президент улыбается голограмме скандального финансиста Джеффри Эпштейна).
Исследователи ИИ подчеркивают: политические дипфейки остаются убедительными, даже если потребители знают, что они ненастоящие.
— Фостер ходит на высоких каблуках в военной форме, а ее армейский значок абсолютно не соответствует уставу. У нее нет ни единой причины тусоваться с президентом Трампом и Николасом Мадуро, — отмечает Грегори. — Если вдуматься, всё это не имеет никакого смысла и не выдерживает критики. Но люди не обязательно ищут то, что реально; они ищут то, что отражает их убеждения.
В результате из-за дипфейков вероятность того, что люди пересмотрят свои взгляды, стремится к нулю, считает Валери Виртшафтер, научный сотрудник инициативы по ИИ и новым технологиям Брукингского института.
— Дипфейки — это просто еще один слой в процессе укрепления, а не переосмысления того, что люди считают правдой, — говорит она.
«Это похоже на фабрику троллей»
Ученые опасаются, что ситуация будет только ухудшаться. Согласно недавнему исследованию в авторитетном журнале Science, технологии, использованные для создания Фостер, могут применяться для производства так называемых «ИИ-роев». Такие системы способны «автономно координироваться, проникать в сообщества и эффективно фабриковать общественное мнение».
— Это похоже на фабрику троллей, только теперь для этого больше не нужны живые люди, — резюмирует Виртшафтер.
Тем не менее, по мнению экспертов, человечество всё еще может помешать злоумышленникам использовать ИИ для дестабилизации общества. Коалиция за происхождение и подлинность контента (C2PA) разработала «технический стандарт для издателей, создателей и потребителей, позволяющий устанавливать происхождение и факт редактирования цифрового контента». Этот стандарт «встраивается в фотографию, сделанную на камеру, или в контент, созданный либо отредактированный с помощью ИИ, а затем распространяется на платформе в виде набора криптографически подписанных метаданных», поясняет Грегори.
По его словам, технологические компании должны использовать эту информацию для обязательной маркировки ИИ-контента. LinkedIn, Pinterest, TikTok и YouTube уже обязались это делать. Однако недавно журналист-расследователь издания Indicator опубликовал на этих платформах 200 ИИ-изображений и видео, чтобы проверить работу алгоритмов на практике. Оказалось, что даже самые добросовестные из них — LinkedIn и Pinterest — пометили лишь 67% контента; Instagram* отметил всего 15 из 105 фейковых изображений.
Недавно Надзорный совет Meta выразил обеспокоенность тем, что компания «непоследовательно внедряет» стандарты Коалиции, «даже в отношении контента, созданного с помощью ее собственных ИИ-инструментов, и лишь малая часть таких материалов получает надлежащую маркировку».
Грегори считает, что проблема непоследовательной маркировки кроется в «отсутствии политической воли на высших уровнях» крупных технологических корпораций.
— Нам не нужно отказываться от способности отличать реальное от синтетического, — подытоживает он. — Но нам необходимо действовать быстро.
Примечания:
- Ключевая идея — и, пожалуй, самая тревожная — заключается в том, что дипфейки не обязаны быть убедительными в классическом смысле. Они работают не потому, что обманывают, а потому, что подтверждают. Это перекликается с концепцией «предвзятости подтверждения» (confirmation bias) в когнитивной психологии: люди склонны принимать информацию, соответствующую их существующим убеждениям, и отвергать противоречащую — вне зависимости от её достоверности. Дипфейки эксплуатируют этот механизм с беспрецедентной эффективностью.
- C2PA (Coalition for Content Provenance and Authenticity) — альянс, основанный в 2021 году компаниями Adobe, Arm, Intel, Microsoft и Truepic. Стандарт C2PA встраивает в файл «сертификат подлинности» — цепочку метаданных, фиксирующих, когда, где и как был создан или изменён контент. Его можно сравнить с цифровой «печатью нотариуса». Проблема, как показывает статья, — в применении: стандарт существует, но платформы внедряют его крайне неравномерно.
- «ИИ-рои» (AI swarms) — концепция, описанная в исследовании Science, представляет собой следующий эволюционный шаг за «тролль-фермами». Если традиционные тролль-фермы (вроде петербургского «Агентства интернет-исследований», известного вмешательством в выборы в США в 2016 году) требовали живых операторов, ИИ-рои способны действовать автономно: создавать аккаунты, генерировать контент, вступать в дискуссии, имитировать органический консенсус — всё без участия человека.
- Случай с Джессикой Фостер особенно показателен: аккаунт не просто распространял пропаганду — он одновременно монетизировался через OnlyFans. Это создаёт экономический стимул для массового производства подобных аватаров, превращая политическую дезинформацию в самоокупающийся (или даже прибыльный) бизнес.
- Статистика маркировки (Instagram* — 14% обнаружения) наглядно демонстрирует разрыв между декларируемыми обязательствами платформ и реальностью. Для русскоязычного контекста стоит отметить, что российские платформы (VK, «Одноклассники», Telegram) вообще не участвуют в инициативах по маркировке ИИ-контента, что делает русскоязычное информационное пространство ещё более уязвимым.
- «Хабиби, приезжай в Иран» — пример информационной войны нового типа, в которой ИИ-сгенерированные привлекательные женщины используются как инструмент «мягкой силы». Подобная тактика перекликается с давней практикой создания фальшивых профилей привлекательных женщин для шпионажа и социальной инженерии (так называемые «медовые ловушки»), но масштабирует её до уровня, недостижимого для операций с живыми людьми.
*Instagram принадлежит компании Meta, признанной экстремистской организацией и запрещенной в РФ.