Огненные шары, Спанч Боб и мертвые авианосцы: как нейросети превратили войну США и Ирана в видеоигру? - Такое кино
 

Огненные шары, Спанч Боб и мертвые авианосцы: как нейросети превратили войну США и Ирана в видеоигру?

30.03.2026, 4:04, Политика
Теги: , , , , ,

Как ИИ-пропаганда меняет лицо информационной войны между США и Ираном

Видео разлетелось по сети со скоростью, на которую способны лишь социальные медиа. Ракеты градом обрушиваются на авианосец «Авраам Линкольн», истребители взрывами сбрасывает в море, а сам корабль разваливается на части в гигантском огненном шаре. Этим роликом поделились миллионы раз, прежде чем кому-то пришло в голову поинтересоваться: а цел ли вообще авианосец?

Оказалось, цел. Анализ, проведенный с помощью ИИ-детектора Hive, показал, что примерно 99,9% контента состояло из сгенерированных нейросетью элементов. Центральное командование ВС США (CENTCOM) ответило резко: «»Линкольн» не пострадал. Выпущенные ракеты даже близко не подлетели к цели».

«Мертвые» корабли продолжают свое плавание.

Один из главных вопросов этого конфликта: кто управляет нарративом? Что реально, а что создано искусственно? Добро пожаловать в первую настоящую войну, которая ведется одновременно и на поле боя, и в конкурирующих цифровых реальностях.

С тех пор как 28 февраля американские и израильские войска нанесли удары по Ирану, информационное поле битвы стало таким же горячим, как и реальное. Только за первые две недели The New York Times выявила более 110 различных ИИ-сгенерированных изображений и видео. Организация NewsGuard зафиксировала 50 ложных вбросов за первые 25 дней конфликта (в среднем по два в день), причем их объем и изощренность продолжают расти.

Тем не менее, ИИ-бомбардировка продолжается. Среди недавно разоблаченных фейков: фактчекеры AFP поймали авторов видео с горящими машинами в Тель-Авиве — на самом деле это были кадры протестов в Тегеране в январе 2026 года. Сервис Snopes опроверг видео «нового» иранского удара по Тель-Авиву, оказавшееся старым роликом от июня 2025 года. А китайские государственные СМИ распространили фейковое фото, утверждая, что иракское сопротивление сбило американский самолет-заправщик KC-135. Иран также направил свой ИИ-контент напрямую на американскую аудиторию: на этой неделе исследование Университета Клемсона показало, что аккаунты, связанные с КСИР (Корпусом стражей исламской революции), наводнили X, Instagram* и Bluesky сгенерированными видео. Среди них — собирающие миллионы просмотров дипфейки, высмеивающие президента Дональда Трампа в стиле мультфильма «Лего. Фильм».

Впрочем, методичка была определена еще в первые часы конфликта. Представитель КСИР Али Мохаммад Наини заявил, что в первые два дня войны было убито или ранено 650 американских солдат, в то время как CENTCOM подтвердило гибель лишь шестерых.

За иранской государственной телекомпанией IRIB TV1 давно задокументирована привычка транслировать сфабрикованные кадры. В одном из случаев они пустили в эфир беззвучное видео израильской атаки на Иран, наложив поверх рассказ о том, что это Иран наносит удар по Израилю. Исследовательская компания Cyabra зафиксировала проиранскую кампанию, которая за несколько дней собрала более 145 миллионов просмотров: десятки тысяч фейковых аккаунтов распространяли ИИ-дипфейки, изображающие безоговорочную победу Ирана.

— Контент теперь можно создавать мгновенно. Фейковые видео, на которые еще пару лет назад ушли бы силы высококлассных специалистов и дорогое ПО, сегодня может сделать кто угодно с помощью смартфона и бесплатного приложения, — заявил Алекс Хамерстоун, директор по консультационным решениям в TrustedSec.

Фейковое видео, на котором иранская ракета уничтожает американский истребитель (служба BBC Verify выяснила, что это кадры из военного симулятора), за одни выходные собрало 70 миллионов просмотров.

Подделки становится всё труднее распознать, поскольку они стали более тонкими. Стивен Фельдштейн, старший научный сотрудник Фонда Карнеги за международный мир, описывает эволюцию в сторону «поверхностных фейков» (shallow fakes) — когда реальность слегка манипулируется, а не фабрикуется с нуля, что делает обнаружение лжи гораздо более сложной задачей.

— Появление пропаганды на базе генеративного ИИ и дальнейшее падение доверия к традиционным институтам-инфофильтрам делают борьбу с промышленными масштабами фейков еще тяжелее, — рассказал он.

Собственный ИИ-чатбот соцсети X, Grok, лишь усугубил проблему: когда пользователи просили его проверить факты, он отвечал, что сгенерированные изображения реальны. Когда же премьер-министр Израиля Нетаньяху опубликовал видео, чтобы опровергнуть вирусные слухи о своей смерти, Grok объявил эти кадры фейком. Ошибку быстро опровергли, но ложь уже разлетелась по сети. ИИ создает фейки, а затем ИИ же их «проверяет». Правде просто негде пробиться.

Однако правительство США вряд ли можно назвать невинным наблюдателем. Белый дом опубликовал в X и TikTok около десятка «хайповых видео»: монтаж, в котором кадры реальных авиаударов перемешаны с видеорядом из серии игр Call of Duty, фильмами «Железный человек», «Топ Ган», «Храброе сердце» и мультфильмом «Губка Боб Квадратные Штаны» — без малейших попыток отделить вымысел от реальных боевых действий. В одном из уже удаленных роликов поверх каждого пораженного иранского объекта всплывали цифры «+100» — как уведомления об очках в Call of Duty.

Более того, актер Бен Стиллер потребовал удалить из этих нарезок кадры из своей комедии «Солдаты неудачи»:

— У нас нет никакого желания быть частью вашей пропагандистской машины. Война — это не кино.

Сенатор Тэмми Дакуорт, ветеран Национальной гвардии, получившая ранение в Ираке, отреагировала на этот монтаж еще жестче:

— Война — это не гребаная видеоигра. Шесть американцев мертвы, а тысячи других подвергаются бессмысленному риску из-за вашей незаконной, неоправданной войны.

Подобная эстетическая логика распространяется и на сам Овальный кабинет. На этой неделе NBC News сообщило, что военное командование ежедневно монтирует для Трампа двухминутные видеоотчеты, демонстрирующие самые успешные удары — то, что один из чиновников описал как «красиво взрывающиеся штуки». Это вызывает у союзников опасения, что президент может не получать полной картины происходящего на войне.

Внутренняя медиасреда Америки также не осталась в стороне от скандалов. Ранее в этом месяце телеканал Fox News был вынужден извиняться за то, что выдал старые кадры с Трампом без головного убора за свежие съемки с траурной церемонии 7 марта. На самом деле на той церемонии перед шестью закрытыми флагами гробами президент стоял в предвыборной бейсболке — став первым президентом США, позволившим себе подобное. Накопительный эффект от выпячивания военных успехов, замалчивания жертв среди гражданского населения и нежелания давать эфирное время нелестным соцопросам создает для миллионов зрителей скорее искусно срежиссированную реальность, нежели объективную картину.

Внутри самого Ирана компания Cloudflare фиксирует почти полное отключение интернета — трафик упал на 98%. Соцсеть X объявила о политике 90-дневной демонетизации для немаркированного ИИ-контента о войне, однако исследователи утверждают, что это мало на что повлияло.

Так что же можно предпринять на самом деле?

— Журналисты всегда обязаны тщательно проверять информацию, искать доказательства и факты, а не принимать за чистую монету нарративы, которые чиновники продвигают в угоду своим интересам, — резюмирует Фельдштейн.

Дополнительно:

  1. Контекст конфликта. Военное столкновение между США/Израилем и Ираном началось 28 февраля 2026 года. Это первый крупномасштабный вооружённый конфликт с прямым участием великой державы, развернувшийся в эпоху зрелого генеративного ИИ, — что делает его беспрецедентным по масштабу информационной войны.
  2. «Поверхностные фейки» (shallow fakes) — В отличие от дипфейков (полностью синтетический контент), поверхностные фейки манипулируют реальным материалом: перемонтируют хронологию, меняют контекст, подставляют звуковую дорожку. Они опаснее, потому что технически содержат «настоящие» кадры, что затрудняет автоматическое обнаружение и повышает убедительность.
  3. Grok как «антифактчекер» — ИИ-чатбот платформы X (принадлежащей Илону Маску) фактически усилил дезинформацию, «подтвердив» фальшивые материалы и «опровергнув» подлинные. Это создаёт замкнутый цикл: ИИ генерирует ложь → ИИ «верифицирует» ложь → пользователь получает «подтверждение» из двух «независимых» источников, оба из которых — машины.
  4. Геймификация войны — видеоролики Белого дома с наложением игровых элементов Call of Duty на реальные боевые кадры — явление, которое военные психологи и медиаисследователи предсказывали годами. Размывание границы между видеоигрой и реальностью не только дегуманизирует противника, но и превращает войну в зрелище, оцениваемое по эстетическим, а не этическим критериям.
  5. Тэмми Дакворт — фигура с особым моральным авторитетом в этом контексте. Будучи вертолётчицей в Ираке, она потеряла обе ноги и частичную подвижность правой руки в результате атаки повстанцев в 2004 году. Её критика «геймификации» войны несёт вес, недоступный большинству политиков.
  6. 98-процентное отключение интернета в Иране — стратегический ход, направленный на изоляцию населения от внешней информации и подавление внутреннего инакомыслия. Иран применял аналогичную тактику во время протестов 2019 и 2022 годов. Однако в контексте военного конфликта это также означает, что иранское население практически полностью зависит от государственных СМИ, которые систематически фабрикуют кадры.
  7. Масштаб проблемы в цифрах:
    • 110+ ИИ-генерированных изображений/видео за 2 недели (NYT)
    • 50 ложных заявлений за 25 дней (NewsGuard)
    • 145 миллионов просмотров у одной проиранской кампании (Cyabra)
    • 70 миллионов просмотров у одного фальшивого видео за уикенд (BBC Verify)

    Эти цифры показывают, что ИИ-пропаганда достигает аудитории, сопоставимой с крупнейшими медиакорпорациями, — при стоимости производства, стремящейся к нулю.

*Instagram принадлежит компании Meta, признанной экстремистской организацией и запрещенной в РФ.


Смотреть комментарии → Комментариев нет


Добавить комментарий

Имя обязательно

Нажимая на кнопку "Отправить", я соглашаюсь c политикой обработки персональных данных. Комментарий c активными интернет-ссылками (http / www) автоматически помечается как spam

Политика конфиденциальности - GDPR

Карта сайта →

По вопросам информационного сотрудничества, размещения рекламы и публикации объявлений пишите на адрес: rybinskonline@gmail.com

Поддержать проект:

PayPal – paypal.me/takoekino
WebMoney – Z399334682366, E296477880853, X100503068090

18+ © Такое кино: Самое интересное о культуре, технологиях, бизнесе и политике