Как искусственный интеллект превратил пропаганду в оружие - Такое кино
 

Как искусственный интеллект превратил пропаганду в оружие

24.06.2025, 8:17, Технологии
Теги: , ,

Самые дикие кадры бомбардировок Ирана не были сняты камерами Пентагона или съемочными группами CNN. Они были приготовлены видеомейкером Google с искусственным интеллектом.

После ракетного обстрела Ираном Израиля в начале недели фальшивые видео с искусственным интеллектом начали распространяться как неприятные слухи, показывающие, как Тель-Авив и аэропорт Бен-Гурион якобы подвергаются ударам.

Сцены были очень реалистичными и хотя удары были реальными, видео, которые стали вирусными по всему Интернету, не были таковыми, по данным судебно-медицинских компаний.

Таково состояние войны в 2025 году, когда созданные искусственным интеллектом дипфейки, ложь, сгенерированная чат-ботами, и кадры из видеоигр используются для манипулирования общественным восприятием с беспрецедентной частотой и проникновением в социальных сетях.

В то время как в воскресенье мир готовился к ответу Ирана после того, как США атаковали ключевые иранские ядерные объекты, присоединившись к Израилю в самой значительной военной акции Запада против Исламской Республики со времен ее революции 1979 года, миллионы людей обратились к социальным сетям за новостями.

Вместо того, чтобы узнать правду, многие оказались в ловушке нового типа кампании по дезинформации.

Иранские кампании TikTok, наблюдаемые в первые дни после израильских ударов по Ирану в 2025 году, развернули пять основных категорий контента, созданного искусственным интеллектом.

Одно из видео показывает, как обычный израильский район внезапно превращается в зону боевых действий в формате «до и после».

Еще одна партия фейков показывает, как главный аэропорт Тель-Авива подвергается ракетным обстрелам.

В одном из клипов показан самолет авиакомпании El Al Israel Airlines, охваченный пламенем. Несмотря на то, что он полностью сгенерирован компьютером, он все еще достаточно реалистичен, чтобы обмануть людей, не разбирающихся в технологиях.

Сложность ошеломляет, что отражает огромный скачок в качестве видеогенераторов в последние месяцы: Kling 2.1 Master, Seedream и Google Veo3 генерируют реалистичные сцены с помощью функции Image to Video, что позволяет модели создавать видео на основе реальной картинки, а не создавать сцены с нуля.

Даже программное обеспечение с открытым исходным кодом, такое как Wan 2.1, популярное среди любителей, использует дополнения, которые создают сверхреалистичное видео и улучшают качество, обходя ограничения на контент, наложенные крупными технологическими компаниями.

Эти политические клипы набирают миллионы просмотров в TikTok, в то время как Instagram, Facebook и X продолжают продвигать их без остановки.

Например, опубликованное сегодня видео, демонстрирующее преувеличение атак Ирана на американские базы, было просмотрено более 3 миллионов раз на X, в то время как фотография, изображающая Кэнданс Оуэнс и Такера Карлсона — журналистов, выступающих против участия Трампа в войне — в качестве мусульман, набрала более 371 тысячи просмотров за три дня. Телеграм-каналы выкачивают эти фейки и всплывают быстрее, чем платформы успевают их закрыть.

Но кто все это создает?

Партизаны с обеих сторон, конечно, и вероятные агенты каждой страны. Пропагандистская война выходит далеко за пределы Ближнего Востока.

Российская сеть «Правда» заражает ИИ-помощников, в том числе ChatGPT-4 и чат-бота Meta, превращая их в рупоры Кремля.

По оценкам NewsGuard, проекта, посвященного разоблачению дезинформации в американском дискурсе, ежегодный объем публикаций «Правды» составляет не менее 3,6 миллиона пророссийских статей.

В прошлом году сеть произвела 3,6 миллиона экземпляров в 49 странах, используя 150 веб-адресов на нескольких языках.

Согласно исследованию, российская сеть использует комплексную стратегию проникновения в данные обучения чат-ботов ИИ и намеренной публикации ложных утверждений.

Каков результат? Каждый крупный чат-бот — хотя в исследовании не называются имена — повторял пропаганду «Правды».

Кампании на Ближнем Востоке демонстрируют, что они довели это до уровня науки, настраивая контент по языку.

— Арабский и фарси контент часто пропагандирует региональную солидарность и антиизраильские настроения/ Видео на иврите посвящены психологическому давлению в Израиле, — говорится в докладе израильского Международного института по борьбе с терроризмом (ИКТ).

Другая пропагандистская тактика использует контент ИИ для издевательства над израильскими официальными лицами, в то время как главный священнослужитель Ирана выглядит героем.

Эти видео, которые, очевидно, созданы искусственным интеллектом и не должны казаться реалистичными, часто изображают сцены с аятоллой Али Хаменеи рядом с премьер-министром Израиля Биньямином Нетаньяху и президентом США Дональдом Трампом, изображая сценарии, в которых Хаменеи символически унижает или доминирует над одной или обеими фигурами.

Другие дипфейки сочетают в себе поддельные видео с фальшивыми голосами для усиления различных политических повесток дня.

Одно видео, которое собрало более 18 миллионов просмотров за неделю, содержит реалистичные кадры иранского военного парада с сотнями ракет и голос Хаменеи, угрожающего Америке возмездием.

Государственные СМИ Ирана вмешались. Иранское телевидение показало старые кадры лесных пожаров из Чили и выдало их за горящие израильские города.

Другие аккаунты, выдающие себя за новостные каналы, использовали поддельные видео с искусственным интеллектом, на которых Иран мобилизует свои ракеты.

С другой стороны, Израиль решил запретить СМИ, чтобы контролировать геополитический нарратив, что, по мнению экспертов, привело к еще большей дезинформации и «дегуманизации».

Хотя Израиль фокусируется на использовании ИИ для различных целей — в основном для военных стратегий, а не для политической пропаганды — были также случаи, когда субъекты использовали генеративный ИИ для этих целей, издеваясь над нынешними и прошлыми аятоллами и распространяя их политические идеи с помощью видеороликов, созданных ИИ, а также создавая сети ботов с искусственным интеллектом для распространения контента в социальных сетях.

Игра с синтетической персоной — это следующий уровень. Это не просто поддельные фотографии профиля — мы говорим о полностью искусственных личностях с реалистичной речью, движениями и выражениями.

Уже существуют инструменты, которые используют передовые технологии для преобразования одного фото и аудиоклипа в гиперреалистичные видеоролики с искусственными персонажами.

По данным KBV Research, к 2030 году рынок виртуальных инфлюенсеров может достичь 37,8 миллиарда долларов, а это означает, что ваш любимый персонаж в социальных сетях, видео, на котором ваш политический лидер говорит что-то компрометирующее, или очень реалистичное новостное шоу, показывающее сцены разрушительной атаки, могут даже не существовать.

Благодаря генеративному искусственному интеллекту поле боя вышло за рамки границ и бункеров в каждый смартфон, каждую социальную ленту и каждый разговор.

Если даже президент самой могущественной страны в мире может использовать эту технологию без последствий, легко понять, как в этой новой войне мы все являемся комбатантами, и все мы жертвы.


Смотреть комментарии → Комментариев нет


Добавить комментарий

Имя обязательно

Нажимая на кнопку "Отправить", я соглашаюсь c политикой обработки персональных данных. Комментарий c активными интернет-ссылками (http / www) автоматически помечается как spam

Политика конфиденциальности - GDPR

Карта сайта →

По вопросам информационного сотрудничества, размещения рекламы и публикации объявлений пишите на адрес: [email protected]

Поддержать проект:

PayPal - [email protected]; Payeer: P1124519143; WebMoney – Z399334682366, E296477880853, X100503068090

18+ © 2025 Такое кино: Самое интересное про кино, телевидение, культуру и технологии