X лишит пользователей монетизации за публикацию ИИ-видео о войне без соответствующих маркировок - Такое кино
 

X лишит пользователей монетизации за публикацию ИИ-видео о войне без соответствующих маркировок

04.03.2026, 14:41, Общество
Теги: , , , ,

С начала конфликта в Иране ленты социальных сетей оказались наводнены фейковыми кадрами боевых действий.

Социальная сеть X (бывшая Twitter), принадлежащая Илону Маску, лишит пользователей возможности зарабатывать на платформе, если они будут систематически публиковать сгенерированные нейросетями видео о войне без соответствующих пометок. Это решение было принято после того, как ленты соцсетей захлестнула волна фейковых боевых сцен, связанных с войной в Иране.

Платформа, насчитывающая около полумиллиарда активных пользователей в месяц, будет приостанавливать монетизацию постов на 90 дней для тех, кто загружает ИИ-видео вооруженных конфликтов, не указывая, что они созданы искусственным интеллектом. Второе нарушение приведет к перманентному бану в программе монетизации, заявили представители компании во вторник вечером. Это произошло на фоне того, как первые дни иранского конфликта ознаменовались настоящим потоком фальшивых видеороликов в сети.

Ленты пользователей в X, а также в Instagram и Facebook (принадлежащих Meta, компании признанной в РФ экстремисткой), пестрели многочисленными поддельными сценами боев. Среди них — видео, на котором иранские ракеты якобы преследуют и сбивают американский истребитель (по данным фактчекеров BBC Verify, этот ролик собрал 70 миллионов просмотров). В другом клипе с помощью ИИ дым, поднимающийся с места реального ракетного удара, был заменен на гигантский фейковый огненный шар, в несколько раз превосходящий оригинал по размеру.

Пользователи могут зарабатывать сотни долларов в месяц в рамках рекламной модели X, если соберут солидную аудиторию (около 100 000 подписчиков). Это создает стимул для производства шокирующего вирусного контента.

Никита Бир, руководитель отдела продуктов X, заявил:

— Во время войны критически важно, чтобы люди имели доступ к достоверной информации с мест событий. С современными ИИ-технологиями создать контент, способный ввести людей в заблуждение, не составляет никакого труда. Начиная с этого момента, пользователи, публикующие сгенерированные ИИ видео вооруженных конфликтов без соответствующей маркировки, будут отстранены от программы распределения доходов для авторов на 90 дней. Повторные нарушения приведут к полному исключению из программы.

Другие фейковые видео о войне также получили огромный охват. Ролик, циркулирующий в Instagram и якобы демонстрирующий гигантский пожар после того, как «Иран уничтожил авиабазу США в Эр-Рияде», оказался подделкой. Выяснилось, что это кадры полуторагодовалой давности, снятые после израильского удара по нефтеперерабатывающему заводу в йеменском порту Ходейда.

Представители британской фактчекинговой организации Full Fact заявили, что «всё чаще наблюдают, как ИИ служит турбоускорителем для распространения дезинформации в социальных сетях».

Главный редактор Full Fact Стив Новоттни отметил:

— За последние несколько дней мы увидели множество примеров того, как ИИ-изображения распространяются на различных платформах под видом реальных. Среди них — фейковые фотографии горящего авианосца и небоскреба Бурдж-Халифа, а также изображение, якобы демонстрирующее тело аятоллы Хаменеи. Даже когда ИИ-изображения кажутся некачественными или на них всё еще виден водяной знак, мы часто видим, как ими массово делятся. Огромный объем этого фейкового контента, а также легкость, с которой он генерируется и распространяется, вызывают реальную тревогу.

Сэм Стоквелл, исследователь влияния ИИ на онлайн-информацию из британского Центра новых технологий и безопасности, добавил, что наметился новый тренд: пользователи начали просить ИИ-чат-ботов проверять, не являются ли видео нейросетевыми фейками.

— К сожалению, чат-боты пока очень плохо справляются с оценкой событий в реальном времени, — подчеркнул он.

Однако это не мешает людям публиковать ошибочные вердикты чат-ботов в качестве доказательства подлинности тех или иных кадров.

— Люди пытаются манипулировать ответами ИИ, чтобы подкрепить свои собственные нарративы и аргументы о войне, — резюмировал Стоквелл.

Примечания:

  1. BBC Verify — подразделение BBC, созданное в 2023 году для проверки фактов и верификации визуального контента. Использует инструменты геолокации, анализа метаданных и обратного поиска изображений для выявления подделок.
  2. Full Fact — ведущая британская организация по проверке фактов, основанная в 2009 году. Работает с социальными платформами, СМИ и парламентом.
  3. Центр новых технологий и безопасности (CETaS) — исследовательский центр при Институте Алана Тьюринга, изучающий влияние новых технологий на национальную безопасность Великобритании.
  4. Никита Бир — известная фигура в Кремниевой долине, ранее создавший несколько популярных социальных приложений (Gas, TBH). Его назначение руководителем продуктового направления X отражает стремление платформы привлечь опытных специалистов для решения нарастающих проблем.
  5. Программа распределения доходов для авторов (Creator Revenue Sharing) — запущена X в 2023 году. Позволяет авторам получать долю рекламных доходов от показа рекламы в ответах на их публикации. Для участия необходимо иметь подписку Premium и определённое количество подписчиков. Именно эта монетизация создаёт экономический стимул для производства вирусного (и нередко фальшивого) контента.
  6. Ходейда — портовый город в Йемене, контролируемый хуситами. Израиль нанёс удары по его нефтяной инфраструктуре в 2024 году в ответ на хуситские атаки на судоходство в Красном море. Использование реальных кадров из этого удара для фабрикации фальшивого видео об ударе по Эр-Рияду — характерный пример «переупаковки» реального контента.
  7. Бурдж-Халифа — небоскрёб в Дубае, самое высокое здание в мире (828 м). Поддельное изображение горящего Бурдж-Халифы — пример того, как ИИ-фейки эксплуатируют узнаваемые символы для максимального эмоционального воздействия и вирусного распространения.
  8. Проблема «верификации через чат-ботов» — особенно тревожный феномен. Пользователи начинают использовать ИИ-чат-ботов (ChatGPT, Claude и др.) как инструменты проверки фактов, хотя эти модели не имеют доступа к актуальной информации в реальном времени и не способны анализировать видеоконтент. Более того, ответы чат-ботов затем публикуются как «экспертное подтверждение» подлинности — создавая замкнутый круг дезинформации.
  9. Масштаб проблемы. Статья фиксирует качественный скачок: если во время предыдущих военных конфликтов (Украина, Газа) дезинформация распространялась преимущественно через манипуляцию реальными кадрами (вырывание из контекста, переатрибуция), то в иранском конфликте ИИ позволяет создавать полностью фальшивый визуальный контент с нуля — и в промышленных масштабах.
  10. Ограниченность мер X. Стоит отметить, что наказание затрагивает лишь монетизацию, а не саму возможность публикации. Немаркированные ИИ-видео о войне по-прежнему могут оставаться на платформе и набирать миллионы просмотров — пользователь лишь теряет доход, но не доступ. Критики могут счесть такие меры недостаточными.

Смотреть комментарии → Комментариев нет


Добавить комментарий

Имя обязательно

Нажимая на кнопку "Отправить", я соглашаюсь c политикой обработки персональных данных. Комментарий c активными интернет-ссылками (http / www) автоматически помечается как spam

Политика конфиденциальности - GDPR

Карта сайта →

По вопросам информационного сотрудничества, размещения рекламы и публикации объявлений пишите на адрес: rybinskonline@gmail.com

Поддержать проект:

PayPal – rybinskonline@gmail.com
WebMoney – Z399334682366, E296477880853, X100503068090

18+ © 2026 Такое кино: Самое интересное о культуре, технологиях, бизнесе и политике