Вирусные ИИ-видео с героями «Очень странных дел» вызывают новые опасения по поводу дипфейков - Такое кино
 

Вирусные ИИ-видео с героями «Очень странных дел» вызывают новые опасения по поводу дипфейков

16.01.2026, 6:02, Технологии
Теги: , ,

Эксперты предупреждают: демонстрационные ролики, созданные с помощью функции Motion Control от Kling AI, подсвечивают новые риски на фоне того, как соцсети наводняют видео с полной подменой тела.

Вирусный пост с видео, предположительно созданным с использованием технологии Kling AI 2.6 Motion Control, на этой неделе буквально взорвал социальные сети. В ролике бразильский контент-мейкер Эдер Ксавьер безупречно «меняется» телами и лицами с актерами сериала «Очень странные дела» — Милли Бобби Браун, Дэвидом Харбором и Финном Вулфардом.

Эти видео широко разошлись по социальным платформам, набрав более 14 миллионов просмотров в соцсети X (бывший Twitter), после чего появились и новые версии. Ролики привлекли внимание технологов, в том числе партнера венчурного фонда a16z Жюстин Мур, которая поделилась видео из Instagram-аккаунта Ксавьера.

— Мы не готовы к тому, как быстро изменятся производственные процессы с приходом ИИ, — написала Мур. — Некоторые из новейших видеомоделей имеют прямые последствия для Голливуда. Бесконечные замены персонажей по ничтожной цене.

По мере совершенствования инструментов генерации изображений и видео — с появлением таких новых моделей, как Kling, Google Veo 3.1 и Nano Banana, FaceFusion и OpenAI Sora 2, расширяющих доступ к высококачественному синтетическому медиаконтенту, — исследователи предупреждают: технологии, показанные в вирусных клипах, скоро выйдут далеко за пределы единичных демо-версий.

В то время как зрители поражались качеству видео с заменой тел, эксперты бьют тревогу: это неизбежно станет инструментом для мошенничества с выдачей себя за другое лицо.

— Шлюзы открыты. Никогда еще не было так легко украсть цифровую личность человека — его голос, лицо — а теперь и оживить всё это с помощью одной фотографии. Никто не застрахован, — заявила Эммануэль Салиба, директор по расследованиям в компании GetReal Security, занимающейся кибербезопасностью.

— Мы начнем наблюдать системные злоупотребления любого масштаба: от точечной социальной инженерии до скоординированных кампаний по дезинформации и прямых атак на критически важные предприятия и институты, — добавила она.

По словам Салибы, вирусные видео с актерами «Очень странных дел» демонстрируют, насколько слабы нынешние барьеры против злоупотреблений.

— За несколько долларов любой теперь может создать полноростовое видео политика, знаменитости, генерального директора или частного лица, используя всего одно изображение, — сказала она. — Нет никакой защиты цифрового образа человека по умолчанию. Никакой гарантии идентичности.

Ю Чен, профессор электротехники и компьютерной инженерии Бингемтонского университета, считает, что полная замена персонажа выходит за рамки манипуляций только с лицом, характерных для ранних дипфейк-инструментов, и создает новые проблемы.

— Замена персонажа в полный рост представляет собой значительную эскалацию возможностей синтетических медиа, — пояснил Чен. — Эти системы должны одновременно справляться с оценкой позы, отслеживанием скелета, переносом одежды и текстур, а также синтезом естественных движений всего человеческого тела.

Помимо «Очень странных дел», авторы также опубликовали видео с заменой тела Леонардо Ди Каприо в фильме «Волк с Уолл-стрит».

— Ранние технологии дипфейков работали преимущественно в ограниченном пространстве манипуляций, фокусируясь на замене области лица и оставляя остальную часть кадра практически нетронутой, — отметил Чен. — Методы обнаружения могли использовать несоответствия границ между синтетическим лицом и оригинальным телом, а также временные артефакты, когда движения головы неестественно сочетались с движениями тела.

— Хотя финансовое мошенничество и аферы с самозванцами остаются поводом для беспокойства, внимания заслуживают и другие векторы злоупотреблений, — продолжил он. — Неконсенсуальный интимный контент представляет собой наиболее непосредственную угрозу, поскольку эти инструменты снижают технический барьер для создания синтетической порнографии с участием реальных людей.

Другие угрозы, на которые указали и Салиба, и Чен, включают политическую дезинформацию и корпоративный шпионаж: мошенники могут выдавать себя за сотрудников или руководителей, публиковать сфабрикованные «слитые» клипы, обходить системы контроля и похищать учетные данные с помощью атак, в которых «правдоподобный человек на видео усыпляет бдительность достаточно надолго, чтобы получить доступ внутрь критически важного бизнеса».

Пока неясно, как отреагируют студии или актеры, изображенные на видео, но Чен отметил, что, поскольку клипы создаются на базе общедоступных ИИ-моделей, разработчики играют решающую роль во внедрении защитных мер.

Тем не менее, по его словам, ответственность должны разделять платформы, законодатели и конечные пользователи, поскольку возложение её исключительно на разработчиков может оказаться невыполнимым и затормозить полезное применение технологий.

По мере распространения этих инструментов, считает Чен, исследователи должны уделять приоритетное внимание моделям обнаружения, которые выявляют внутренние статистические признаки синтетического контента, а не полагаются на метаданные, которые легко удалить.

— Платформы должны инвестировать как в автоматизированные системы обнаружения, так и в штат модераторов, разрабатывая при этом четкие процедуры эскалации для контента с высокими рисками, связанного с публичными фигурами или потенциальным мошенничеством, — сказал он, добавив, что законодателям следует сосредоточиться на создании четких рамок ответственности и требований к раскрытию информации.

— Быстрая демократизация этих возможностей означает, что механизмы реагирования, разработанные сегодня, будут проходить проверку масштабом уже через считанные месяцы, а не годы, — подытожил Чен.


Смотреть комментарии → Комментариев нет


Добавить комментарий

Имя обязательно

Нажимая на кнопку "Отправить", я соглашаюсь c политикой обработки персональных данных. Комментарий c активными интернет-ссылками (http / www) автоматически помечается как spam

ПОСЛЕДНЕЕ

16.01 / «Рип» (The Rip) — Бен Аффлек и Мэтт Дэймон отрываются в эффектном «пацанском» триллере Netflix

15.01 / «Игра престолов» пробует себя в комедии в сыром спин-оффе о напарниках

15.01 / Google добивается отклонения иска интернет-издателей из-за ИИ-сводок в поиске

14.01 / «Захваченный рейс 2» (Hijack 2) — Идрис Эльба возвращается с самым легким для запойного просмотра шоу

14.01 / Создатель Warhammer 40,000, компания Games Workshop, исключает использование генеративного ИИ

14.01 / «28 лет спустя: Костяной храм» — феноменальный Рэйф Файнс в лучшей главе зомби-хоррора

13.01 / Документальный фильм Netflix об «Очень странных делах», похоже, окончательно хоронит теорию «Conformity Gate»

13.01 / Apple внедряет Google Gemini в свои ИИ-модели

13.01 / Интернет-издатели опасаются, что ИИ-сводки в поиске и чат-боты означают «конец эры трафика»

12.01 / «Битва за битвой» и «Подростковый возраст» лидируют на 83-й церемонии вручения премии «Золотой глобус»

Политика конфиденциальности - GDPR

Карта сайта →

По вопросам информационного сотрудничества, размещения рекламы и публикации объявлений пишите на адрес: rybinskonline@gmail.com

Поддержать проект:

PayPal – rybinskonline@gmail.com
WebMoney – Z399334682366, E296477880853, X100503068090

18+ © 2026 Такое кино: Самое интересное о культуре, технологиях, бизнесе и политике