ИИ против ИИ: как банки теряют миллиарды из-за нейросетей-мошенников и что с этим делать
Experian выявила «парадокс мошенничества» при внедрении ИИ в финансовом секторе
Те же самые технологии, которые внедряют финансовые институты, сейчас используются как оружие против них самих. Именно этот фундаментальный конфликт проходит красной нитью через отчет компании Experian «Прогноз развития мошенничества на 2026 год» (Future of Fraud Forecast). И Experian имеет полное право заявлять об этой проблеме, поскольку компания находится по обе стороны баррикад.
Согласно данным Федеральной торговой комиссии США (FTC), приведенным в прогнозе, в 2024 году потребители потеряли из-за мошенников более 12,5 млрд долларов. Как показывают собственные данные Experian, сопровождающие отчет, почти 60% компаний сообщили о росте убытков от фрода в период с 2024 по 2025 год. Решения Experian по предотвращению мошенничества помогли клиентам избежать глобальных потерь на сумму около 19 млрд долларов в 2025 году. Эта цифра подчеркивает масштаб проблемы: сегодня безопасность всецело зависит от того, сможет ли защитный ИИ сравниться в скорости и автономности с ИИ атакующим.
Проблема агентного ИИ
Самый тревожный вывод в прогнозе Experian — это явление, которое компания называет «межмашинным хаосом» (machine-to-machine mayhem). Это момент, когда агентные ИИ-системы, созданные для автономного совершения транзакций от лица пользователей, становятся неотличимы от ботов, которых мошенники запускают с той же целью.
Согласно прогнозу, пока корпорации стремятся внедрить ИИ-агентов, способных принимать самостоятельные решения, мошенники используют те же самые системы для проведения массовых цифровых атак. Масштаб и скорость такого фрода недостижимы для человека. Главная проблема заключается в том, что при межмашинном взаимодействии размывается понятие юридической ответственности. Если ИИ-агент инициирует транзакцию, которая оказывается мошеннической, четкого ответа на вопрос «кто несет ответственность?» просто не существует.
Кэтлин Питерс, директор по инновациям в сфере защиты от мошенничества и идентификации Experian в Северной Америке, так описывает проблему: «Технологии ускоряют эволюцию мошенничества, делая его более изощренным и труднообнаружимым. Только объединив дифференцированные данные с продвинутой аналитикой и передовыми технологиями, бизнес сможет укрепить свою защиту, обезопасить потребителей и обеспечить им надежный, бесшовный клиентский опыт».
Experian прогнозирует, что ситуация достигнет критической точки в 2026 году. Это заставит отрасль начать серьезный диалог об ответственности и правилах регулирования агентного ИИ в коммерции. Некоторые корпорации уже делают превентивные шаги. Amazon, например, заявила, что блокирует сторонним ИИ-агентам возможность просматривать товары и совершать транзакции на своей платформе, ссылаясь на соображения безопасности и конфиденциальности.
Четыре другие угрозы из прогноза Experian
Помимо проблемы агентного ИИ, отчет Experian выделяет четыре дополнительных тренда, которые финансовым институтам придется учитывать в 2026 году:
- Внедрение дипфейк-кандидатов в удаленные команды. Инструменты генеративного ИИ теперь способны создавать персонализированные резюме и генерировать дипфейк-видео в реальном времени, что позволяет ботам успешно проходить собеседования по видеосвязи. Согласно прогнозу, работодатели будут нанимать «сотрудников», которые выдают себя за других, тем самым предоставляя злоумышленникам доступ к внутренним системам. В 2025 году ФБР и Минюст США выпустили ряд предупреждений о задокументированных случаях, когда северокорейские хакеры использовали этот метод для трудоустройства в американские ИТ-компании.
- Клонирование сайтов, перегружающее антифрод-команды. ИИ-инструменты упростили создание точных копий легальных сайтов и усложнили их окончательное удаление. Согласно отчету, даже после выполнения запросов на блокировку поддельные домены продолжают возрождаться, заставляя специалистов по кибербезопасности постоянно работать в режиме тушения пожаров.
- Эмоционально интеллектуальные боты-мошенники. Благодаря генеративному ИИ ботам больше не нужны живые операторы для проведения сложных афер (например, «романтического скама» или схемы «родственник в беде»). Прогноз предупреждает: такие боты отвечают невероятно убедительно, способны выстраивать доверие на протяжении долгого времени, и их становится всё труднее отличить от реальных людей.
- Уязвимости умного дома. Виртуальные ассистенты, умные замки и подключенная бытовая техника создают новые точки входа для злоумышленников. По мере того как умный дом становится неотъемлемой частью нашего повседневного финансового поведения, мошенники будут использовать эти устройства для кражи персональных данных и слежки за активностью домочадцев.
Ответные меры финансовых институтов
Согласно другому отчету Experian («Восприятие ИИ»), основанному на опросе более 200 руководителей ведущих финансовых учреждений, 84% респондентов считают ИИ приоритетным направлением для своей бизнес-стратегии на ближайшие два года. Еще 89% заявляют, что ИИ будет играть важную роль в жизненном цикле кредитования.
Однако именно в вопросах управления ИИ (AI governance) институты сталкиваются с наибольшими трудностями. Тот же отчет показывает, что 73% респондентов обеспокоены нормативно-правовой базой вокруг ИИ, а 65% называют отсутствие «данных, готовых для машинного обучения» (AI-ready data), одной из главных проблем при внедрении. Качество данных было признано самым важным фактором при выборе ИИ-вендора. Это идеально совпадает с позиционированием самой Experian, ставя компанию в центр того, в чем финансовые учреждения нуждаются больше всего.
Что касается комплаенса (соответствия нормативным требованиям), то новый продукт компании — ИИ-ассистент для управления модельными рисками — решает одну из самых ресурсоемких задач. Согласно исследованию Experian за 2025 год, 67% глобальных финансовых организаций испытывают трудности с выполнением нормативных требований своих стран; 79% сообщают об участившихся запросах со стороны регуляторов, а 60% все еще используют ручные процессы комплаенса. Подготовка документации по ИИ-моделям в крупных корпорациях требует участия свыше 50 сотрудников — цифра, ясно указывающая на колоссальный потенциал для автоматизации.
Виджай Мехта, исполнительный вице-президент по глобальным решениям Experian Software Solutions, так описал эту проблему: «Скорость аналитики данных и разработки моделей, обеспечиваемая ИИ, открывает перед финансовыми институтами беспрецедентные возможности. Но есть и обратная сторона: глобальные регуляторы требуют трудоемкой документации. Наш Ассистент помогает справиться с этим ресурсозатратным процессом за счет сквозной автоматизации документооборота».
Фундамент качества данных
В основе продуктов Experian по борьбе с мошенничеством лежит тот же фундаментальный тезис, что и в свежих ИИ-стратегиях IBM и Salesforce: ИИ надежен ровно настолько, насколько надежны данные, на которых он работает. Согласно опросам, 65% руководителей финсектора считают подготовку качественных данных своей главной проблемой.
И это не просто совпадение маркетинговых тезисов. Это отражает реальное препятствие, с которым сталкиваются банки при переводе ИИ из стадии тестовых пилотов в реальное бизнес-производство: будь то принятие кредитных решений, выявление фрода или нормативная отчетность. В этих сферах прозрачность, объяснимость алгоритмов и возможность их аудита — это не опция, а суровая необходимость.
О компании Experian
Experian — одно из трёх крупнейших кредитных бюро мира (наряду с Equifax и TransUnion), со штаб-квартирой в Дублине и операционной базой в Лондоне. Компания обрабатывает данные о более чем 1,4 миллиарда потребителей и 200 миллионов компаний в 32 странах. Важно понимать двойственную позицию Experian:
- Как поставщик данных и аналитики, компания напрямую заинтересована в продвижении ИИ-решений.
- Как наблюдатель мошенничества, она обладает уникальной видимостью масштаба проблемы.
Эта двойственность — одновременно продавца решений и независимого аналитика — прямо обозначена и является важной оговоркой при оценке представленных данных.
Ключевые понятия
Агентный ИИ (Agentic AI) — ИИ-системы, способные самостоятельно принимать решения и выполнять действия без прямого указания человека на каждом шаге. Примеры:
- ИИ-агент, самостоятельно бронирующий авиабилеты и гостиницы.
- Торговый бот, совершающий финансовые операции по заданным критериям.
- Автономный агент, взаимодействующий с API банков для проведения платежей.
Проблема: если легитимный ИИ-агент и мошеннический бот используют одни и те же протоколы и ведут себя одинаково, как их различить? Это и есть «хаос машина против машины».
Модельный риск (Model Risk) — риск финансовых потерь или регуляторных санкций вследствие ошибок в математических/ИИ-моделях, используемых для принятия решений (кредитный скоринг, оценка рисков, обнаружение мошенничества). Регуляторы (Базельский комитет, ФРС, EBA) требуют детальной документации каждой модели — процесс, вовлекающий десятки специалистов.
Северокорейские дипфейк-работники
Одна из наиболее конкретных и тревожных угроз в отчёте. Задокументированные случаи:
- В 2024–2025 годах ФБР и Минюст США выявили схему, в которой северокорейские IT-специалисты устраивались на удалённую работу в американские компании, используя поддельные личности, сгенерированные резюме и дипфейк-видео для прохождения собеседований.
- Заработанные средства перенаправлялись режиму КНДР, часть — на финансирование ядерной программы.
- Предполагается, что тысячи таких «сотрудников» работали в технологических компаниях, включая крупные корпорации из списка Fortune 500.
Угроза вышла за рамки кибербезопасности и стала вопросом национальной безопасности.
Что означает «AI-ready data»
65% финансовых учреждений называют «данные, готовые к ИИ» главной проблемой. Что это значит на практике:
- Качество: данные должны быть чистыми, без дубликатов, ошибок и пробелов.
- Структурированность: данные должны быть в формате, понятном ИИ-моделям.
- Актуальность: устаревшие данные приводят к ошибочным решениям.
- Объяснимость: регуляторы требуют возможности объяснить, на основании каких данных ИИ принял решение (например, отказал в кредите).
- Соответствие нормам: GDPR, CCPA и другие законы о защите данных ограничивают, какие данные можно использовать и как.
Большинство финансовых учреждений работают на устаревшей IT-инфраструктуре (legacy systems), где данные разбросаны по десяткам несовместимых систем — что делает подготовку данных для ИИ колоссальной инженерной задачей.
Рекомендации
- Для специалистов по кибербезопасности и комплаенсу: полный текст отчёта Experian «2026 Future of Fraud Forecast» доступен на сайте компании — стоит прочитать целиком, а не только в пересказе.
- Для понимания агентного ИИ: отчёт McKinsey «Why agents are the next frontier of generative AI» (2024) — лучшее введение в тему для нетехнических читателей.
- Для отслеживания угрозы дипфейков: бюллетени IC3 (Internet Crime Complaint Center) ФБР — первоисточник информации о схемах с использованием ИИ в мошенничестве.
- Для понимания регуляторного ландшафта ИИ в финансах: руководство Базельского комитета по банковскому надзору «Supervisory newsletter on artificial intelligence» (2025) задаёт рамку для всех национальных регуляторов.
- Важная оговорка при чтении: статья в значительной степени основана на данных и продуктах Experian. Это не делает выводы неверными, но следует учитывать, что компания имеет коммерческий интерес в акцентировании угроз, для противодействия которым она продаёт решения. Перекрёстная проверка с независимыми источниками (отчёты ACFE — Association of Certified Fraud Examiners, данные ФБР, отчёты Chainalysis по криптомошенничеству) даст более полную картину.