Эксперт объяснил, почему развитие искусственного интеллекта в России несет не только пользу, но и угрозы

21.10.2025, 14:03, Разное
  Поддержать в Patreon

ИИ как двигатель экономики и объект кибератак

Искусственный интеллект кардинально меняет цифровой ландшафт России, проникая во все сферы жизни и хозяйственной деятельности. Согласно оптимистичным прогнозам аналитиков, к 2030 году его совокупный вклад в валовой внутренний продукт страны может достичь впечатляющей отметки в 11 триллионов рублей. Более того, ожидается, что около 80% специалистов самых разных отраслей так или иначе будут применять технологии ИИ в своей повседневной работе. Это свидетельствует о том, что происходит фундаментальный сдвиг: нейросети перестают быть узкоспециализированным инструментом для IT-специалистов и превращаются в универсальный технологический фундамент для автоматизации ключевых секторов экономики и социальной сферы.

«От медицины, где ИИ помогает в диагностике заболеваний, и жилищно-коммунального хозяйства, где он оптимизирует расход ресурсов, до сложных транспортных систем, управляемых интеллектуальными алгоритмами, — искусственный интеллект становится основой для повышения эффективности и создания новых продуктов и услуг», — отмечает заведующий лабораторией доверенного искусственного интеллекта РТУ МИРЭА Юрий Силаев.

Однако у этого прогресса существует и обратная, рисковая сторона. Чем более интегрированным и критически важным становится ИИ для функционирования государства и бизнеса, тем более привлекательной мишенью он делается для злоумышленников. Цифровая трансформация, движимая ИИ, неизбежно влечет за собой трансформацию киберугроз.

Оборотная сторона прогресса: когда ИИ становится оружием

Стремительное развитие технологий искусственного интеллекта создает не только беспрецедентные возможности, но и принципиально новые, более изощренные киберугрозы. Если раньше киберпреступники действовали в основном вручную или с помощью относительно простых автоматизированных скриптов, то теперь они получают в свое распоряжение мощный инструментарий для массовой автоматизации атак. Этот спектр угроз чрезвычайно широк: от создания сверхреалистичных дипфейков для мошенничества и манипуляции общественным мнением до использования адаптивных алгоритмов для самостоятельного поиска и эксплуатации ранее неизвестных уязвимостей в программном коде.

«Генеративный ИИ позволяет злоумышленникам в промышленных масштабах создавать персонализированные и сверхреалистичные фишинговые письма, обходящие традиционные спам-фильтры, а также взламывать системы защиты с помощью самообучающихся алгоритмов, которые постоянно адаптируются к средствам защиты», — поясняет эксперт.

Парадокс современного этапа заключается в ярко выраженной двойственной роли нейросетей в сфере кибербезопасности. С одной стороны, они стали мощным защитным инструментом, который способен в режиме реального времени анализировать колоссальные объемы сетевого трафика, выявлять аномалии и подозрительные активности, а на продвинутом уровне — даже предсказывать вероятные атаки до их непосредственной реализации. С другой — те же самые технологии превратились в опасное и эффективное оружие в руках киберпреступников и хактивистов, значительно повышающее их операционные возможности.

Опережающее развитие угроз и новые требования к специалистам

Ключевым вызовом современности для систем безопасности становится растущий разрыв между скоростью развития атакующих технологий и темпами создания адекватных средств защиты. Пока государственные регуляторы и представители крупного бизнеса только ведут дискуссии о разработке необходимых этических норм и правовых рамок для использования ИИ, киберпреступники уже активно и без каких-либо ограничений внедряют последние достижения в этой области в свою противоправную деятельность. Эта асимметрия дает злоумышленникам тактическое преимущество. «В этой гонке вооружений важно не просто реагировать на уже состоявшиеся инциденты и известные угрозы, а изначально, на концептуальном уровне, встраивать принципы безопасности в саму архитектуру ИИ-систем еще на этапе их проектирования», — подчеркивает Юрий Силаев.

Естественно, что в этих условиях спрос на высококвалифицированных специалистов по кибербезопасности и искусственному интеллекту будет только расти. Однако сами требования к ним претерпевают кардинальные изменения. «Сегодня уже недостаточно обладать лишь теоретическими знаниями в области криптографии или сетевых протоколов. Крайне востребованным становится практический опыт работы в условиях, максимально приближенных к реальным кибератакам, умение быстро ориентироваться в нестандартных ситуациях и понимать логику действий противника, использующего ИИ», — отмечает эксперт.

Именно осознание этой необходимости побуждает ведущие технические вузы активно внедрять новые, более практико-ориентированные форматы обучения. Среди них — соревнования по кибербезопасности, хакатоны по защите от атак с использованием ИИ и тесное взаимодействие с индустриальными партнерами, которые предоставляют студентам доступ к реальным кейсам и инфраструктуре.

Будущее за гибридными командами

Несмотря на всю мощь и потенциал современных систем искусственного интеллекта, ответственность за принятие критически важных, судьбоносных решений в области безопасности пока еще остается за человеком. «Специалисту в этой области нужно быть умнее нейросети, — считает Юрий Силаев. — ИИ прекрасно и без устали справляется с рутинными, объемными задачами по мониторингу и первичному анализу данных, но стратегическое управление безопасностью, анализ сложных, многоуровневых угроз и принятие окончательных решений в условиях неопределенности по-прежнему требуют незаменимых человеческих качеств — опыта, интуиции и способности к нестандартному мышлению».

По мнению эксперта и многих других профессионалов отрасли, обозримое будущее кибербезопасности лежит в плоскости создания и эффективного функционирования гибридных команд. В такой модели взаимодействия нейросети берут на себя обработку и первичную фильтрацию огромных массивов информации, выявляя закономерности и сигнализируя о подозрениях, а люди-аналитики, опираясь на эти данные и собственную экспертизу, проводят глубокий анализ и принимают взвешенные окончательные решения.

Смотреть комментарии → Комментариев нет


Добавить комментарий

Имя обязательно

Нажимая на кнопку "Отправить", я соглашаюсь c политикой обработки персональных данных. Комментарий c активными интернет-ссылками (http / www) автоматически помечается как spam

Политика конфиденциальности - GDPR

Карта сайта →

По вопросам информационного сотрудничества, размещения рекламы и публикации объявлений пишите на адрес: [email protected]

Поддержать проект:

PayPal - [email protected]; Payeer: P1124519143; WebMoney – Z399334682366, E296477880853, X100503068090

18+ © 2025 Такое кино: Самое интересное о культуре, технологиях, бизнесе и политике