Китай играет в долгую в сфере ИИ, пока США гонятся за сверхразумом
В новом отчете Института Брукингса отмечается, что ИИ-стратегия Китая ставит во главу угла эффективность, использование открытого исходного кода и внедрение нейросетей в реальные физические системы.
Глобальная гонка в сфере искусственного интеллекта, судя по всему, разворачивается совсем не так, как надеялись стратеги в Вашингтоне.
В новом отчете Института Брукингса, опубликованном на этой неделе, говорится, что США воспринимают ИИ-гонку как путь к созданию сильного искусственного интеллекта (AGI), в то время как китайские компании делают ставку на эффективность, глобальное распространение и внедрение технологий в реальные сектора экономики.
— США одержимы гонкой за AGI, или сильным искусственным интеллектом, — отмечается в докладе. — Американские IT-гиганты вливают сотни миллиардов долларов в новые центры обработки данных в надежде создать ИИ-системы, способные сравниться с человеческим мозгом или превзойти его в выполнении большинства когнитивных задач.
Хамза Чаудри, руководитель направления ИИ и национальной безопасности в Институте будущего жизни (Future of Life Institute), считает, что эта разница отражает два конкурирующих взгляда на то, как именно должно развиваться технологическое превосходство.
— Читателям важно понять: во-первых, развитие ИИ — это не история о том, как две нации наперегонки несутся к созданию сильного ИИ, — рассказал Чаудри. — Скорее, это история о горстке компаний из Кремниевой долины, одержимых идеей AGI, и о китайских корпорациях, которые сосредоточены на том, чтобы передать свой продукт в руки максимального числа пользователей и интегрировать его во всю свою экономику.
В отчете Брукингса также подчеркивается, что китайские разработчики продвигаются сразу по нескольким направлениям: они улучшают эффективность самих моделей, расширяют свое глобальное присутствие за счет опенсорсных (открытых) решений и активно внедряют ИИ как в потребительские, так и в промышленные продукты.
— Пока американские техногиганты строят колоссальные вычислительные кластеры с сотнями тысяч чипов, китайские ИИ-лаборатории сфокусированы на том, чтобы выжать максимальную производительность из весьма ограниченных вычислительных ресурсов и памяти, — говорится в документе.
По словам Чаудри, такой упор на дистрибуцию и практическое применение отражает куда более широкую стратегию внедрения технологий.
— Главная ставка Китая заключается в том, чтобы этот технологический стек оказался в руках как можно большего числа людей и работал в как можно большем количестве физических устройств, — добавил он.
Аналитики Брукингса указывают на стремительную интеграцию ИИ в Китае в такие физические продукты, как автомобили, смартфоны, носимую электронику и робототехнику. Компании активно расширяют использование автономных систем — роботакси, дронов-доставщиков и гуманоидных роботов, — не дожидаясь технологического прорыва в области сверхразума.
В докладе также упоминается, что китайские разработчики активно используют ИИ-модели с открытым исходным кодом, многие из которых находятся в свободном доступе в интернете. По мнению Чаудри, такой подход вызывает серьезные опасения в сфере безопасности, поскольку доступ к открытым моделям могут получить правительства и военные ведомства.
— Уже есть публичные отчеты о том, что китайские военные используют опенсорсные модели, — предупреждает эксперт. — И это та реальность, с которой нам уже приходится мириться. На мой взгляд, нам необходимо изменить нашу глобальную ИИ-стратегию и сам формат взаимодействия с международным сообществом.
Чаудри также отметил, что отчет Брукингса оставляет без ответа важные вопросы о роли «дистилляции моделей» — метода, при котором новые ИИ-системы обучаются на ответах более продвинутых нейросетей.
— Самым удивительным стало почти полное отсутствие анализа того, насколько дистилляция моделей способствует развитию китайского ИИ, — рассуждает Чаудри. — В отчете есть раздел об эффективности, где автор утверждает, что она достигается в первую очередь за счет китайских инноваций. При этом игнорируются атаки с использованием дистилляции со стороны DeepSeek, о которых заявляла компания Anthropic, или аналогичные атаки со стороны неназванных компаний, на которые жаловались OpenAI и DeepMind.
Так называемые «дистилляционные атаки» (distillation attacks) заключаются в следующем: разработчики отправляют огромное количество запросов к чужой, более мощной ИИ-модели, собирают ее ответы и используют этот массив данных для обучения собственной, конкурирующей нейросети, по сути «выкачивая» возможности оригинальной системы.
В феврале компания Anthropic заявила, что сразу несколько китайских ИИ-лабораторий, включая DeepSeek, Moonshot и MiniMax, сгенерировали миллионы ответов с помощью их нейросети Claude. Для этого использовались тысячи подставных аккаунтов, а полученные данные пошли на обучение китайских аналогов.
Несмотря на все это, Чаудри считает, что разница в приоритетах развития ИИ между США и Китаем может стать основой для заключения новых международных соглашений — сродни договорам о контроле над вооружениями, но для передовых ИИ-систем.
— Это открывает уникальное пространство для потенциального соглашения о том, чего мы не должны создавать в будущем. Иными словами, для установления красных линий между Соединенными Штатами и Китаем в отношении определенных видов ИИ-разработок, — резюмировал он.
Контекст:
- Институт Брукингса (Brookings Institution) — один из старейших и наиболее влиятельных аналитических центров (think tanks) в США, основанный в 1916 году. Базируется в Вашингтоне. Специализируется на вопросах государственной политики, экономики, международных отношений и технологий. Его доклады традиционно рассматриваются как авторитетный источник экспертных оценок и нередко влияют на формирование политического курса.
- AGI (Artificial General Intelligence) — искусственный общий интеллект — гипотетическая ИИ-система, способная выполнять любую интеллектуальную задачу на уровне человека или выше. В отличие от существующего «узкого ИИ» (narrow AI), который хорошо решает конкретные задачи (распознавание изображений, генерация текста), AGI подразумевает универсальное мышление. Ни одна существующая система пока не достигла этого уровня, хотя компании вроде OpenAI и Anthropic декларируют его создание как свою главную цель. Сверхразум (superintelligence) — ещё более продвинутая концепция: ИИ, значительно превосходящий человеческий интеллект во всех областях.
- DeepSeek — китайская ИИ-компания, привлёкшая мировое внимание в январе 2025 года выпуском модели DeepSeek-R1, которая продемонстрировала производительность, сопоставимую с ведущими американскими моделями, при существенно меньших вычислительных затратах. Это стало шоком для рынка: акции компании Nvidia, производящей чипы для ИИ, упали на рекордную величину за один день. Случай DeepSeek стал ключевым аргументом в пользу тезиса о том, что Китай может конкурировать в ИИ-гонке без доступа к новейшим американским чипов.
- Дистилляция моделей (model distillation) — легитимный метод машинного обучения, при котором «ученическая» модель меньшего размера обучается воспроизводить поведение более крупной «учительской» модели. Однако в контексте статьи речь идёт о так называемых «атаках с использованием дистилляции» — когда конкурирующая компания массово запрашивает чужую модель через API, собирает её ответы и использует их для обучения собственной системы. Это юридически и этически спорная практика, по сути представляющая собой форму промышленного шпионажа в цифровую эпоху.
- Anthropic — американская компания по безопасности ИИ, основанная в 2021 году бывшими сотрудниками OpenAI (Дарио и Даниэла Амодеи). Разработчик ИИ-ассистента Claude. Позиционирует себя как компанию, ставящую безопасность ИИ во главу угла. Её заявление о том, что китайские лаборатории использовали тысячи поддельных аккаунтов для извлечения данных из Claude, стало одним из самых громких скандалов в индустрии ИИ в 2025 году.
- Институт будущего жизни (Future of Life Institute) — некоммерческая организация, занимающаяся исследованием экзистенциальных рисков, в том числе связанных с ИИ. Именно этот институт в 2023 году инициировал открытое письмо с призывом приостановить разработку ИИ-систем мощнее GPT-4, которое подписали Илон Маск, Стив Возняк и тысячи исследователей.
- Модели с открытым исходным кодом (open-source models) — ИИ-модели, код и/или веса которых находятся в свободном доступе. Наиболее известные примеры: семейство LLaMA от Meta и модели DeepSeek. Открытость позволяет любому — от стартапов до государственных структур — использовать, модифицировать и дообучать эти модели, что создаёт как возможности для инноваций, так и риски в сфере безопасности.
- «Играть вдолгую» (to play the long game) — выражение в заголовке означает стратегию, ориентированную на долгосрочные результаты, в противоположность погоне за немедленным прорывом. Статья выстраивает контраст: США стремятся к «большому скачку» (AGI/сверхразум), тогда как Китай методично наращивает присутствие ИИ в повседневной жизни и экономике.
Дополнительно:
- Полный текст доклада Brookings — для детального ознакомления с аргументацией и данными (доступен на сайте brookings.edu).
- «Ник Бостром. Искусственный интеллект: Этапы. Угрозы. Стратегии» (Superintelligence: Paths, Dangers, Strategies, 2014) — классическая работа о рисках AGI и сверхразума, не утратившая актуальности.
- Отчёт Anthropic о дистилляционных атаках — для понимания масштаба проблемы извлечения возможностей моделей.
- Статьи о DeepSeek — для понимания того, как китайские компании добиваются высокой эффективности при ограниченных вычислительных ресурсах, в условиях американских санкций на экспорт передовых чипов.