Пентагон заключил соглашения с семью ИИ-компаниями для работы над засекреченными военными проектами
OpenAI, Google, Nvidia и другие согласились на «любое законное использование» своих технологий. Anthropic, в конфликте с Пентагоном из-за потенциального злоупотребления ИИ, в список не вошла.
Пентагон заявил, что достиг соглашений с семью ведущими компаниями в области искусственного интеллекта: SpaceX, OpenAI, Google, Nvidia, Reflection, Microsoft и Amazon Web Services.
— Эти соглашения ускоряют трансформацию по превращению вооружённых сил США в ИИ-приоритетную боевую силу и укрепят способность наших военнослужащих сохранять превосходство в принятии решений во всех сферах ведения войны, — говорится в заявлении военного ведомства.
Компании согласились на развёртывание своих технологий вооружёнными силами США в рамках «любого законного использования», сообщили в Пентагоне. Стартап Anthropic, выпускающий популярный чат-бот Claude, отказался включить стандарт «законного использования» в свой контракт с Министерством обороны в рамках нашумевшего конфликта с ведомством в прошлом месяце.
Министерство обороны США выделяет десятки миллиардов долларов на передовые программы множества технологических компаний — в области разведки, ведения боевых действий с помощью дронов, засекреченных и незасекреченных информационных сетей и многого другого. Только на разработку автономного оружия запрошено $54 млрд. Конкретные способы развёртывания технологий каждой отдельной компании не уточнялись.
Одна из компаний, Reflection AI, ещё не выпустила публично доступную модель. Двухлетний стартап ставит целью создание открытых моделей в противовес китайским ИИ-компаниям, таким как DeepSeek. По данным Wall Street Journal, компания в марте добивалась оценки в $25 млрд и получила финансирование от Nvidia, а также от венчурного фонда 1789 Capital, партнёром которого является Дональд Трамп-младший.
Планы вызвали споры с рядом ИИ-компаний, а также полемику и обеспокоенность по поводу государственных расходов, глобальной кибербезопасности и способности подобных технологий использоваться для внутренней слежки.
В январе Пит Хегсет, министр обороны, представил в Пентагоне новую «стратегию ускорения ИИ», которая, по его словам, «раскрепостит экспериментирование, устранит бюрократические барьеры, сфокусирует инвестиции и продемонстрирует подход к исполнению, необходимый для обеспечения нашего лидерства в военном ИИ и его нарастающего доминирования в будущем».
В пятницу министерство объявило, что указанные компании будут интегрированы в так называемые сетевые среды Пентагона «Уровней воздействия 6 и 7»[^12] для «оптимизации синтеза данных, повышения ситуационного понимания и усиления принятия решений военнослужащими в сложных операционных условиях», говорится в федеральном заявлении.
— Эти соглашения ускоряют трансформацию по превращению вооружённых сил США в ИИ-приоритетную боевую силу и укрепят способность наших военнослужащих сохранять превосходство в принятии решений во всех сферах ведения войны», — добавлено в заявлении Пентагона.
Anthropic вела спор с Пентагоном относительно ограничений на то, как военные могут использовать её инструменты искусственного интеллекта. ИИ-гигант выступил против пункта о «законном использовании» в контракте, опасаясь, что его технология может быть использована для массовой внутренней слежки или полностью автономного летального оружия. В ответ Пентагон обозначил Anthropic как «риск для цепочки поставок» в прошлом месяце — впервые, когда американская компания была удостоена подобного статуса. Пентагон и его подрядчикам запрещено использовать продукцию Anthropic, хотя их по-прежнему сложно извлечь из засекреченных сетей. Anthropic подала в суд в ответ.
Чиновники Министерства обороны полагают, что подписание соглашений с конкурентами Anthropic может вернуть упрямый стартап за стол переговоров, сообщает New York Times. Новейшая ИИ-модель Anthropic — Mythos, ориентированная на кибербезопасность, — встревожила правительственных чиновников и банкиров своей способностью находить уязвимости в хорошо протестированном ПО. Выпуск Mythos осложнил усилия Трампа и Хегсета по внесению Anthropic в чёрный список.
Примечания:
- «Уровень воздействия 6 и 7» — это классификация защищённых сетевых сред Министерства обороны США. Уровни 1–5 относятся к несекретной, но чувствительной информации; уровни 6 и выше — к засекреченной (secret и top secret). То, что ИИ-компании интегрируются непосредственно в засекреченные сети, — тектонический сдвиг: ещё несколько лет назад технологический сектор и оборонное ведомство существовали в параллельных мирах. Теперь коммерческие модели будут работать с секретной информацией «на железе» Пентагона.
- Reflection AI и DeepSeek — китайский стартап DeepSeek в 2024 году произвёл сенсацию, выпустив open-source модель, сопоставимую по качеству с GPT-4, но обученную за малую долю цены и работающую на значительно более скромном оборудовании. Reflection AI — американский ответ: создавать открытые модели, чтобы предотвратить монополию Китая на публично доступные мощные ИИ. То, что компания без публичного продукта уже добивается оценки в $25 млрд, — признак лихорадочного милитаризованного рынка.
- 1789 Capital и Дональд Трамп-младший — название фонда отсылает к году принятия Конституции США. Фонд инвестирует в компании, которые его основатели называют «параллельной экономикой» — ориентированной на консервативные ценности, в противовес «прогрессивному» мейнстриму Кремниевой долины. Участие сына экс-президента — не случайная деталь, а указание на политическое измерение оборонных ИИ-контрактов.
- Anthropic и этический спор — это центральный сюжет статьи. Anthropic была основана в 2021 году бывшими сотрудниками OpenAI, ушедшими в знак протеста против коммерциализации и ослабления стандартов безопасности. Её отказ принять формулировку «любое законное применение» — не технический, а философский спор. Компания настаивает: «законное» не равно «этичное». Внутреннее массовое наблюдение может быть абсолютно законным (по Patriot Act), но это не значит, что оно должно использовать технологии Anthropic.
- «Риск для цепочки поставок» — Пентагон впервые в истории присвоил этот статус американской компании. Обычно так маркируют иностранных поставщиков, которые могут быть связаны с враждебными государствами. Применив этот ярлык к «своей» компании, военное ведомство фактически наказало Anthropic за её этическую позицию — и одновременно создало прецедент, который может охладить стремление других ИИ-компаний настаивать на ограничительных формулировках.
- Mythos и её способности — модель, специализирующаяся на поиске уязвимостей, — это палка о двух концах. Засекреченные сети Пентагона держатся на legacy-софте, часто написанном десятилетия назад; способность Mythos находить в нём уязвимости одновременно пугает и делает модель незаменимой. Именно поэтому, несмотря на официальный «чёрный список», её продолжают использовать в засекреченных сетях — и именно поэтому Пентагон заинтересован в возвращении Anthropic за стол переговоров.
- $54 млрд на автономные вооружения — bэто примерно годовой оборонный бюджет Германии или Франции. Одна лишь эта цифра объясняет, почему Пентагон так жёстко продавливает формулировку «любое законное применение»: если компании смогут выставлять этические условия, под вопросом окажется реализация программ на десятки миллиардов долларов.
За этим кейсом стоит следить в долгосрочной перспективе — он формирует прецеденты сразу в нескольких плоскостях:
- Юридической: исход иска Anthropic к Пентагону определит, может ли компания договором ограничить способы использования своей технологии государством.
- Рыночной: если Пентагон успешно «накажет» Anthropic чужими контрактами, стартапы с этическими принципами окажутся в заведомо проигрышной позиции на рынке госзаказа.
- Технологической: модель Mythos, способная взламывать «непробиваемый» софт, неизбежно перетечёт из военного домена в гражданский — и тогда встанет вопрос, кто и как будет защищать от неё критическую инфраструктуру.
- Полезно также перечитать историю конфликта Google с Пентагоном (проект Maven, 2018): там сотрудники компании массово протестовали против использования их разработок в дроновой войне, и Google в итоге отказалась от контракта. Кейс Anthropic — следующая глава того же спора, но на куда более высоких ставках.