Anthropic (Claude AI) не станет снимать ограничения со своего ИИ на фоне конфликта с Пентагоном
Гендиректор Anthropic заявил, что компания не подчинится требованиям Министерства обороны, пока Пентагон решает, стоит ли объявлять ее «угрозой цепочке поставок».
Генеральный директор Anthropic Дарио Амодей заявил, что компания не станет снимать защитные ограничения со своей ИИ-модели Claude. Это обостряет конфликт с Министерством обороны США по поводу того, как именно эта технология может использоваться в засекреченных военных системах.
Это заявление прозвучало на фоне того, как Минобороны пересматривает свои отношения с Anthropic и взвешивает возможные последствия, включая расторжение контракта с компанией на сумму 200 млн долларов и возможное применение Закона об оборонном производстве (Defense Production Act).
— Мы не можем со спокойной совестью согласиться на их просьбу», — написал Амодей, ссылаясь на январское требование Пентагона к ИИ-подрядчикам разрешить использование их систем для «любых законных целей.
Несмотря на то, что с тех пор Пентагон обязал разработчиков ИИ включать стандартную формулировку о «любом законном использовании» в будущие соглашения, Anthropic осталась единственной передовой ИИ-компанией, которая отказалась передавать военным полный контроль над своим искусственным интеллектом.
Издание Axios впервые сообщило, что Пентагон выдвинул ультиматум, требуя неограниченного военного использования Claude. По имеющимся данным, срок ультиматума истекает в пятницу на этой неделе.
— Выбирать подрядчиков, которые в наибольшей степени соответствуют их видению — прерогатива Министерства, — продолжил Амодей. — Но учитывая ту существенную пользу, которую технологии Anthropic приносят нашим вооруженным силам, мы надеемся, что они пересмотрят свое решение».
В своем заявлении Амодей подчеркнул, что позиция компании полностью совпадает с целями национальной безопасности США.
— Я глубоко верю в экзистенциальную важность использования ИИ для защиты Соединенных Штатов и других демократий, а также для победы над нашими автократическими противниками, — заявил он.
Он добавил, что Claude «широко применяется в Военном министерстве и других органах национальной безопасности для анализа разведданных, моделирования и симуляций, оперативного планирования, киберопераций и многого другого».
Этот конфликт разворачивается на фоне более широких опасений по поводу того, как передовые ИИ-системы ведут себя в военных сценариях с высокими ставками. В недавнем исследовании Королевского колледжа Лондона модели GPT-5.2 от OpenAI, Claude Sonnet 4 от Anthropic и Gemini 3 Flash от Google применили ядерное оружие в 95% смоделированных геополитических кризисов.
Во время январского выступления на базе SpaceX Starbase в Техасе министр обороны Пит Хегсет заявил, что американские военные планируют развернуть самые передовые модели ИИ.
В том же месяце появились сообщения о том, что Claude использовался в ходе операции США по поимке бывшего президента Венесуэлы Николаса Мадуро. Амодей опроверг слухи о том, что Anthropic ставила под сомнение какие-либо конкретные военные операции.
— Anthropic понимает, что военные решения принимает Военное министерство, а не частные компании, — сказал он. — Мы никогда не выдвигали возражений против конкретных военных операций и не пытались ограничивать использование наших технологий в индивидуальном порядке.
Несмотря на это, по словам Амодея, использование этих систем для массовой слежки внутри страны или для создания автономного оружия несовместимо с демократическими ценностями и несет в себе серьезные риски.
— Сегодня передовые ИИ-системы попросту недостаточно надежны, чтобы управлять полностью автономным оружием, — подчеркнул он. — Мы не станем сознательно поставлять продукт, который подвергает риску американских солдат и мирных жителей.
Он также прокомментировал угрозу Пентагона признать Anthropic «угрозой цепочке поставок», одновременно допуская применение Закона об оборонном производстве.
— Эти две угрозы по своей сути противоречат друг другу: одна клеймит нас как угрозу безопасности, а вторая называет Claude жизненным важным для национальной безопасности инструментом, — отметил глава компании.
И хотя Амодей заявил, что компания не выполнит требование Пентагона, в то же время Anthropic пересмотрела свою Политику ответственного масштабирования (Responsible Scaling Policy), отказавшись от обязательства приостанавливать обучение передовых систем без наличия гарантированных мер безопасности.
Роберт Вайсман, сопрезидент правозащитной организации Public Citizen, считает, что позиция Пентагона сигнализирует о более масштабном давлении на всю технологическую отрасль.
— Пентагон публично запугивает Anthropic, и эта публичность преднамеренна. Они хотят оказать давление на конкретную компанию и послать сигнал всему бигтеху и всем корпорациям: мы намерены делать и брать всё, что захотим, так что не стойте у нас на пути, — заявил Вайсман.
Вайсман назвал защитные ограничения Anthropic «скромными» и направленными на предотвращение «ненадлежащей слежки за американскими гражданами или содействия в разработке и развертывании роботов-убийц — оружия на базе ИИ, способного наносить смертельные удары без приказа человека».
— Это самые разумные и скромные ограничения, которые только можно придумать, когда речь идет о столь мощной новой технологии, — добавил он.
Что касается угрозы Пентагона признать Anthropic «угрозой цепочке поставок», Вайсман назвал это потенциально сокрушительным наказанием со стороны правительства и отметил, что это вынудит другие ИИ-компании избегать введения подобных ограничений.
— Обычные люди могут пользоваться Claude, но ни одна из ИИ-компаний, особенно Anthropic, не строит свою бизнес-модель на индивидуальном использовании; они нацелены на корпоративный сектор, — так он считает. — Поэтому подобный шаг правительства — это потенциально сокрушительный удар.
Пока Пентагон не сообщил, планирует ли он привести в исполнение свою угрозу расторгнуть контракт или применить Закон об оборонном производстве, но, по словам Вайсмана, военное ведомство дает понять ИИ-компаниям, что ожидает неограниченного доступа к их технологиям после того, как они будут интегрированы в правительственные системы.
— Посыл Пентагона звучит так: «Мы не собираемся с этим мириться, и мы ожидаем, что сможем использовать изобретенную технологию для любых наших целей», — резюмировал Вайсман.
Дополнительно:
- Anthropic — американская компания по разработке ИИ, основанная в 2021 году Дарио и Даниэлой Амодеи, бывшими руководителями OpenAI. Компания позиционирует себя как лидера в области безопасности ИИ и разрабатывает модель Claude. Anthropic привлекла миллиарды долларов инвестиций, в том числе от Amazon и Google.
- Закон об оборонном производстве (Defense Production Act, DPA) — американский закон 1950 года, принятый в начале Корейской войны. Даёт президенту США широкие полномочия по мобилизации промышленности для нужд обороны, включая право обязать компании выполнять государственные заказы в приоритетном порядке. В последние десятилетия DPA применялся, например, во время пандемии COVID-19 для производства медицинского оборудования.
- «Риск для цепочки поставок» (supply chain risk) — присвоение этого статуса фактически означает внесение компании в чёрный список для государственных контрактов. Как верно отмечает Амодеи, это противоречит одновременному признанию технологии компании жизненно важной для национальной безопасности.
- Пит Хегсет — бывший ведущий Fox News, назначенный министром обороны (войны) в администрации Дональда Трампа. Его назначение было неоднозначным; он известен жёсткой риторикой в отношении модернизации вооружённых сил.
- Политика ответственного масштабирования (Responsible Scaling Policy, RSP) — внутренний документ Anthropic, устанавливающий правила наращивания мощности ИИ-моделей в зависимости от уровня их потенциальной опасности. Отказ от обязательства приостанавливать обучение без гарантированных защитных мер — существенная уступка, которая может ослабить позицию компании в споре с критиками.
- Public Citizen — некоммерческая правозащитная организация, основанная Ральфом Нейдером в 1971 году. Занимается защитой прав потребителей, контролем над корпорациями и государственной подотчётностью.
- Исследование Королевского колледжа Лондона — упомянутый показатель (95% применения ядерного оружия в смоделированных кризисах) подчёркивает фундаментальную проблему: современные ИИ-модели склонны к эскалации в условиях геополитического моделирования. Это один из ключевых аргументов против полностью автономного военного использования ИИ.
- Контекст и значение конфликта. Этот спор выходит далеко за рамки одного контракта. По сути, он задаёт прецедент для отношений между государством и разработчиками ИИ: может ли частная компания устанавливать этические ограничения на использование своей технологии правительством, или государство вправе требовать неограниченного доступа? Исход этого конфликта повлияет на всю индустрию и, возможно, на международные нормы регулирования военного ИИ. Противоречие между заявленной приверженностью Anthropic безопасности ИИ и одновременным ослаблением Политики ответственного масштабирования добавляет ситуации дополнительную сложность.