OpenAI внедряет специальную версию ChatGPT на платформу Пентагона на фоне предупреждений о рисках - Такое кино
 

OpenAI внедряет специальную версию ChatGPT на платформу Пентагона на фоне предупреждений о рисках

11.02.2026, 13:32, Политика
Теги: , ,

Министерство войны США начнет использовать кастомизированную версию ChatGPT для работы с несекретными данными, несмотря на предостережения технических экспертов о человеческом факторе.

Компания OpenAI объявила о развертывании специальной версии ChatGPT на GenAI.mil — централизованной платформе искусственного интеллекта, разработанной Министерством войны (обороны) США.

Этот шаг расширяет доступ военных к мощным генеративным моделям, однако критики предупреждают: ошибки пользователей остаются ключевой угрозой безопасности.

ChatGPT пополнил растущий список ИИ-моделей, доступных американским военным. В него уже входят Gemini от Google и Grok — система искусственного интеллекта, разработанная компанией xAI, которая ранее в этом месяце была интегрирована в структуру SpaceX.

— Мы убеждены, что люди, отвечающие за оборону страны, должны иметь доступ к лучшим из существующих инструментов. Для США и других демократических стран важно понимать, как при наличии надлежащих мер защиты ИИ может помочь оберегать граждан, сдерживать противников и предотвращать будущие конфликты, — говорится в заявлении OpenAI.

В компании уточнили, что версия ChatGPT для GenAI.mil одобрена для использования Министерством обороны исключительно в работе с несекретными данными и будет функционировать внутри авторизованной правительственной облачной инфраструктуры.

По утверждению OpenAI, система оснащена защитными механизмами, призванными обезопасить чувствительную информацию.

Тем не менее, Джей Би Брэнч, эксперт по надзору за технологическими гигантами из общественной организации Public Citizen, предупреждает: чрезмерное доверие пользователей к ИИ может свести эти меры защиты на нет.

— Исследования показывают: когда люди используют большие языковые модели, они склонны давать им неоправданный кредит доверия, — отметил Брэнч. — Поэтому в ситуациях с высокими ставками, таких как военная сфера, критически важно гарантировать точность получаемых данных.

Внедрение происходит на фоне ускоренной интеграции коммерческого ИИ в военные сети Пентагона и стремления разработчиков ИИ выйти на прибыльность.

В январе министр войны Пит Хегсет заявил, что ведомство планирует развернуть передовые модели ИИ как в несекретных, так и в секретных военных сетях.

Хотя OpenAI подчеркивает, что их спецверсия ChatGPT предназначена только для открытых данных, Брэнч предостерегает: загрузка любой чувствительной информации в ИИ-системы делает её уязвимой для противников. Он добавил, что пользователи часто ошибочно воспринимают подобные инструменты как надежные сейфы.

— Секретная информация предполагает, что доступ к ней имеет лишь узкий круг лиц, — пояснил он. — Даже если у вас есть изолированная система, разрешенная только внутри военных структур, это не отменяет факта: секретные данные предназначены для строго ограниченной группы людей.

Ключевые понятия и контекст:

  1. GenAI.mil — централизованная платформа Министерства войны США для развёртывания генеративных ИИ-моделей, запущенная в рамках стратегии цифровой трансформации Пентагона. Платформа предоставляет военнослужащим и гражданским сотрудникам доступ к коммерческим моделям ИИ в контролируемой среде. Суффикс «.mil» — домен верхнего уровня, зарезервированный исключительно для структур вооружённых сил США.
  2. Классификация информации в системе безопасности США — в американской системе существует несколько уровней секретности: Unclassified (несекретная), Confidential (конфиденциальная), Secret (секретная) и Top Secret (совершенно секретная). Отметим, ChatGPT допущен только к работе с несекретными данными. Однако ключевая обеспокоенность экспертов состоит в том, что в реальной практике граница между «несекретным» и «чувствительным» зачастую размыта, и пользователи могут непреднамеренно вводить в систему информацию более высокого уровня.
  3. xAI и слияние со SpaceX — xAI, компания Илона Маска, разработавшая модель Grok, была интегрирована в структуру SpaceX. Это знаменательное корпоративное событие, объединяющее ИИ-разработку с космическими и оборонными контрактами SpaceX. Упоминание в статье подчёркивает, что несколько крупнейших ИИ-компаний одновременно устремились на оборонный рынок.
  4. Public Citizen — влиятельная некоммерческая правозащитная организация в США, основанная Ральфом Нейдером в 1971 году. Занимается защитой прав потребителей, контролем над корпорациями и правительственной подотчётностью. Должность Дж. Б. Бранча — Big Tech Accountability Advocate (эксперт по ответственности крупных технологических компаний) — отражает относительно новое направление деятельности организации, сфокусированное на рисках, которые несут технологические гиганты.
  5. Проблема «чрезмерного доверия» к ИИ (overreliance) — хорошо задокументированный феномен в исследованиях человеко-машинного взаимодействия. Пользователи склонны воспринимать ответы ИИ как более авторитетные и точные, чем они есть на самом деле — особенно когда ответы сформулированы уверенным, профессиональным языком (что характерно для LLM). В военном контексте это создаёт риск так называемой automation bias (предвзятости автоматизации) — ситуации, когда оператор следует рекомендации машины вопреки собственному суждению или очевидным признакам ошибки.
  6. Пит Хегсет — министр обороны США в администрации Дональда Трампа (с 2025 года), бывший ведущий Fox News. Его назначение было одним из наиболее спорных кадровых решений Трампа. Упоминание его инициативы по развёртыванию ИИ в секретных сетях сигнализирует о значительно более амбициозных планах, чем текущее развёртывание ChatGPT только для несекретных данных.
  7. Авторизованная государственная облачная инфраструктура — речь идёт о так называемых GovCloud — специализированных облачных средах, которые предоставляют крупнейшие облачные провайдеры (AWS GovCloud, Microsoft Azure Government, Google Cloud для госсектора). Эти среды физически изолированы от коммерческих облаков, расположены на территории США, управляются сотрудниками с допуском и соответствуют требованиям программы FedRAMP (Federal Risk and Authorization Management Program).
  8. Контекст стремления к прибыльности — OpenAI, как и другие ИИ-компании, сжигает колоссальные средства на обучение и эксплуатацию моделей. Оборонные контракты — один из наиболее маржинальных и стабильных источников дохода. OpenAI, изначально позиционировавшая себя как исследовательскую организацию, ориентированную на «безопасный ИИ на благо всего человечества», прошла заметную эволюцию: от некоммерческой структуры к компании, активно ищущей государственные оборонные контракты.

Смотреть комментарии → Комментариев нет


Добавить комментарий

Имя обязательно

Нажимая на кнопку "Отправить", я соглашаюсь c политикой обработки персональных данных. Комментарий c активными интернет-ссылками (http / www) автоматически помечается как spam

Политика конфиденциальности - GDPR

Карта сайта →

По вопросам информационного сотрудничества, размещения рекламы и публикации объявлений пишите на адрес: rybinskonline@gmail.com

Поддержать проект:

PayPal – rybinskonline@gmail.com
WebMoney – Z399334682366, E296477880853, X100503068090

18+ © 2026 Такое кино: Самое интересное о культуре, технологиях, бизнесе и политике