GPT-5 без VPN

Aijora.ru — без ограничений

Попробовать бесплатно
Все новости
pentagonanthropicopenaigooglenvidianational-securityclaude

Пентагон договорился о секретном ИИ с восемью компаниями. Без Anthropic

Минобороны США подписало соглашения с OpenAI, Google, NVIDIA, Microsoft, AWS, Oracle, SpaceX и Reflection на работу с Claude-уровнем моделей в IL6/IL7. Anthropic — за бортом.

Влад МакаровВлад Макаровпроверил и опубликовал
7 мин чтения
Пентагон договорился о секретном ИИ с восемью компаниями. Без Anthropic

В пятницу Минобороны США объявило, что восемь компаний — SpaceX, OpenAI, Google, NVIDIA, Reflection, Microsoft, Amazon Web Services и Oracle — получили право развёртывать свои фронтирные модели на засекреченных сетях Пентагона. В списке нет Anthropic. Это финал многомесячного конфликта, который начался с разговоров о том, как именно армия использует Claude, и закончился судебным иском против собственного заказчика.

Как Anthropic стала «риском цепочки поставок»

Год назад Anthropic выглядела фаворитом гонки за оборонку. Летом 2025-го компания вместе с OpenAI, Google и xAI получила контракт на $200 млн на «фронтирные ИИ-проекты». Через Palantir Claude был интегрирован в классифицированные рабочие процессы — единственный из всех. Когда Пентагон в декабре 2025-го запустил GenAI.mil, генеративную платформу для всех военных, Anthropic была на «high-side» одной — на самой защищённой стороне.

Дальше всё развалилось быстро. По данным WSJ, Минобороны применяло Claude через Palantir в операции против Венесуэлы и захвате бывшего президента Николаса Мадуро. Anthropic, у которой публичная политика прямо запрещает «незаконное наблюдение, эксплуатацию людей и ущерб», начала возражать против определённых сценариев. К февралю 2026-го конфликт стал публичным: Пентагон внёс Anthropic в чёрный список как «риск цепочки поставок» — категория, которую обычно применяют к иностранным противникам. Anthropic подала в суд.

Дело до сих пор в активной фазе. Но новые контракты отвечают на главный вопрос: ждать ли Пентагон, пока юристы всё разрулят. Не ждёт.

Что именно подписано

Восемь компаний получили право работать в IL6 и IL7 — двух высших уровнях классификации данных. IL6 — это засекреченная нагрузка для облачных оборонных задач. IL7 — самый строгий уровень, который покрывает top secret и критическую информацию национальной безопасности. До сих пор почти весь генеративный ИИ Пентагона жил на IL5 — это «контролируемая неклассифицированная информация», что-то вроде корпоративного «для внутреннего пользования».

Восемь компаний и что они привносят:

  • OpenAI — флагманские GPT-5.5, к моменту контракта уже интегрирована в GenAI.mil
  • Google — Gemini 3.1, классифицированная сделка была анонсирована неделей раньше
  • NVIDIA — инфраструктура и собственные открытые модели
  • Microsoft — Azure Government, доступ к OpenAI через корпоративные контракты
  • AWS — Bedrock и Trainium/Inferentia в защищённых регионах
  • Oracle — облачные мощности OCI Government
  • SpaceX — связь Starlink + вычисления Starshield
  • Reflection — стартап с фронтирной open-source моделью

«Мы поняли, что безответственно зависеть от одного партнёра. И мы поняли, что этот партнёр не хотел работать с нами так, как мы хотели работать с ним». — Эмиль Майкл, CTO и заместитель министра обороны по исследованиям

В формулировке слышна обида. Пентагон специально подчеркнул в пресс-релизе, что модели будут использоваться для «законного оперативного применения» — попытка ответить на тревогу, которую вызвал конфликт с Anthropic.

Почему это важно

Тут две истории, и они тянут в разные стороны. Первая — про деньги. До сих пор Пентагон распределял контракты «из-под полы»: 1,3 млн пользователей GenAI.mil, десятки миллионов промптов, сотни тысяч агентов за пять месяцев. Расширение на IL6/IL7 означает, что весь этот объём теперь ляжет на восьмерых поставщиков, и каждый из них получит долю от рынка, измеряемого миллиардами долларов в год. Anthropic из этого пирога вычеркнут.

Вторая история — про цену принципов. Anthropic — единственная фронтирная лаборатория, которая прямо в публичной политике пишет, что её модели нельзя использовать для определённых классов оружия и наблюдения. Когда Пентагон захотел пользоваться Claude в реальных операциях так, как считал нужным, Anthropic упёрлась. Альтернативные провайдеры — OpenAI, Google, xAI — таких ограничений не ставят либо ставят мягко. Пентагон выбрал тех, кто соглашается на меньше условий.

Лорен Кан из Center for Security and Emerging Technology сказала, что Anthropic «проложила путь» — буквально: была первой, кто провёл интеграцию на high-side, и теперь по этой колее идут другие. Это горький сюжет: компания, которая открыла Пентагону дверь, осталась снаружи именно потому, что хотела сохранить контроль над тем, что происходит за этой дверью.

Что это значит

Для оборонной индустрии это переход от «эксперимента» к промышленной фазе. У Майкла была фраза о «AI-first fighting force» — она звучит как маркетинг, но за ней стоит вполне конкретная архитектура: восемь моделей, доступных одновременно, через которые проходят запросы на сравнение и которые конкурируют за пользователя. По сути — внутренний LM Arena внутри Пентагона.

Для разработчиков это означает, что compliance и security clearance становятся такими же важными, как качество модели. Reflection — сравнительно небольшой стартап — попал в восьмёрку, потому что предлагает open-source модель, которую можно поставить в air-gapped окружение. Это новый класс конкурентного преимущества: «мы дадим вам веса». OpenAI и Google этого не дают.

Для самой Anthropic — катастрофа в краткосрочной перспективе и проверка позиционирования в долгосрочной. Компания публично продаёт себя как «безопасная альтернатива» для предприятий, которые боятся ответственности. Если этот рынок реально существует — Anthropic может пережить потерю Пентагона. Если нет — конфликт закончится либо выкупом, либо тихим отступлением от собственных принципов.

Что дальше

Лорен Кан указывает на следующий шаг, который Пентагон не сделал, — обучение операторов работе с automation bias, склонностью переделегировать машине. Восемь моделей вместо одной — это решение проблемы зависимости от поставщика, но не проблемы понимания того, что эти модели делают. Без подготовки людей, которые с ними работают, разнообразие провайдеров превратится в разнообразие способов ошибаться.

Параллельно идёт суд Anthropic против Минобороны. Если компания выиграет — статус «supply chain risk» снимут, и теоретически Anthropic вернётся в игру. Но политически возврат уже невозможен: восемь компаний поделили рынок, и для девятой места нет. Anthropic строит новые альянсы — недавно стало известно о сотрудничестве с Apple через Project Glasswing — и, видимо, делает ставку на коммерческий B2B сегмент, а не на оборонный.

Главное, что показывает эта история: фронтирные модели стали инфраструктурой, и инфраструктуру власть концентрирует у тех, кто согласен играть по её правилам. Anthropic первой проверила, что бывает с теми, кто пытается ставить условия. Ответ оказался жёстким.

Похожие новости

Листайте вниз

для загрузки следующей статьи