GPT-5 без VPN

Aijora.ru — без ограничений

Попробовать бесплатно
Все новости
anthropicclaudeпентагонвоенный AIdario amodei

Кастомный Claude для Пентагона — до готовности 1-2 месяца

Dario Amodei подтвердил создание специальных моделей Claude для военных. Как Anthropic оказалась между молотом Пентагона и наковальней принципов.

Влад МакаровВлад Макаровпроверил и опубликовал
8 мин чтения
Кастомный Claude для Пентагона — до готовности 1-2 месяца

В интервью CBS на прошлой неделе Дарио Амодеи сделал признание, которое до этого момента ходило лишь в виде слухов: Anthropic создала кастомные модели Claude специально для военных. По его словам, эти модели уже «революционизировали» работу разведки, а до полной готовности новой версии осталось 1-2 месяца. Признание прозвучало на фоне острейшего конфликта между компанией и Пентагоном — конфликта, который уже перекроил карту военного AI в США.

Первые на классифицированных сетях

Anthropic — не новичок в работе с военными. Компания первой среди всех AI-лабораторий развернула свои модели в засекреченных сетях Министерства обороны, первой пришла в национальные лаборатории, первой предложила кастомные модели для заказчиков из сферы нацбезопасности. Claude уже активно используется для анализа разведданных, моделирования, оперативного планирования и киберопераций.

Контракт оценивается в $200 млн. И именно эта глубокая интеграция делает текущий конфликт таким болезненным для обеих сторон.

Две красные линии

Суть спора сводится к двум пунктам, которые Anthropic отказалась убрать из контракта. Первый — запрет на массовую внутреннюю слежку. Дарио Амодеи подчёркивает, что AI-системы позволяют собирать разрозненные данные о перемещениях, веб-активности и контактах граждан в единую картину — автоматически и в масштабе. Закон пока просто не успел за этими возможностями.

Второй — запрет на полностью автономное оружие. Не на частично автономное (вроде того, что используется на Украине), а на системы, которые выбирают и поражают цели без участия человека. Позиция Anthropic: современные AI-модели недостаточно надёжны для этого. Компания предложила Пентагону совместные R&D-проекты по повышению надёжности, но предложение было отклонено.

Ультиматум и эскалация

Пентагон в лице министра обороны Пита Хегсета ответил жёстко. Anthropic получила ультиматум: убрать ограничения или лишиться контракта. Когда компания отказалась, Хегсет назвал поведение Anthropic «мастер-классом по высокомерию и предательству» и пообещал присвоить ей статус supply chain risk — ярлык, который до сих пор применялся только к противникам США, никогда к американской компании.

«Министерство обороны должно иметь полный, неограниченный доступ к моделям Anthropic для ЛЮБОГО ЗАКОННОГО использования» — Пит Хегсет, министр обороны

Угрозы содержали внутреннее противоречие, которое заметили многие: одновременно называть компанию угрозой безопасности и при этом объявлять её технологию критически важной для нацбезопасности — логически несовместимо.

Claude на поле боя — несмотря на бан

Самый драматичный поворот: по данным Wall Street Journal, Claude использовался при нанесении ударов по Ирану спустя считанные часы после того, как Трамп подписал указ о прекращении работы с Anthropic. Это показывает, насколько глубоко модель интегрирована в военные операции — заменить её за один день невозможно.

Хегсет дал военным шесть месяцев на переход на альтернативные решения. Но текущие события ставят этот срок под вопрос.

Кастомные модели: что известно

Амодеи раскрыл немного, но ключевое: Anthropic не просто предоставляет доступ к стандартному Claude, а создаёт специализированные модели для военных задач. Они оптимизированы под конкретные сценарии — анализ разведки, оперативное планирование, кибербезопасность. До полной готовности новой итерации — 1-2 месяца.

Это объясняет, почему Пентагон так остро реагирует на позицию Anthropic: найти замену кастомным моделям значительно сложнее, чем просто подключить другого AI-провайдера через API.

Что стоит за конфликтом

На поверхности — спор о формулировках контракта. Но по сути это первый настоящий тест того, кто решает, как использовать мощный AI: частные компании или государство. Пентагон считает, что решать должен он. Anthropic считает, что есть границы, которые нельзя пересекать даже по приказу.

Показательно, что после эскалации конфликта Claude взлетел на первое место в App Store, обогнав ChatGPT. Пользователи голосуют кошельком — точнее, подписками — за компанию, которая сказала «нет» Пентагону. Тротуары перед офисами Anthropic в Сан-Франциско покрылись одобрительными граффити мелом, а перед офисами OpenAI — критикой.

Anthropic заявила, что будет судиться, если статус supply chain risk будет реализован. Даже OpenAI выступила против этой меры, несмотря на то что именно она выиграла контракт. Конфликт далёк от завершения, а кастомный Claude для военных тем временем продолжает работать.

Похожие новости

Листайте вниз

для загрузки следующей статьи