GPT-5 без VPN

Aijora.ru — без ограничений

Попробовать бесплатно
Все новости
anthropicpentagonclaudeвоенный AIбезопасность

Пентагон готов внести Anthropic в чёрный список за отказ снять ограничения

Министр обороны Хегсет угрожает присвоить Anthropic статус supply chain risk — единственной AI-компании, сопротивляющейся требованиям Пентагона.

Влад МакаровВлад Макаровпроверил и опубликовал
8 мин чтения
Пентагон готов внести Anthropic в чёрный список за отказ снять ограничения

«Законы против массовой слежки не поспевают за тем, что может делать AI», — говорят в Anthropic. Пентагон в ответ готовит ядерный вариант: статус «supply chain risk», который заставит каждого оборонного подрядчика в стране отказаться от Claude.

Единственный отказник

После нескольких месяцев переговоров между Министерством обороны США и четырьмя крупнейшими AI-лабораториями — Anthropic, OpenAI, Google и xAI — ситуация дошла до точки кипения. Министр обороны Пит Хегсет, по данным Axios, «близок» к тому, чтобы полностью разорвать деловые отношения с Anthropic.

Суть спора проста и принципиальна. Пентагон требует от всех AI-компаний предоставить военным доступ к своим инструментам «для всех законных целей» — включая разработку вооружений, сбор разведданных и боевые операции. OpenAI, Google и xAI согласились снять защитные ограничения для неклассифицированных военных систем. Anthropic — единственная компания, которая продолжает сопротивляться.

При этом парадокс ситуации в том, что Claude — единственная фронтирная AI-модель, которая уже работает внутри классифицированных военных систем, через партнёрство с Palantir. Именно Claude использовался в операции по задержанию бывшего президента Венесуэлы Николаса Мадуро — об этом сообщил Wall Street Journal.

Что такое «supply chain risk» и почему это страшно

Статус «supply chain risk» — это не просто разрыв контракта. Это системное изгнание из всей оборонной экосистемы. Если Пентагон присвоит Anthropic этот статус, каждая компания, работающая с Министерством обороны, будет обязана подтвердить, что не использует Claude ни в каких своих рабочих процессах. Оборонные подрядчики, которые применяют Claude для внутренних задач — от анализа документов до написания кода — окажутся перед выбором: отказаться от Claude или потерять контракты с Пентагоном.

Масштаб последствий трудно переоценить. Оборонный сектор США — это экосистема на сотни миллиардов долларов, и многие компании в ней уже интегрировали Claude в свои рабочие процессы.

Чего боится Anthropic

Позиция Anthropic не в том, что компания отказывается работать с военными. Представитель Anthropic подтвердил Axios, что компания «по-прежнему привержена использованию фронтирного AI для поддержки национальной безопасности США» и готова ослабить текущие ограничения.

Но есть две красные линии, которые Anthropic не хочет переходить. Первая — массовая слежка за гражданами. Представитель компании прямо сказал Axios, что хотя законы против внутреннего наблюдения существуют, «они никак не поспевают за тем, что может делать AI». Именно поэтому Anthropic хочет закрепить ограничения контрактно, а не полагаться на юридические гарантии, которые могут оказаться устаревшими.

Вторая красная линия — полностью автономные системы вооружения. Anthropic настаивает на том, что определённые решения — в первую очередь решения о применении силы — не должны приниматься AI без участия человека.

Пентагон, со своей стороны, считает такие исключения «неработоспособными». Высокопоставленный чиновник администрации сказал Axios, что вокруг ограничений Anthropic существует «значительная серая зона», и Пентагону невозможно каждый раз согласовывать с компанией отдельные сценарии использования — или рисковать тем, что Claude неожиданно заблокирует ту или иную задачу.

Расстановка сил

Картина выглядит так: из четырёх главных AI-лабораторий три уже пошли на уступки Пентагону для неклассифицированных систем. Но ни одна из них пока не получила доступа к классифицированным сетям — то есть к самой чувствительной военной инфраструктуре. Этот доступ есть только у Anthropic через Palantir.

Источники Axios указывают, что жёсткая позиция Пентагона по отношению к Anthropic — это не изолированный конфликт, а сознательная стратегия. Давление на Anthropic «задаёт тон» для последующих переговоров с OpenAI, Google и xAI, когда дело дойдёт до классифицированных систем. Если Anthropic сломается, остальные компании получат чёткий сигнал: сопротивление бесполезно.

Gizmodo в своём разборе назвал Anthropic «единственной компанией, пытающейся сохранить публичный имидж создателя безопасного и этичного AI».

Почему это важно за пределами Америки

Этот конфликт — не просто корпоративная драма. Он определяет, как именно будет использоваться самый мощный AI в мире. Если Anthropic уступит, прецедент будет установлен: ни одна AI-компания не сможет устанавливать ограничения на военное использование своих моделей, если хочет оставаться в экосистеме крупнейшего оборонного заказчика мира.

Для мировой AI-индустрии это сигнал о смене правил игры. Принцип «ответственного AI», который компании вроде Anthropic закладывали в свои уставные документы, впервые столкнулся с реальной силой государственного давления — и пока неясно, выдержит ли он это столкновение.

Ближайшие недели покажут, чем закончится противостояние. Контракт Anthropic с Пентагоном подходит к моменту обновления, и решение Хегсета может последовать в любой день. Каким бы ни был исход, он определит отношения между AI-индустрией и военными на годы вперёд.

Похожие новости

Листайте вниз

для загрузки следующей статьи