GPT-5 без VPN

Aijora.ru — без ограничений

Попробовать бесплатно
Все новости
anthropicclaudeвоенный-ииiranmavenpalantirpentagon

Claude помог нанести 1000 ударов по Ирану за 24 часа — что раскрыл Washington Post

Washington Post рассекретил роль Claude от Anthropic в военной операции США против Ирана. ИИ работал как движок принятия решений в Maven Smart System.

Влад МакаровВлад Макаровпроверил и опубликовал
8 мин чтения
Claude помог нанести 1000 ударов по Ирану за 24 часа — что раскрыл Washington Post

4 марта Washington Post опубликовал материал, который поставил Anthropic в центр главного военного конфликта последних месяцев. Журналисты Тара Копп, Элизабет Двоскин и Иэн Данкан выяснили: Claude — тот самый «безопасный» ИИ-ассистент, которым пользуются миллионы людей для написания текстов и кода, — работал как интеллектуальное ядро системы наведения ударов по Ирану. За первые 24 часа операции, начавшейся 28 февраля, было поражено более 1000 целей.

Как Claude оказался на войне

За последние девять лет Пентагон методично строил то, что называется Maven Smart System. Разработку вела Palantir Technologies — компания, чья рыночная капитализация недавно достигла $350 млрд. В ноябре 2025 года Palantir заключила партнёрство с Anthropic: Claude стал «движком рассуждений» всей системы.

Технически это выглядело так: Claude в режиме реального времени анализировал снимки со спутников, данные дронов, перехваченные переговоры и ещё 150+ источников данных. Он предлагал координаты целей, ранжировал приоритеты, готовил варианты решений. Финальное решение формально оставалось за людьми — «люди всё ещё нажимали кнопку», как выразился представитель CENTCOM капитан Тимоти Хокинс.

Ключевым эффектом стало сжатие времени. Традиционная цепочка принятия решений о ударе занимала 72 часа. С Maven — несколько часов. Именно это сделало возможным то, что военные называют «1000 решений в час»: идентификация и квалификация тысячи объектов в режиме, недостижимом для любого аналитика-человека.

Скандал внутри скандала

История стала бы просто значимым репортажем о военных технологиях, если бы не один факт: Claude официально находился под запретом. Администрация Трампа в феврале объявила Anthropic «риском для цепочки поставок» и потребовала вывести продукты компании из федеральных систем за шесть месяцев. Трамп лично написал в соцсетях: «Нам это не нужно, мы этого не хотим и больше не будем с ними работать!»

Тем не менее Claude продолжал работать в CENTCOM — и работал во время иранской кампании.

Почему произошёл этот запрет? Дело в принципиальном конфликте. Пентагон хотел снять ограничения: разрешить Claude работать в режиме полной автономии (без обязательного участия человека) и обеспечить масштабную слежку за мирным населением. Anthropic отказалась. Дарио Амодеи объяснил позицию компании прямо:

«Современные системы ИИ просто недостаточно надёжны для управления полностью автономным оружием. Без надлежащего надзора автономное оружие не может быть наделено критическим суждением, необходимым на войне.» — Дарио Амодеи, CEO Anthropic

9 марта Anthropic подала в суд на Пентагон, оспаривая статус «риска для цепочки поставок» как незаконный и беспрецедентный.

Девять лет до часа X

Maven — не новинка. Система дебютировала в операциях против «Аль-Шабааб» в Сомали. Затем — Ирак, Сирия, поддержка Украины. В апреле 2025 года NATO приобрела Maven через Palantir. К февралю 2026-го система прошла боевую обкатку на нескольких театрах военных действий и была готова к применению в масштабах, о которых прежде не говорили публично.

2000+ целей за шесть дней операции — цифра, которую Bloomberg подтвердил отдельным материалом. Для сравнения: израильская система Lavender в 2024 году составила профили 37 000 целей в Газе и уже вызвала расследования о возможных военных преступлениях.

Что это означает для ИИ-отрасли

Случившееся сломало несколько нарративов одновременно. Первый: что «безопасный» ИИ и военный ИИ — разные категории. Anthropic строила свою идентичность на идее безопасного развития технологий. Теперь оказалось, что граница между «ассистентом для офиса» и системой наведения ударов — вопрос контракта и API-ключа.

Второй нарратив, который рухнул: что корпоративные этические принципы что-то значат в противостоянии с государственным заказчиком. Anthropic отказала Пентагону в снятии ограничений — и обнаружила, что её продукт всё равно используется, просто через Palantir. При этом сама компания лишилась федеральных контрактов и получила враждебный ярлык «риска для цепочки поставок».

Третий: что публичный запрет означает реальный запрет. Разрыв между официальными декларациями и тем, что происходит на военных серверах, теперь документально подтверждён Washington Post.

Что дальше

Иск Anthropic против Пентагона — беспрецедентный шаг. Компания, разрабатывающая ИИ, судится с военным ведомством, которое использует её технологию вопреки желанию самой компании. Исход этого дела будет прецедентом для всей отрасли: может ли разработчик контролировать, как его модель применяется в вооружённых силах?

Пока суд не вынес решения, Claude продолжает работать там, где ему, по мнению Anthropic, работать не следует. Это, пожалуй, самая точная характеристика положения дел в военном ИИ сегодня.

Похожие новости

Листайте вниз

для загрузки следующей статьи