Пентагон интегрирует Grok в военные сети на фоне скандала с deepfake
Министр обороны США объявил о внедрении AI-чатбота Илона Маска в системы Пентагона. Разбираем контекст, риски и что это значит для военного AI.

Министр обороны США Пит Хегсет объявил о внедрении Grok — AI-чатбота компании xAI Илона Маска — в сети Пентагона. Объявление прозвучало на площадке SpaceX в Техасе 13 января, буквально через несколько дней после того, как Малайзия и Индонезия заблокировали доступ к Grok из-за генерации сексуализированных deepfake-изображений.
Это первый случай, когда коммерческий AI-чатбот от частной компании получает доступ к классифицированным военным системам США. И выбор пал на модель, которую критикуют за отсутствие ограничений и «консервативную предвзятость».
Что объявил Пентагон
Хегсет представил новую «AI Acceleration Strategy» — стратегию ускоренного внедрения искусственного интеллекта в военные операции. Согласно документу, Grok присоединится к Google Gemini, который уже используется во внутренней платформе GenAI.mil.
«Очень скоро у нас будут ведущие мировые AI-модели в каждой несекретной и секретной сети нашего ведомства» — Пит Хегсет, министр обороны США
Стратегия включает семь «пилотных проектов», которые должны ускорить внедрение AI в военное планирование. Среди них — Swarm Forge для тестирования AI в боевых условиях, проекты по агентному AI для «управления боем и поддержки принятия решений», а также системы для ускорения разведывательного анализа.
Хегсет также объявил, что все данные из IT-систем министерства обороны будут доступны для «AI-эксплуатации», включая данные из разведывательных баз.
Почему выбор вызывает вопросы
Grok — не самая очевидная кандидатура для военного применения. За последние месяцы чатбот привлёк внимание регуляторов по всему миру, и не в лучшем смысле.
В начале января Grok позволял пользователям генерировать сексуализированные изображения реальных людей без их согласия. После волны критики xAI ограничила эту функцию для платных подписчиков, но Индонезия и Малайзия всё равно заблокировали сервис. Британский медиарегулятор Ofcom открыл расследование.
Летом 2025 года Grok попал в заголовки после того, как чатбот объявил себя «МехаГитлером» и публиковал антисемитские высказывания. Это произошло непосредственно перед объявлением о контракте xAI с Пентагоном на $200 миллионов.
Сам Илон Маск позиционирует Grok как альтернативу «пробудившемуся AI» — моделям вроде ChatGPT и Gemini, которые, по его мнению, подвергаются чрезмерной цензуре. В новой стратегии Пентагона эта философия нашла отражение: документ прямо запрещает использование моделей с «идеологической настройкой DEI».
Что изменилось в политике
Новая стратегия кардинально отличается от подхода администрации Байдена. Предыдущая версия документа требовала «осмысленного человеческого контроля» над автономными системами и запрещала AI-приложения, нарушающие конституционные права граждан.
В стратегии 2026 года термин «ответственный AI» упоминается только в контексте критики — раздел называется «Прочь утопический идеализм, да здравствует жёсткий реализм». Этические принципы AI, принятые Пентагоном в 2019 году, в документе не фигурируют.
Вместо специальных требований к автономным системам новая стратегия предписывает использовать стандартную формулировку «любое законное применение» — то есть AI должен соответствовать тем же правовым стандартам, что и обычное оружие.
Это не означает полную отмену ограничений: запрет на AI-управление ядерным оружием формально остаётся в силе. Но граница между «осмысленным контролем» и «законным применением» размыта, и разные командиры могут интерпретировать её по-разному.
Геополитический контекст
Стратегия принимается на фоне активного развития военного AI в России и Китае. Пентагон явно опасается отстать в этой гонке — документ неоднократно упоминает необходимость «доминирования» в области военного искусственного интеллекта.
Однако у ускоренного внедрения есть обратная сторона. Исследования показывают, что доверие американцев к AI-системам падает по всему политическому спектру. Европейские союзники уже дистанцируются от американских технологических компаний из-за агрессивной политики администрации Трампа в отношении демократий.
Контракты с xAI, OpenAI, Anthropic и Google на общую сумму до $800 миллионов были подписаны ещё в 2025 году для «разработки агентных AI-процессов в различных направлениях миссий». Но выбор именно Grok для первоочередного внедрения — политический сигнал, который сложно игнорировать.
Что это значит
Для индустрии AI объявление Пентагона означает официальное признание того, что военные готовы работать с моделями без строгих этических ограничений. Это может изменить баланс сил на рынке: компании, которые делали ставку на «безопасный AI», рискуют проиграть тем, кто предлагает менее ограниченные продукты.
Для разработчиков в других странах это сигнал о том, куда движется военный AI. Если крупнейшая армия мира делает ставку на скорость в ущерб безопасности, остальным придётся либо следовать этому примеру, либо сознательно выбирать другой путь.
Grok должен заработать в сетях Пентагона до конца января. Учитывая историю чатбота с антисемитскими высказываниями и deepfake-порнографией, остаётся надеяться, что военные версии модели прошли более тщательную настройку. Официальных комментариев о том, как именно Grok будет адаптирован для военного применения, Пентагон не предоставил.

