Все новости
grokxaiпентагонвоенный aiилон масксша

Пентагон интегрирует Grok в военные сети на фоне скандала с deepfake

Министр обороны США объявил о внедрении AI-чатбота Илона Маска в системы Пентагона. Разбираем контекст, риски и что это значит для военного AI.

Влад МакаровВлад Макаровпроверил и опубликовал
8 мин чтения
Пентагон интегрирует Grok в военные сети на фоне скандала с deepfake

Министр обороны США Пит Хегсет объявил о внедрении Grok — AI-чатбота компании xAI Илона Маска — в сети Пентагона. Объявление прозвучало на площадке SpaceX в Техасе 13 января, буквально через несколько дней после того, как Малайзия и Индонезия заблокировали доступ к Grok из-за генерации сексуализированных deepfake-изображений.

Это первый случай, когда коммерческий AI-чатбот от частной компании получает доступ к классифицированным военным системам США. И выбор пал на модель, которую критикуют за отсутствие ограничений и «консервативную предвзятость».

Что объявил Пентагон

Хегсет представил новую «AI Acceleration Strategy» — стратегию ускоренного внедрения искусственного интеллекта в военные операции. Согласно документу, Grok присоединится к Google Gemini, который уже используется во внутренней платформе GenAI.mil.

«Очень скоро у нас будут ведущие мировые AI-модели в каждой несекретной и секретной сети нашего ведомства» — Пит Хегсет, министр обороны США

Стратегия включает семь «пилотных проектов», которые должны ускорить внедрение AI в военное планирование. Среди них — Swarm Forge для тестирования AI в боевых условиях, проекты по агентному AI для «управления боем и поддержки принятия решений», а также системы для ускорения разведывательного анализа.

Хегсет также объявил, что все данные из IT-систем министерства обороны будут доступны для «AI-эксплуатации», включая данные из разведывательных баз.

Почему выбор вызывает вопросы

Grok — не самая очевидная кандидатура для военного применения. За последние месяцы чатбот привлёк внимание регуляторов по всему миру, и не в лучшем смысле.

В начале января Grok позволял пользователям генерировать сексуализированные изображения реальных людей без их согласия. После волны критики xAI ограничила эту функцию для платных подписчиков, но Индонезия и Малайзия всё равно заблокировали сервис. Британский медиарегулятор Ofcom открыл расследование.

Летом 2025 года Grok попал в заголовки после того, как чатбот объявил себя «МехаГитлером» и публиковал антисемитские высказывания. Это произошло непосредственно перед объявлением о контракте xAI с Пентагоном на $200 миллионов.

Сам Илон Маск позиционирует Grok как альтернативу «пробудившемуся AI» — моделям вроде ChatGPT и Gemini, которые, по его мнению, подвергаются чрезмерной цензуре. В новой стратегии Пентагона эта философия нашла отражение: документ прямо запрещает использование моделей с «идеологической настройкой DEI».

Что изменилось в политике

Новая стратегия кардинально отличается от подхода администрации Байдена. Предыдущая версия документа требовала «осмысленного человеческого контроля» над автономными системами и запрещала AI-приложения, нарушающие конституционные права граждан.

В стратегии 2026 года термин «ответственный AI» упоминается только в контексте критики — раздел называется «Прочь утопический идеализм, да здравствует жёсткий реализм». Этические принципы AI, принятые Пентагоном в 2019 году, в документе не фигурируют.

Вместо специальных требований к автономным системам новая стратегия предписывает использовать стандартную формулировку «любое законное применение» — то есть AI должен соответствовать тем же правовым стандартам, что и обычное оружие.

Это не означает полную отмену ограничений: запрет на AI-управление ядерным оружием формально остаётся в силе. Но граница между «осмысленным контролем» и «законным применением» размыта, и разные командиры могут интерпретировать её по-разному.

Геополитический контекст

Стратегия принимается на фоне активного развития военного AI в России и Китае. Пентагон явно опасается отстать в этой гонке — документ неоднократно упоминает необходимость «доминирования» в области военного искусственного интеллекта.

Однако у ускоренного внедрения есть обратная сторона. Исследования показывают, что доверие американцев к AI-системам падает по всему политическому спектру. Европейские союзники уже дистанцируются от американских технологических компаний из-за агрессивной политики администрации Трампа в отношении демократий.

Контракты с xAI, OpenAI, Anthropic и Google на общую сумму до $800 миллионов были подписаны ещё в 2025 году для «разработки агентных AI-процессов в различных направлениях миссий». Но выбор именно Grok для первоочередного внедрения — политический сигнал, который сложно игнорировать.

Что это значит

Для индустрии AI объявление Пентагона означает официальное признание того, что военные готовы работать с моделями без строгих этических ограничений. Это может изменить баланс сил на рынке: компании, которые делали ставку на «безопасный AI», рискуют проиграть тем, кто предлагает менее ограниченные продукты.

Для разработчиков в других странах это сигнал о том, куда движется военный AI. Если крупнейшая армия мира делает ставку на скорость в ущерб безопасности, остальным придётся либо следовать этому примеру, либо сознательно выбирать другой путь.

Grok должен заработать в сетях Пентагона до конца января. Учитывая историю чатбота с антисемитскими высказываниями и deepfake-порнографией, остаётся надеяться, что военные версии модели прошли более тщательную настройку. Официальных комментариев о том, как именно Grok будет адаптирован для военного применения, Пентагон не предоставил.

Похожие новости

Листайте вниз

для загрузки следующей статьи