Государство хочет тестировать AI до релиза: CAISI добавила Google, Microsoft и xAI
Center for AI Standards and Innovation подписал соглашения с Google DeepMind, Microsoft и xAI. Регуляторы получат доступ к моделям до их публичного релиза для оценки рисков.

Центр стандартов и инноваций в AI при Министерстве торговли США (CAISI) подписал соглашения с Google DeepMind, Microsoft и xAI. Теперь правительство сможет тестировать пограничные модели до публичного релиза, в том числе на национальные риски безопасности.
Что произошло
Анонс сделал NIST 5 мая 2026 года. CAISI получает доступ к новым frontier-моделям трёх компаний на дорелизном этапе. Тестирование будет проходить в защищённых средах и ориентировано на национальную безопасность — оценка возможностей, которые могут нести угрозу: киберпреступления, химическое и биологическое оружие, политическое влияние.
Принципиальный момент: разработчики передают CAISI модели с отключёнными или ослабленными ограничителями. Это значит, что регуляторы видят сырые возможности AI-системы — без внешних фильтров, которые ставят сами компании перед публичным запуском. Дополнительно подписан режим работы в classified-средах, чтобы тестирование было гибким и быстрым.
Соглашения с Google, Microsoft и xAI расширяют круг компаний под надзором CAISI. Аналогичные договоры с OpenAI и Anthropic существуют с 2024 года и были перезаключены в апреле–мае 2026-го с учётом новых директив министра торговли Говарда Латника и AI Action Plan администрации Трампа.
Что уже сделано
CAISI до этого момента провёл более 40 предрелизных оценок — в том числе моделей, которые ещё не доступны публично. Вокруг центра выстраивается основная экспертиза правительства США по тестированию AI-систем; раньше эту функцию частично выполнял отдельный AI Safety Institute, но при текущей администрации он был переименован и переориентирован.
Что входит в зону ответственности CAISI:
- Pre-deployment evaluations — тесты до релиза
- Возможности dual-use (двойного назначения)
- Кибер-возможности моделей
- Возможности по созданию химоружия и биооружия
- Targeted research по новым атакам и защитам
Почему это важно
Это первый случай, когда крупные американские AI-компании добровольно соглашаются дать государству доступ к моделям с отключёнными safeguards до релиза. До этого тестирование шло либо постфактум, либо в виде формальных раскрытий. Теперь регулятор получает ровно ту модель, которую разработчик запускает в обучение и инференс — без ограничителей.
Для Google, Microsoft и xAI это компромисс. С одной стороны, формальный доступ государства к internals моделей создаёт риски утечек и юридических осложнений. С другой — компании получают политическое прикрытие: если модель потом используют во вред, у них есть аргумент «мы прошли все проверки CAISI». В индустрии это воспринимается как снижение регуляторного давления в обмен на сотрудничество.
Для рынка появляется новый стандарт. Любой американский разработчик frontier-моделей сейчас вынужден или сотрудничать с CAISI, или объяснять, почему он этого не делает. Anthropic и OpenAI уже подписаны, а Meta, Mistral и китайские лабы — пока нет.
Что дальше
Скорее всего, через несколько месяцев CAISI опубликует первые результаты pre-deployment тестов — возможно, на ближайшие релизы Gemini и xAI Grok. Параллельно появится дискуссия о том, нужны ли подобные центры в Европе и Великобритании: AI Safety Institute UK уже работает, но не имеет таких широких полномочий.
Открытый вопрос — как это скажется на скорости релизов. Если CAISI начнёт затягивать тестирование, у компаний появится стимул запускать модели на международных площадках в обход. Пока что NIST уверяет, что соглашения «достаточно гибкие, чтобы реагировать на быстрые изменения в AI» — но как именно гибкие, увидим только на практике.
