GPT-5 без VPN

Aijora.ru — без ограничений

Попробовать бесплатно
Все новости
caisigooglemicrosoftxairegulationai-safety

Государство хочет тестировать AI до релиза: CAISI добавила Google, Microsoft и xAI

Center for AI Standards and Innovation подписал соглашения с Google DeepMind, Microsoft и xAI. Регуляторы получат доступ к моделям до их публичного релиза для оценки рисков.

Влад МакаровВлад Макаровпроверил и опубликовал
3 мин чтения
Государство хочет тестировать AI до релиза: CAISI добавила Google, Microsoft и xAI

Центр стандартов и инноваций в AI при Министерстве торговли США (CAISI) подписал соглашения с Google DeepMind, Microsoft и xAI. Теперь правительство сможет тестировать пограничные модели до публичного релиза, в том числе на национальные риски безопасности.

Что произошло

Анонс сделал NIST 5 мая 2026 года. CAISI получает доступ к новым frontier-моделям трёх компаний на дорелизном этапе. Тестирование будет проходить в защищённых средах и ориентировано на национальную безопасность — оценка возможностей, которые могут нести угрозу: киберпреступления, химическое и биологическое оружие, политическое влияние.

Принципиальный момент: разработчики передают CAISI модели с отключёнными или ослабленными ограничителями. Это значит, что регуляторы видят сырые возможности AI-системы — без внешних фильтров, которые ставят сами компании перед публичным запуском. Дополнительно подписан режим работы в classified-средах, чтобы тестирование было гибким и быстрым.

Соглашения с Google, Microsoft и xAI расширяют круг компаний под надзором CAISI. Аналогичные договоры с OpenAI и Anthropic существуют с 2024 года и были перезаключены в апреле–мае 2026-го с учётом новых директив министра торговли Говарда Латника и AI Action Plan администрации Трампа.

Что уже сделано

CAISI до этого момента провёл более 40 предрелизных оценок — в том числе моделей, которые ещё не доступны публично. Вокруг центра выстраивается основная экспертиза правительства США по тестированию AI-систем; раньше эту функцию частично выполнял отдельный AI Safety Institute, но при текущей администрации он был переименован и переориентирован.

Что входит в зону ответственности CAISI:

  • Pre-deployment evaluations — тесты до релиза
  • Возможности dual-use (двойного назначения)
  • Кибер-возможности моделей
  • Возможности по созданию химоружия и биооружия
  • Targeted research по новым атакам и защитам

Почему это важно

Это первый случай, когда крупные американские AI-компании добровольно соглашаются дать государству доступ к моделям с отключёнными safeguards до релиза. До этого тестирование шло либо постфактум, либо в виде формальных раскрытий. Теперь регулятор получает ровно ту модель, которую разработчик запускает в обучение и инференс — без ограничителей.

Для Google, Microsoft и xAI это компромисс. С одной стороны, формальный доступ государства к internals моделей создаёт риски утечек и юридических осложнений. С другой — компании получают политическое прикрытие: если модель потом используют во вред, у них есть аргумент «мы прошли все проверки CAISI». В индустрии это воспринимается как снижение регуляторного давления в обмен на сотрудничество.

Для рынка появляется новый стандарт. Любой американский разработчик frontier-моделей сейчас вынужден или сотрудничать с CAISI, или объяснять, почему он этого не делает. Anthropic и OpenAI уже подписаны, а Meta, Mistral и китайские лабы — пока нет.

Что дальше

Скорее всего, через несколько месяцев CAISI опубликует первые результаты pre-deployment тестов — возможно, на ближайшие релизы Gemini и xAI Grok. Параллельно появится дискуссия о том, нужны ли подобные центры в Европе и Великобритании: AI Safety Institute UK уже работает, но не имеет таких широких полномочий.

Открытый вопрос — как это скажется на скорости релизов. Если CAISI начнёт затягивать тестирование, у компаний появится стимул запускать модели на международных площадках в обход. Пока что NIST уверяет, что соглашения «достаточно гибкие, чтобы реагировать на быстрые изменения в AI» — но как именно гибкие, увидим только на практике.

Похожие новости

Листайте вниз

для загрузки следующей статьи