GLM-5.1 набрала 94,6% от Claude Opus — без единого чипа NVIDIA
Zhipu AI выпустила GLM-5.1 с 744 млрд параметров. Модель обучена на Huawei Ascend и догоняет Claude Opus 4.6 в кодинге.

Что произойдёт, если компания с оценкой в $31,3 млрд обучит 744-миллиардную модель исключительно на китайских чипах — и эта модель наберёт 94,6% от результатов Claude Opus 4.6 в кодинге? Именно это случилось 27 марта, когда Zhipu AI выпустила GLM-5.1.
От GLM-5 к GLM-5.1
GLM-5.1 — не новая архитектура, а пост-тренинговая доработка GLM-5, вышедшего в феврале. Базовая модель осталась той же: 744 миллиарда параметров в архитектуре Mixture-of-Experts, из которых 40-44 миллиарда активны на каждый токен. 256 экспертов, 8 активных одновременно, контекст 200K токенов.
Главное изменение — кодинг. Результат на бенчмарках программирования вырос с 35,4 (GLM-5) до 45,3 (GLM-5.1) — скачок на 28%. Для сравнения: Claude Opus 4.6 набирает 47,9. Разрыв, который казался непреодолимым, теперь составляет чуть больше двух пунктов.
Добились этого через многоступенчатый пост-тренинг: сначала multi-task SFT, затем Reasoning RL, Agentic RL, General RL и наконец кросс-стадийная дистилляция. Подход не уникален — похожие пайплайны используют и другие лаборатории — но результат впечатляет.
| Параметр | GLM-5 | GLM-5.1 | Claude Opus 4.6 |
|---|---|---|---|
| Кодинг (бенчмарк) | 35,4 | 45,3 | 47,9 |
| Улучшение | — | +28% | — |
| Параметры | 744B MoE | 744B MoE | Не раскрыто |
| Контекст | 200K | 200K | 1M |
| Лицензия | MIT | MIT | Проприетарная |
Без NVIDIA — и это важно
Весь тренинг GLM-5 и 5.1 проходил на 100 000 чипах Huawei Ascend 910B. Ни одного NVIDIA GPU. Учитывая экспортные ограничения США на поставки AI-чипов в Китай, это принципиальный момент: Zhipu доказала, что фронтирные модели можно обучать на отечественном железе.
Это не первая китайская модель, обученная на Ascend — DeepSeek и Baidu также экспериментируют с Huawei. Но GLM-5.1 впервые подошла настолько близко к западным фронтирным моделям в конкретной практической задаче. Результат особенно показателен на фоне того, что Ascend 910B уступает NVIDIA H100 по производительности на операцию — компенсировать приходится количеством чипов и оптимизацией инфраструктуры.
Zhipu разработала для этого собственную систему асинхронного обучения с подкреплением — slime, которая повышает пропускную способность тренинга и позволяет проводить более тонкие итерации пост-тренинга.
Open-weights и MIT
GLM-5.1 распространяется под лицензией MIT — это максимально открытая лицензия, позволяющая коммерческое использование без ограничений. Веса доступны на HuggingFace и GitHub. Для сравнения: Claude — полностью проприетарная модель, и даже открытые модели Meta (Llama) используют более ограничительную лицензию.
Для разработчиков это означает возможность развернуть модель уровня фронтира на собственных серверах. 744B параметров требуют серьёзной инфраструктуры, но MoE-архитектура с 40B активных параметров делает inference сопоставимым по стоимости с 70B-моделями.
Что дальше для Zhipu
Компания вышла на IPO на Гонконгской бирже в январе 2026 с оценкой $31,3 млрд — это одна из крупнейших AI-компаний Китая. GLM-5.1 — аргумент для инвесторов, что вложения окупаются. Zhipu активно развивает и мультимодальные возможности: GLM-5 уже поддерживает работу с изображениями и длинным контекстом.
Разрыв с западными фронтирными моделями продолжает сокращаться. Если темп сохранится, GLM-6 может стать первой китайской моделью, которая сравняется с лидерами по всем основным бенчмаркам — а не только по кодингу.


