GPT-5 без VPN

Aijora.ru — без ограничений

Попробовать бесплатно
Все новости
zhipuglmchinahuaweiopen-source

GLM-5.1 набрала 94,6% от Claude Opus — без единого чипа NVIDIA

Zhipu AI выпустила GLM-5.1 с 744 млрд параметров. Модель обучена на Huawei Ascend и догоняет Claude Opus 4.6 в кодинге.

Влад МакаровВлад Макаровпроверил и опубликовал
7 мин чтения
GLM-5.1 набрала 94,6% от Claude Opus — без единого чипа NVIDIA

Что произойдёт, если компания с оценкой в $31,3 млрд обучит 744-миллиардную модель исключительно на китайских чипах — и эта модель наберёт 94,6% от результатов Claude Opus 4.6 в кодинге? Именно это случилось 27 марта, когда Zhipu AI выпустила GLM-5.1.

От GLM-5 к GLM-5.1

GLM-5.1 — не новая архитектура, а пост-тренинговая доработка GLM-5, вышедшего в феврале. Базовая модель осталась той же: 744 миллиарда параметров в архитектуре Mixture-of-Experts, из которых 40-44 миллиарда активны на каждый токен. 256 экспертов, 8 активных одновременно, контекст 200K токенов.

Главное изменение — кодинг. Результат на бенчмарках программирования вырос с 35,4 (GLM-5) до 45,3 (GLM-5.1) — скачок на 28%. Для сравнения: Claude Opus 4.6 набирает 47,9. Разрыв, который казался непреодолимым, теперь составляет чуть больше двух пунктов.

Добились этого через многоступенчатый пост-тренинг: сначала multi-task SFT, затем Reasoning RL, Agentic RL, General RL и наконец кросс-стадийная дистилляция. Подход не уникален — похожие пайплайны используют и другие лаборатории — но результат впечатляет.

ПараметрGLM-5GLM-5.1Claude Opus 4.6
Кодинг (бенчмарк)35,445,347,9
Улучшение+28%
Параметры744B MoE744B MoEНе раскрыто
Контекст200K200K1M
ЛицензияMITMITПроприетарная

Без NVIDIA — и это важно

Весь тренинг GLM-5 и 5.1 проходил на 100 000 чипах Huawei Ascend 910B. Ни одного NVIDIA GPU. Учитывая экспортные ограничения США на поставки AI-чипов в Китай, это принципиальный момент: Zhipu доказала, что фронтирные модели можно обучать на отечественном железе.

Это не первая китайская модель, обученная на Ascend — DeepSeek и Baidu также экспериментируют с Huawei. Но GLM-5.1 впервые подошла настолько близко к западным фронтирным моделям в конкретной практической задаче. Результат особенно показателен на фоне того, что Ascend 910B уступает NVIDIA H100 по производительности на операцию — компенсировать приходится количеством чипов и оптимизацией инфраструктуры.

Zhipu разработала для этого собственную систему асинхронного обучения с подкреплением — slime, которая повышает пропускную способность тренинга и позволяет проводить более тонкие итерации пост-тренинга.

Open-weights и MIT

GLM-5.1 распространяется под лицензией MIT — это максимально открытая лицензия, позволяющая коммерческое использование без ограничений. Веса доступны на HuggingFace и GitHub. Для сравнения: Claude — полностью проприетарная модель, и даже открытые модели Meta (Llama) используют более ограничительную лицензию.

Для разработчиков это означает возможность развернуть модель уровня фронтира на собственных серверах. 744B параметров требуют серьёзной инфраструктуры, но MoE-архитектура с 40B активных параметров делает inference сопоставимым по стоимости с 70B-моделями.

Что дальше для Zhipu

Компания вышла на IPO на Гонконгской бирже в январе 2026 с оценкой $31,3 млрд — это одна из крупнейших AI-компаний Китая. GLM-5.1 — аргумент для инвесторов, что вложения окупаются. Zhipu активно развивает и мультимодальные возможности: GLM-5 уже поддерживает работу с изображениями и длинным контекстом.

Разрыв с западными фронтирными моделями продолжает сокращаться. Если темп сохранится, GLM-6 может стать первой китайской моделью, которая сравняется с лидерами по всем основным бенчмаркам — а не только по кодингу.

Похожие новости

Листайте вниз

для загрузки следующей статьи