GLM-4.7-Flash
GLM-4.7-Flash — быстрый и экономичный вариант GLM-4.7, оптимизированный для высокой скорости вывода и низкой задержки. Сохраняет возможности GLM-4.7 в области программирования, включая размышление перед действием, сохранение рассуждений между ходами и управление режимом мышления на уровне запроса. Построен на архитектуре MoE с 30B параметров. Идеален для приложений, требующих быстрых ответов при сохранении высокой производительности в кодинге, агентных workflow и общих задачах рассуждения.
Основные характеристики
Временная шкала
Технические характеристики
Ценообразование и доступность
Результаты бенчмарков
Показатели производительности модели на различных тестах и бенчмарках
Программирование
Рассуждения
Другие тесты
Лицензия и метаданные
Статьи о GLM-4.7-Flash
Фикс GLM-4.7 Flash в llama.cpp: перескачайте модель
Критический багфикс устранил зацикливание и плохие ответы. GGUF-файлы переконвертированы, нужно скачать заново.

GLM-4.7-Flash: китайский ответ на дорогие модели для кодинга
Z.ai выпустила GLM-4.7-Flash — open-source модель на 30B параметров с архитектурой MLA. Разбираем характеристики, бенчмарки, цены и сравнение с Claude.
Похожие модели
Все моделиGLM-4.5-Air
Zhipu AI
GLM-4.5
Zhipu AI
Hermes 3 70B
Nous Research
Llama 3.1 Nemotron 70B Instruct
NVIDIA
Phi 4
Microsoft
ERNIE 4.5
Baidu
Phi 4 Reasoning Plus
Microsoft
Phi 4 Reasoning
Microsoft
Рекомендации основаны на схожести характеристик: организация-разработчик, мультимодальность, размер параметров и производительность в бенчмарках. Выберите модель для сравнения или перейдите к полному каталогу для просмотра всех доступных моделей ИИ.