GPT-5 без VPN

Aijora.ru — без ограничений

Попробовать бесплатно
Все новости
qwenalibabaopen-sourceкодингрелизMoE

Qwen3-Coder-Next: 70% SWE-bench при 3B активных параметрах

Alibaba выпустила Qwen3-Coder-Next — открытую MoE-модель для кодинга с 80B параметрами, которая запускается локально и конкурирует с GPT-5.2-Codex.

Влад МакаровВлад Макаровпроверил и опубликовал
6 мин чтения
Упоминаемые модели
Qwen3-Coder-Next: 70% SWE-bench при 3B активных параметрах

3 миллиарда активных параметров. 70.6% на SWE-Bench Verified. Apache 2.0. Запускается на машине с 64 ГБ RAM. Alibaba только что доказала, что для агентного кодинга не нужны триллионные бюджеты — нужна правильная архитектура.

Почему это важно

Qwen3-Coder-Next построена на базе Qwen3-Next-80B-A3B-Base — новой архитектуре, сочетающей гибридное внимание (Gated DeltaNet + Gated Attention) с Mixture-of-Experts. Из 80 миллиардов общих параметров при каждом запросе активируются только 3 миллиарда. Это означает скорость и экономию ресурсов, которую раньше получали только при работе с моделями класса 7B, но с качеством рассуждений, сопоставимым с куда более крупными моделями.

На SWE-Bench Pro — более сложной и устойчивой к контаминации версии бенчмарка — Qwen3-Coder-Next показывает результаты, сравнимые с моделями в 10-20 раз большего размера по активным параметрам. При масштабировании количества агентных ходов производительность продолжает расти, что говорит о реальных способностях к долгосрочному рассуждению.

Технические характеристики

ПараметрЗначение
Общие параметры80B
Активные параметры3B
АрхитектураHybrid Attention + MoE
Количество экспертов512 (10 активных + 1 общий)
Контекст256K токенов (нативно)
Слои48 (12 блоков по 4 слоя)
ЛицензияApache 2.0

Архитектура устроена необычно: каждый блок состоит из трёх слоёв с Gated DeltaNet (линейное внимание) и одного слоя с полноценным Gated Attention. DeltaNet обеспечивает быструю обработку рутинных паттернов, а Attention включается для сложного рассуждения. MoE-слой с 512 экспертами добавляет специализацию — каждый запрос маршрутизируется к 10 наиболее релевантным экспертам.

Как обучали

Команда Qwen сделала ставку не на масштабирование параметров, а на масштабирование агентных обучающих сигналов. Процесс включал несколько этапов: продолженный предтренинг на коде и агентных данных, файнтюнинг на высококачественных траекториях агентов, специализированное обучение доменных экспертов (software engineering, QA, веб-разработка), и наконец дистилляция экспертов в единую модель.

Ключевой акцент — на долгосрочном рассуждении, использовании инструментов и восстановлении после ошибок выполнения. Модель не просто генерирует код, она учится взаимодействовать со средой: запускать тесты, анализировать ошибки, корректировать подход.

Бенчмарки

БенчмаркQwen3-Coder-Next (3B акт.)Результат
SWE-Bench Verified70.6%Сопоставим с моделями 30-60B акт.
SWE-Bench ProКонкурентныйРастёт с числом ходов
SWE-Bench MultilingualКонкурентныйРаботает за пределами Python
Terminal-Bench 2.0КонкурентныйТерминальные задачи
AiderКонкурентныйИнтеграция с IDE

Модель работает только в режиме non-thinking — без блоков <think>. Это осознанный выбор: для агентного кодинга важнее скорость итераций, чем длинные цепочки рассуждений внутри одного ответа.

Как запустить локально

Модель доступна на Hugging Face и совместима с основными фреймворками: Ollama, LM Studio, MLX-LM, llama.cpp и KTransformers. Для инференса через API подходят SGLang (v0.5.8+) и vLLM (v0.15.0+).

Минимальная конфигурация для запуска — машина с 64 ГБ RAM при использовании квантизации. Без квантизации потребуется 2 GPU с tensor parallelism. Qwen рекомендует параметры сэмплирования: temperature=1.0, top_p=0.95, top_k=40.

Интеграции с IDE уже доступны: Claude Code, Qwen Code, Cline, OpenClaw, browser-use агент. На сайте coder.qwen.ai можно попробовать модель через веб-интерфейс.

Что это меняет

До Qwen3-Coder-Next агентный кодинг был территорией проприетарных моделей. Чтобы получить 70%+ на SWE-Bench, нужно было платить за API OpenAI или Anthropic. Теперь этот уровень доступен локально, на собственном железе, с Apache 2.0 лицензией.

Для компаний, обеспокоенных конфиденциальностью кода, это меняет расклад. Можно развернуть агента на внутреннем сервере, без отправки кода на внешние API. Для стартапов и инди-разработчиков — это бесплатная альтернатива Codex и Claude Code, которая работает на MacBook с 64 ГБ памяти.

Впрочем, Qwen честно признаёт: пространство для улучшений ещё огромно. Следующие шаги — усиление рассуждений и принятия решений, поддержка большего количества задач и быстрая итерация на основе обратной связи от пользователей.

Похожие новости

Листайте вниз

для загрузки следующей статьи