Qwen3-Coder-Next оказалась не просто кодером
Сообщество обнаружило, что 80B MoE-модель от Alibaba — лучшая general-purpose LLM своего размера. Apache 2.0, локальный запуск, сравнения с Claude Sonnet.

Alibaba выпустила Qwen3-Coder-Next как специализированную модель для кодинга. Сообщество решило иначе — и начало использовать её для всего подряд.
Кодер, который умеет не только кодить
Когда команда Qwen в начале февраля представила Qwen3-Coder-Next, акцент был очевиден: 70.6% на SWE-Bench Verified, агентные траектории обучения, поддержка 370 языков программирования. Типичный релиз кодинг-модели — мощный, но нишевый.
А потом пользователи на r/LocalLLaMA начали тестировать модель за пределами кода. И оказалось, что Qwen3-Coder-Next — одна из самых умных open-source моделей вообще. На Latent.Space тред с заголовком «It's the Smartest General Purpose Model of its Size» набрал 837 единиц активности. Люди сравнивают её с Claude Sonnet 4.5 по качеству рассуждений — при том, что модель запускается локально на машине с 64 ГБ RAM.
Почему так? Ответ кроется в самой природе кодинга как задачи. Чтобы хорошо писать код, модель должна понимать контекст, логически рассуждать, планировать на несколько шагов вперёд и восстанавливаться после ошибок. Это те же навыки, которые нужны для любой сложной интеллектуальной работы — от анализа документов до написания текстов.
Архитектурный трюк: 80B параметров, 3B работают
Qwen3-Coder-Next использует ультра-разреженную архитектуру Mixture-of-Experts. Из 80 миллиардов общих параметров при каждом запросе активируются только 3 миллиарда — маршрутизируясь к 10 из 512 специализированных экспертов. Это означает скорость инференса, сравнимую с моделью 3B, при качестве мышления, характерном для куда более крупных систем.
Второй ключевой элемент — гибридное внимание. Каждый блок модели состоит из трёх слоёв с Gated DeltaNet (линейная сложность) и одного слоя с полноценным Gated Attention. DeltaNet обрабатывает рутинные паттерны дёшево и быстро, а Attention включается для сложного рассуждения. Результат — контекстное окно в 262K токенов без квадратичного взрыва вычислений.
На практике это значит, что модель может «прочитать» целый Python-проект или JavaScript-фреймворк и ответить со скоростью лёгкой модели, сохраняя глубину понимания тяжёлой.
Что говорит сообщество
На Reddit развернулась занимательная дискуссия. Пользователи, которые раньше держали отдельные модели для кода и для «общих» задач, начали переключаться на Qwen3-Coder-Next как единственную локальную LLM. Аргументы: модель лучше следует инструкциям, точнее рассуждает и реже галлюцинирует, чем general-purpose модели аналогичного размера.
Один из самых обсуждаемых моментов — сравнение с закрытыми моделями. Пользователь на r/LocalLLaMA описал Qwen3-Coder-Next как «первую юзабельную кодинг-модель до 60 ГБ», но добавил, что для него она стала основной моделью и для креативного письма, и для анализа данных. Другие сравнивали качество рассуждений с Claude Sonnet 4.5 — и хотя облачная модель Anthropic по-прежнему впереди по абсолютному качеству, разрыв оказался значительно меньше, чем ожидалось.
Отдельный плюс — лицензия Apache 2.0, позволяющая коммерческое использование без ограничений. Для стартапов и соло-разработчиков это означает доступ к state-of-the-art качеству без API-счетов.
Бенчмарки за пределами кода
| Бенчмарк | Qwen3-Coder-Next | DeepSeek-V3.2 | GLM-4.7 |
|---|---|---|---|
| SWE-Bench Verified | 70.6% | 70.2% | 74.2% |
| SecCodeBench (генерация) | 61.2% | — | — |
| CWEval func-sec@1 | 56.32% | ниже | ниже |
На бенчмарке SecCodeBench, оценивающем способность генерировать безопасный код, Qwen3-Coder-Next обошла Claude Opus 4.5 (61.2% против 52.5%). На CWEval — многоязычной оценке безопасности — модель также показала лучший баланс между функциональностью и безопасностью кода среди открытых моделей.
Формальных бенчмарков general-purpose качества (MMLU, GPQA) для Qwen3-Coder-Next пока нет — Alibaba не публиковала их, а независимые тесты только начинаются. Но субъективные отзывы сообщества и результаты на reasoning-задачах внутри SWE-Bench говорят о том, что агентное обучение на 800 000 реальных задачах дало модели навыки, которые выходят далеко за рамки кодинга.
Что это значит для рынка
Появление coding-модели, которая оказалась лучшим «универсалом» в своём весовом классе, ставит интересный вопрос перед индустрией. Возможно, деление на «кодинг-модели» и «general-purpose модели» — искусственная категоризация, которая теряет смысл по мере того, как обучение на сложных задачах (а кодинг — одна из самых сложных) улучшает все когнитивные способности модели.
Для пользователей, работающих локально, вывод практический: если у вас есть машина с 64 ГБ RAM, Qwen3-Coder-Next может заменить несколько специализированных моделей одной. Для тех, кто работает с облачными API, это ещё один аргумент следить за open-source пространством — разрыв с проприетарными моделями продолжает сокращаться.


