GPT-5 без VPN

Aijora.ru — без ограничений

Попробовать бесплатно
Все новости
qwenalibabaopen-sourceLocalLLaMAMoEgeneral-purpose

Qwen3-Coder-Next оказалась не просто кодером

Сообщество обнаружило, что 80B MoE-модель от Alibaba — лучшая general-purpose LLM своего размера. Apache 2.0, локальный запуск, сравнения с Claude Sonnet.

Влад МакаровВлад Макаровпроверил и опубликовал
7 мин чтения
Упоминаемые модели
Qwen3-Coder-Next оказалась не просто кодером

Alibaba выпустила Qwen3-Coder-Next как специализированную модель для кодинга. Сообщество решило иначе — и начало использовать её для всего подряд.

Кодер, который умеет не только кодить

Когда команда Qwen в начале февраля представила Qwen3-Coder-Next, акцент был очевиден: 70.6% на SWE-Bench Verified, агентные траектории обучения, поддержка 370 языков программирования. Типичный релиз кодинг-модели — мощный, но нишевый.

А потом пользователи на r/LocalLLaMA начали тестировать модель за пределами кода. И оказалось, что Qwen3-Coder-Next — одна из самых умных open-source моделей вообще. На Latent.Space тред с заголовком «It's the Smartest General Purpose Model of its Size» набрал 837 единиц активности. Люди сравнивают её с Claude Sonnet 4.5 по качеству рассуждений — при том, что модель запускается локально на машине с 64 ГБ RAM.

Почему так? Ответ кроется в самой природе кодинга как задачи. Чтобы хорошо писать код, модель должна понимать контекст, логически рассуждать, планировать на несколько шагов вперёд и восстанавливаться после ошибок. Это те же навыки, которые нужны для любой сложной интеллектуальной работы — от анализа документов до написания текстов.

Архитектурный трюк: 80B параметров, 3B работают

Qwen3-Coder-Next использует ультра-разреженную архитектуру Mixture-of-Experts. Из 80 миллиардов общих параметров при каждом запросе активируются только 3 миллиарда — маршрутизируясь к 10 из 512 специализированных экспертов. Это означает скорость инференса, сравнимую с моделью 3B, при качестве мышления, характерном для куда более крупных систем.

Второй ключевой элемент — гибридное внимание. Каждый блок модели состоит из трёх слоёв с Gated DeltaNet (линейная сложность) и одного слоя с полноценным Gated Attention. DeltaNet обрабатывает рутинные паттерны дёшево и быстро, а Attention включается для сложного рассуждения. Результат — контекстное окно в 262K токенов без квадратичного взрыва вычислений.

На практике это значит, что модель может «прочитать» целый Python-проект или JavaScript-фреймворк и ответить со скоростью лёгкой модели, сохраняя глубину понимания тяжёлой.

Что говорит сообщество

На Reddit развернулась занимательная дискуссия. Пользователи, которые раньше держали отдельные модели для кода и для «общих» задач, начали переключаться на Qwen3-Coder-Next как единственную локальную LLM. Аргументы: модель лучше следует инструкциям, точнее рассуждает и реже галлюцинирует, чем general-purpose модели аналогичного размера.

Один из самых обсуждаемых моментов — сравнение с закрытыми моделями. Пользователь на r/LocalLLaMA описал Qwen3-Coder-Next как «первую юзабельную кодинг-модель до 60 ГБ», но добавил, что для него она стала основной моделью и для креативного письма, и для анализа данных. Другие сравнивали качество рассуждений с Claude Sonnet 4.5 — и хотя облачная модель Anthropic по-прежнему впереди по абсолютному качеству, разрыв оказался значительно меньше, чем ожидалось.

Отдельный плюс — лицензия Apache 2.0, позволяющая коммерческое использование без ограничений. Для стартапов и соло-разработчиков это означает доступ к state-of-the-art качеству без API-счетов.

Бенчмарки за пределами кода

БенчмаркQwen3-Coder-NextDeepSeek-V3.2GLM-4.7
SWE-Bench Verified70.6%70.2%74.2%
SecCodeBench (генерация)61.2%
CWEval func-sec@156.32%нижениже

На бенчмарке SecCodeBench, оценивающем способность генерировать безопасный код, Qwen3-Coder-Next обошла Claude Opus 4.5 (61.2% против 52.5%). На CWEval — многоязычной оценке безопасности — модель также показала лучший баланс между функциональностью и безопасностью кода среди открытых моделей.

Формальных бенчмарков general-purpose качества (MMLU, GPQA) для Qwen3-Coder-Next пока нет — Alibaba не публиковала их, а независимые тесты только начинаются. Но субъективные отзывы сообщества и результаты на reasoning-задачах внутри SWE-Bench говорят о том, что агентное обучение на 800 000 реальных задачах дало модели навыки, которые выходят далеко за рамки кодинга.

Что это значит для рынка

Появление coding-модели, которая оказалась лучшим «универсалом» в своём весовом классе, ставит интересный вопрос перед индустрией. Возможно, деление на «кодинг-модели» и «general-purpose модели» — искусственная категоризация, которая теряет смысл по мере того, как обучение на сложных задачах (а кодинг — одна из самых сложных) улучшает все когнитивные способности модели.

Для пользователей, работающих локально, вывод практический: если у вас есть машина с 64 ГБ RAM, Qwen3-Coder-Next может заменить несколько специализированных моделей одной. Для тех, кто работает с облачными API, это ещё один аргумент следить за open-source пространством — разрыв с проприетарными моделями продолжает сокращаться.

Похожие новости

Листайте вниз

для загрузки следующей статьи