Апрель 2026 — рекордный месяц open-source AI
DeepSeek V4, Qwen 3.6, Gemma 4 audio, Kimi K2.6 и ещё семь крупных релизов. Почему Reddit назвал апрель «лучшим месяцем за всю историю open-source LLM».

«Один из лучших месяцев в истории open-source AI». Так начинается Reddit-тред в r/LocalLLaMA, набравший три тысячи апвоутов за неделю. И в этой оценке нет преувеличения. За тридцать дней апреля 2026-го вышло больше серьёзных open-weights моделей, чем за весь Q1: DeepSeek V4 серии, Qwen 3.6 (трёх размеров), Gemma 4 audio, Kimi K2.6, GLM-5.1, Mistral Small 4. И всё это — не пет-проекты университетских лаб, а production-ready модели с лицензиями на коммерческое использование.
Что произошло
Главным событием стал релиз DeepSeek V4 24 апреля. Китайская лаба выложила V4-Pro и V4-Flash под MIT-лицензией, а через два дня дополнительно срезала цены на API на 75%. Это вторая за два года ценовая революция от DeepSeek: после первого ценового шока зимы 2024 западные провайдеры не успели восстановиться, и теперь V4 опускает планку ещё ниже. На бенчмарках coding V4-Pro идёт ноздря в ноздрю с Claude Opus 4.6, при этом стоит в десятки раз дешевле.
21 апреля Alibaba опубликовала Qwen 3.6-27B — dense-модель, которая по агентному кодингу обошла предыдущий флагман компании Qwen 3.5-397B-A17B (15× больше по параметрам). На SWE-bench Verified — 77,2% против 76,2% у предшественника. На Terminal-Bench 2.0 — 59,3 против 52,5. И это всё в модели, которая запускается на одной RTX 4090 в Q4-квантизации.
Двумя неделями раньше Google DeepMind выпустила Gemma 4 в трёх размерах (e2b, 31B и audio multimodal). Gemma 4 audio добавила голосовое понимание, до этого доступное только в закрытых моделях. Moonshot AI ответила Kimi K2.6, GLM-5.1 от Z.AI продолжила давить на coding-бенчмарках, а Mistral выпустила Small 4 — первую полностью унифицированную модель французского лидера.
Почему именно апрель
Май 2026-го уже виден на горизонте, и к нему приурочено сразу несколько крупных конференций — ICML в Вене, Google I/O, Microsoft Build. Лабораториям нужно было успеть зафиксировать релизы до начала шумного сезона. Плюс — после январского «DeepSeek-момента 2.0», когда китайские лабы продемонстрировали, что закрытые западные модели не имеют монополии на frontier, гонка пошла на ускорение.
Reddit-консенсус из Latent.Space (14 апреля) фиксировал расклад на середину месяца:
- Qwen 3.5 — самое широкое community-recommendation
- Gemma 4 — buzz для маленьких и средних развёртываний
- GLM-5 / GLM-4.7 — близок к топу broad-rankings
- MiniMax M2.5/M2.7 — для агентной/tool-heavy работы
- DeepSeek V3.2 — всё ещё в верхнем кластере общего назначения
- GPT-OSS 20B — практичная локальная опция
К концу месяца расклад изменился: Qwen 3.6 в трёх вариантах вытолкнула Qwen 3.5, DeepSeek V4 пришла на смену V3.2, Kimi K2.6 поднялась в обсуждениях.
Что нового по семействам
DeepSeek V4 (Pro и Flash, MIT-лицензия) — главный релиз месяца. Pro — 671B-параметр MoE с 37B активных, ориентированная на reasoning и сложный coding. Flash — компактная версия для дешёвых развёртываний. Обе доступны через DeepSeek API, Huawei Ascend (китайские GPU как backup) и open weights. Forbes отметил, что V4 разрушает экономику closed-source: если Anthropic берёт $15 за миллион output-токенов, а DeepSeek через свой API — $1, поддерживать paying-customer базу становится сложнее даже на enterprise-сегменте.
Qwen 3.6 (27B dense, 35B-A3B MoE, Plus, Max-Preview) — Alibaba выпустила полное семейство за две недели. 35B-A3B (3B активных в MoE) и 27B dense — для разных профилей развёртывания. Multimodal все: text+image+video на input. На QwenWebBench (внутренний фронтенд-бенчмарк с категорией Games) Qwen 3.6 27B — 1487 ELO, что подкатывает к Claude Opus (1536) и оставляет Gemma 4 (1197) далеко позади.
Gemma 4 audio — Google добавила голос в открытую модель. Это первый раз, когда multimodal voice-понимание доступно под Apache 2.0. До этого работающий voice-LLM был только у OpenAI (Realtime API) и Anthropic (приватные модели). Теперь любой может развернуть локальный voice-stack без подписки.
Kimi K2.6 (Moonshot AI) — обновление популярного K2.5 с улучшениями в coding и tool-use. Compact-friendly, одно из самых популярных решений для локального hosting на 64 ГБ unified memory.
GLM-5.1 (Z.AI) — продолжение серии, на coding-бенчмарках снова на уровне Claude Opus 4.6 за десятую долю стоимости.
Mistral Small 4 — единая модель французского лидера. Без отдельных coder/reasoning-вариантов, всё в одном чекпоинте. Apache 2.0.
Цены упали радикально
| Провайдер / модель | Input $/M | Output $/M | Дельта к январю 2026 |
|---|---|---|---|
| DeepSeek V4-Pro | 0,07 | 1,10 | −75% |
| Qwen 3.6 27B (Venice) | 0,32 | 3,25 | −40% |
| Gemma 4 31B (DeepInfra) | 0,13 | 0,38 | новый релиз |
| Claude Opus 4.6 | 15,00 | 75,00 | без изменений |
| GPT-5.4 (OpenAI) | 5,00 | 20,00 | без изменений |
Цифры красноречивые. Пока западные провайдеры держат прайс на flagship-моделях, китайские и open-source альтернативы упали в среднем на 60–75% за квартал. Это не временная демпинг-акция — это структурное преимущество от MoE-архитектур, дешёвых GPU (включая Huawei Ascend) и subsidies, которые не публикуются, но точно существуют.
Что это меняет
Для рынка финал обозначен: монополия закрытых моделей закончилась. Открытое семейство, которое работает на железе ценой одного MacBook Pro M4 Max, в апреле 2026-го закрывает 80–90% реальных coding и reasoning задач. Оставшиеся 10–20% — фронтиры, ARC-AGI-3, FrontierMath, сложный multi-file refactoring — пока остаются за Claude и GPT-5.4, но и эти проценты сокращаются с каждым кварталом.
Для разработчиков это значит, что pipeline нужно переосмыслить. Разумная архитектура 2026 года: локальный Qwen 3.6 27B (или DeepSeek V4-Flash через API) — на 80% задач, Claude Opus 4.6 / GPT-5.4 — на оставшиеся 20%. Эта схема работает примерно в 5 раз дешевле, чем «всё через Claude», и почти не теряет качества на routine-операциях.
Для бизнеса опаснее. Контракты «мы только на Anthropic / OpenAI» становятся менее оборонительными. Если конкурент развернёт локальный pipeline на Qwen 3.6 + DeepSeek V4 за $5K в месяц вместо $50K, у него появится 10× ценовое преимущество в применениях, где LLM — основной инпут себестоимости (анализ документов, customer support, контентная модерация).
Тренды месяца
Несколько закономерностей, которые проявились особенно чётко в апреле:
| Тренд | Что произошло | Что значит |
|---|---|---|
| Density-comeback | Qwen 3.6 27B dense обошёл MoE-флагман на 397B | Dense-модели вернулись в топ — проще деплоить |
| Multimodal по умолчанию | Все новые релизы — vision + text минимум | Text-only модель в 2026 — анахронизм |
| Audio в open-weights | Gemma 4 audio | Voice-LLM больше не privilege закрытых моделей |
| Китайский blitz | 4 из 7 крупных релизов из КНР | Запад не успевает за темпом релизов |
| Цены вниз | DeepSeek -75%, Gemma 4 в 10× дешевле GPT-5.4 | Структурное преимущество китайских лаб |
Что дальше
Май 2026 уже принёс анонсы Microsoft Build, Google I/O и WWDC. Ожидается, что Apple откроет Foundation Models Framework для third-party AI-моделей, что может означать первый случай, когда iOS-приложения получат прямой доступ к open-source LLM на устройстве без обхода через сервер. Параллельно DeepSeek намекает на V4-Ultra, а Alibaba — на Qwen 3.6-Max, который должен закрыть оставшийся разрыв с Claude и GPT.
Главный вывод апреля: 2026 год — это год, когда open-source AI окончательно стал mainstream. Не «иногда хорошая альтернатива», а дефолтный выбор для большинства продакшен-сценариев. Если в январе скептики ещё могли сказать «но Claude всё равно лучше для серьёзной работы», к маю эта фраза превратилась из истины в маркетинговый слоган.


