GPT-5 без VPN

Aijora.ru — без ограничений

Попробовать бесплатно
Все новости
open-sourcedeepseekqwengemmakimiтрендылокальные-модели

Апрель 2026 — рекордный месяц open-source AI

DeepSeek V4, Qwen 3.6, Gemma 4 audio, Kimi K2.6 и ещё семь крупных релизов. Почему Reddit назвал апрель «лучшим месяцем за всю историю open-source LLM».

Влад МакаровВлад Макаровпроверил и опубликовал
8 мин чтения
Апрель 2026 — рекордный месяц open-source AI

«Один из лучших месяцев в истории open-source AI». Так начинается Reddit-тред в r/LocalLLaMA, набравший три тысячи апвоутов за неделю. И в этой оценке нет преувеличения. За тридцать дней апреля 2026-го вышло больше серьёзных open-weights моделей, чем за весь Q1: DeepSeek V4 серии, Qwen 3.6 (трёх размеров), Gemma 4 audio, Kimi K2.6, GLM-5.1, Mistral Small 4. И всё это — не пет-проекты университетских лаб, а production-ready модели с лицензиями на коммерческое использование.

Что произошло

Главным событием стал релиз DeepSeek V4 24 апреля. Китайская лаба выложила V4-Pro и V4-Flash под MIT-лицензией, а через два дня дополнительно срезала цены на API на 75%. Это вторая за два года ценовая революция от DeepSeek: после первого ценового шока зимы 2024 западные провайдеры не успели восстановиться, и теперь V4 опускает планку ещё ниже. На бенчмарках coding V4-Pro идёт ноздря в ноздрю с Claude Opus 4.6, при этом стоит в десятки раз дешевле.

21 апреля Alibaba опубликовала Qwen 3.6-27B — dense-модель, которая по агентному кодингу обошла предыдущий флагман компании Qwen 3.5-397B-A17B (15× больше по параметрам). На SWE-bench Verified — 77,2% против 76,2% у предшественника. На Terminal-Bench 2.0 — 59,3 против 52,5. И это всё в модели, которая запускается на одной RTX 4090 в Q4-квантизации.

Двумя неделями раньше Google DeepMind выпустила Gemma 4 в трёх размерах (e2b, 31B и audio multimodal). Gemma 4 audio добавила голосовое понимание, до этого доступное только в закрытых моделях. Moonshot AI ответила Kimi K2.6, GLM-5.1 от Z.AI продолжила давить на coding-бенчмарках, а Mistral выпустила Small 4 — первую полностью унифицированную модель французского лидера.

Почему именно апрель

Май 2026-го уже виден на горизонте, и к нему приурочено сразу несколько крупных конференций — ICML в Вене, Google I/O, Microsoft Build. Лабораториям нужно было успеть зафиксировать релизы до начала шумного сезона. Плюс — после январского «DeepSeek-момента 2.0», когда китайские лабы продемонстрировали, что закрытые западные модели не имеют монополии на frontier, гонка пошла на ускорение.

Reddit-консенсус из Latent.Space (14 апреля) фиксировал расклад на середину месяца:

  1. Qwen 3.5 — самое широкое community-recommendation
  2. Gemma 4 — buzz для маленьких и средних развёртываний
  3. GLM-5 / GLM-4.7 — близок к топу broad-rankings
  4. MiniMax M2.5/M2.7 — для агентной/tool-heavy работы
  5. DeepSeek V3.2 — всё ещё в верхнем кластере общего назначения
  6. GPT-OSS 20B — практичная локальная опция

К концу месяца расклад изменился: Qwen 3.6 в трёх вариантах вытолкнула Qwen 3.5, DeepSeek V4 пришла на смену V3.2, Kimi K2.6 поднялась в обсуждениях.

Что нового по семействам

DeepSeek V4 (Pro и Flash, MIT-лицензия) — главный релиз месяца. Pro — 671B-параметр MoE с 37B активных, ориентированная на reasoning и сложный coding. Flash — компактная версия для дешёвых развёртываний. Обе доступны через DeepSeek API, Huawei Ascend (китайские GPU как backup) и open weights. Forbes отметил, что V4 разрушает экономику closed-source: если Anthropic берёт $15 за миллион output-токенов, а DeepSeek через свой API — $1, поддерживать paying-customer базу становится сложнее даже на enterprise-сегменте.

Qwen 3.6 (27B dense, 35B-A3B MoE, Plus, Max-Preview) — Alibaba выпустила полное семейство за две недели. 35B-A3B (3B активных в MoE) и 27B dense — для разных профилей развёртывания. Multimodal все: text+image+video на input. На QwenWebBench (внутренний фронтенд-бенчмарк с категорией Games) Qwen 3.6 27B — 1487 ELO, что подкатывает к Claude Opus (1536) и оставляет Gemma 4 (1197) далеко позади.

Gemma 4 audio — Google добавила голос в открытую модель. Это первый раз, когда multimodal voice-понимание доступно под Apache 2.0. До этого работающий voice-LLM был только у OpenAI (Realtime API) и Anthropic (приватные модели). Теперь любой может развернуть локальный voice-stack без подписки.

Kimi K2.6 (Moonshot AI) — обновление популярного K2.5 с улучшениями в coding и tool-use. Compact-friendly, одно из самых популярных решений для локального hosting на 64 ГБ unified memory.

GLM-5.1 (Z.AI) — продолжение серии, на coding-бенчмарках снова на уровне Claude Opus 4.6 за десятую долю стоимости.

Mistral Small 4 — единая модель французского лидера. Без отдельных coder/reasoning-вариантов, всё в одном чекпоинте. Apache 2.0.

Цены упали радикально

Провайдер / модельInput $/MOutput $/MДельта к январю 2026
DeepSeek V4-Pro0,071,10−75%
Qwen 3.6 27B (Venice)0,323,25−40%
Gemma 4 31B (DeepInfra)0,130,38новый релиз
Claude Opus 4.615,0075,00без изменений
GPT-5.4 (OpenAI)5,0020,00без изменений

Цифры красноречивые. Пока западные провайдеры держат прайс на flagship-моделях, китайские и open-source альтернативы упали в среднем на 60–75% за квартал. Это не временная демпинг-акция — это структурное преимущество от MoE-архитектур, дешёвых GPU (включая Huawei Ascend) и subsidies, которые не публикуются, но точно существуют.

Что это меняет

Для рынка финал обозначен: монополия закрытых моделей закончилась. Открытое семейство, которое работает на железе ценой одного MacBook Pro M4 Max, в апреле 2026-го закрывает 80–90% реальных coding и reasoning задач. Оставшиеся 10–20% — фронтиры, ARC-AGI-3, FrontierMath, сложный multi-file refactoring — пока остаются за Claude и GPT-5.4, но и эти проценты сокращаются с каждым кварталом.

Для разработчиков это значит, что pipeline нужно переосмыслить. Разумная архитектура 2026 года: локальный Qwen 3.6 27B (или DeepSeek V4-Flash через API) — на 80% задач, Claude Opus 4.6 / GPT-5.4 — на оставшиеся 20%. Эта схема работает примерно в 5 раз дешевле, чем «всё через Claude», и почти не теряет качества на routine-операциях.

Для бизнеса опаснее. Контракты «мы только на Anthropic / OpenAI» становятся менее оборонительными. Если конкурент развернёт локальный pipeline на Qwen 3.6 + DeepSeek V4 за $5K в месяц вместо $50K, у него появится 10× ценовое преимущество в применениях, где LLM — основной инпут себестоимости (анализ документов, customer support, контентная модерация).

Тренды месяца

Несколько закономерностей, которые проявились особенно чётко в апреле:

ТрендЧто произошлоЧто значит
Density-comebackQwen 3.6 27B dense обошёл MoE-флагман на 397BDense-модели вернулись в топ — проще деплоить
Multimodal по умолчаниюВсе новые релизы — vision + text минимумText-only модель в 2026 — анахронизм
Audio в open-weightsGemma 4 audioVoice-LLM больше не privilege закрытых моделей
Китайский blitz4 из 7 крупных релизов из КНРЗапад не успевает за темпом релизов
Цены внизDeepSeek -75%, Gemma 4 в 10× дешевле GPT-5.4Структурное преимущество китайских лаб

Что дальше

Май 2026 уже принёс анонсы Microsoft Build, Google I/O и WWDC. Ожидается, что Apple откроет Foundation Models Framework для third-party AI-моделей, что может означать первый случай, когда iOS-приложения получат прямой доступ к open-source LLM на устройстве без обхода через сервер. Параллельно DeepSeek намекает на V4-Ultra, а Alibaba — на Qwen 3.6-Max, который должен закрыть оставшийся разрыв с Claude и GPT.

Главный вывод апреля: 2026 год — это год, когда open-source AI окончательно стал mainstream. Не «иногда хорошая альтернатива», а дефолтный выбор для большинства продакшен-сценариев. Если в январе скептики ещё могли сказать «но Claude всё равно лучше для серьёзной работы», к маю эта фраза превратилась из истины в маркетинговый слоган.

Похожие новости

Листайте вниз

для загрузки следующей статьи