DeepSeek V4: триллион параметров, Engram Memory и война за кодинг
Китайская лаборатория готовит релиз DeepSeek V4 с 1 трлн параметров, контекстом 1M токенов и Engram Memory. Внутренние тесты показывают превосходство над Claude и ChatGPT.

Год назад DeepSeek R1 стоил $6 миллионов в разработке и вышел наравне с моделями, на которые конкуренты тратили сотни миллионов. Теперь компания Лян Вэньфэна готовит преемника, который, судя по утечкам, собирается переписать правила игры ещё раз.
Что известно о V4
По данным The Information, которые затем подхватили The Verge, Decrypt и Yahoo Finance, DeepSeek V4 «делает прорыв в обработке очень длинных кодовых промптов» — одной из ключевых проблем для разработчиков, работающих с большими кодовыми базами. Внутренние бенчмарки компании, по словам инсайдеров, ставят модель впереди Claude и ChatGPT именно в задачах кодинга.
Релиз ожидается со дня на день — примерно через год после выхода DeepSeek R1 в январе 2025-го. Модель совпадает по срокам с волной февральских релизов от китайских AI-лабораторий: Qwen 3.5 от Alibaba, Doubao Seed 2.0 от ByteDance и Ernie 5.0 от Baidu.
По утечкам кода, опубликованным исследователям и техническим анализам, V4 — это не инкрементальное обновление V3, а фундаментальный архитектурный сдвиг:
- Триллион параметров (1T), архитектура Mixture-of-Experts (MoE)
- Контекстное окно 1 миллион токенов
- 32 млрд активных параметров на запрос
- Нативная мультимодальность (текст, код, изображения)
- Open weights — открытые веса
Три архитектурных прорыва
Главное, что отличает V4 от конкурентов, — это не просто размер, а три новые технологии, которые решают фундаментальные проблемы больших языковых моделей.
Первая — Engram, условная память, опубликованная DeepSeek совместно с Пекинским университетом 12 января 2026 года. Engram разделяет статическое хранение знаний и динамическое рассуждение. Фактические знания выгружаются в DRAM с постоянным временем доступа O(1), а GPU-ресурсы освобождаются для сложного рассуждения. Результат — 97% точность на длинноконтекстных задачах при радикально меньшем потреблении памяти. Код выложен на GitHub.
Вторая — Manifold-Constrained Hyper-Connections (mHC), метод обучения от основателя DeepSeek Лян Вэньфэна. mHC позволяет «агрессивно наращивать параметры», обходя ограничения памяти GPU. По тестам на 8 AI-бенчмарках, метод улучшает производительность на всех из них по сравнению со стандартным Transformer.
Третья — Dynamic Sparse Attention, обнаруженная в утечках кода. Механизм разреженного внимания должен решить проблему вычислительной стоимости миллионного контекста — по демо-видео DeepSeek, задача обработки 1M контекста выполняется за 6 секунд на 3 GPU, тогда как конкурентам требуется 8 H100 и 11 секунд.
Экономика, которая всё меняет
Если спецификации подтвердятся, экономический эффект будет мощным. DeepSeek V3 уже предлагала обработку 100K токенов за $0.90, тогда как GPT-4 — за $5.50. V4 с контекстом 1M токенов и ценой $0.27 за миллион входных токенов делает экономически жизнеспособными сценарии, которые раньше были просто нереальны: анализ всей кодовой базы Linux Kernel (28 миллионов строк) без разбиения на части, работа с полными репозиториями в одном запросе.
Для локального запуска V4 тоже привлекателен. Благодаря MoE-архитектуре с 32B активных параметров, квантованная версия (INT4/INT8) помещается в память двух RTX 4090 или новых 5090. Это означает, что «модель класса GPT-5» можно будет запускать дома — с оговоркой, что это будет урезанная версия, сравнимая по качеству с квантованным V3.
Кодинг как поле битвы
V4 позиционируется не как универсальная модель, а как специализированный инструмент для возвращения «короны кодинга», которую DeepSeek, по мнению сообщества Reddit, уступила Claude. Прорыв в обработке длинных кодовых промптов — это не абстрактная метрика, а ответ на конкретную боль разработчиков, работающих с большими проектами.
Если внутренние бенчмарки подтвердятся в независимых тестах — в частности, если V4 покажет 80%+ на SWE-bench Verified — это станет первым случаем, когда open-source модель сравняется с Claude Opus 4.6 на самом авторитетном бенчмарке реального программирования.
Впрочем, скептики на Reddit справедливо замечают, что внутренние бенчмарки DeepSeek не всегда отражают реальную «грязную» работу. Reasoning-модели компании, по отзывам, иногда тратят лишние вычисления на простые задачи. Реальную картину покажут только независимые тесты после релиза.
Открытость как стратегия
Лян Цзе Су, главный аналитик Omdia, отметил, что готовность DeepSeek публиковать свои методы сигнализирует о «новообретённой уверенности китайской AI-индустрии». Open-source подход сделал DeepSeek фаворитом среди разработчиков, которые видят в ней то, чем «OpenAI была раньше — до перехода к закрытым моделям и миллиардным раундам финансирования».
Комбинация Engram (эффективное извлечение знаний) + миллионный контекст + мультимодальность делает V4 сильным кандидатом для автономных AI-агентов — при условии, что заявленные характеристики подтвердятся.
Что дальше
Релиз V4 может произойти буквально в ближайшие дни. Для AI-индустрии это момент истины: если открытая модель с ценой в десятки раз ниже конкурентов действительно покажет сравнимое или лучшее качество кодинга, это ускорит и без того стремительный переход разработчиков на open-source решения. Кремниевой долине снова придётся объяснять, за что именно она берёт десятикратную наценку.


