DeepSeek V4 выходит 17 февраля: что известно о новом coding-гиганте
DeepSeek готовит релиз V4 — модели с Engram-памятью и контекстом 1M+ токенов. Внутренние тесты показывают превосходство над Claude и GPT в коде.

Год назад DeepSeek выпустила R1 в разгар китайского Нового года — и перевернула рынок. Теперь компания готовит повторение: 17 февраля 2026 года, к началу празднования года Змеи, ожидается релиз DeepSeek V4 — модели, специально заточенной под программирование.
Почему это важно
DeepSeek последовательно доказывает, что можно конкурировать с OpenAI и Anthropic при меньших затратах на обучение. V3 уже показала сопоставимое качество при цене инференса в разы ниже конкурентов. V4 идёт дальше — это не просто очередная итерация, а модель с принципиально новой архитектурой памяти.
Внутренние бенчмарки DeepSeek, просочившиеся в сеть, утверждают, что V4 превосходит Claude 3.5 Sonnet и GPT-4o на задачах программирования. Независимая верификация пока отсутствует, но если это подтвердится — расклад сил на рынке coding-моделей изменится радикально.
Engram: память, которая понимает код
Главная инновация V4 — технология Engram Conditional Memory, описанная в исследовательской статье DeepSeek от 13 января 2026 года.
Традиционные LLM обрабатывают контекст как поток токенов, не различая структурную информацию от шума. Engram работает иначе: модель учится распознавать паттерны проекта — naming conventions, архитектурные решения, стиль кода конкретной команды. Вместо механического запоминания происходит «понимание» структуры репозитория.
На практике это означает, что V4 может работать как опытный разработчик, который провёл несколько месяцев в проекте: знает, где искать нужные файлы, как принято называть переменные, какие паттерны использует команда.
Архитектура: три ключевых компонента
DeepSeek V4 строится на нескольких технологических прорывах.
Manifold-Constrained Hyper-Connections (mHC) — новый метод организации связей между слоями нейросети. В глубоких сетях информация теряется при прохождении через множество слоёв — mHC создаёт «логические магистрали», которые сохраняют целостность рассуждений. Это критично для рефакторинга больших кодовых баз, где нужно удерживать в памяти тысячи строк зависимостей.
DeepSeek Sparse Attention (DSA) — механизм внимания, который фокусируется на релевантных частях контекста вместо равномерной обработки всех токенов. Результат — контекстное окно свыше 1 миллиона токенов при снижении вычислительных затрат примерно на 50%. Можно загрузить целый репозиторий и работать с ним как с единым документом.
Multi-Head Latent Attention (MLA) — механизм сжатия информации. Там, где другим моделям нужно 100 токенов для хранения контекста, MLA укладывает ту же информацию в 10 ключевых символов. При обращении к памяти происходит математическая реконструкция без потери деталей. Это позволяет держать больше информации в оперативной памяти GPU.
На что способна V4
Ключевая метрика для coding-моделей — SWE-bench, где нужно решать реальные баги из open-source проектов. Текущий лидер — Claude Opus 4.5 с результатом 80.9%. DeepSeek заявляет, что V4 нацелена на превышение этого показателя.
| Возможность | Что это даёт |
|---|---|
| Контекст 1M+ токенов | Весь репозиторий в одном запросе |
| Multi-file reasoning | Понимание зависимостей между файлами |
| Repository-level bugs | Исправление багов, затрагивающих несколько модулей |
| Pattern recognition | Код в стиле конкретного проекта |
Помимо SWE-bench, V4 должна показать результаты на HumanEval (генерация функций), MBPP (задачи на Python), CodeContests (олимпиадное программирование) и LiveCodeBench (задачи с обратной связью от интерпретатора).
Open-source и железо
DeepSeek сохраняет стратегию открытых весов. V4 будет доступна для скачивания и локального запуска — важный момент для компаний с требованиями к приватности данных. Финтех, медицина, оборонка — везде, где код нельзя отправлять на внешние API.
Требования к железу для локального запуска оказались неожиданно демократичными. Минимальная конфигурация — два RTX 4090 или один RTX 5090. Это всё ещё дорого, но укладывается в бюджет рабочей станции, а не серверной стойки.
Для тех, кто не готов собирать собственный сервер, V4 будет доступна через облачные провайдеры — API появится у Atlas Cloud, Together AI и других платформ сразу после релиза.
Что ждать дальше
Независимая верификация бенчмарков — главный открытый вопрос. DeepSeek известна амбициозными заявлениями, которые не всегда подтверждаются сторонними тестами с первого раза. Сообщество быстро проверит V4 на реальных задачах.
Второй вопрос — лицензия. V3 использовала модифицированную MIT-лицензию с ограничениями на коммерческое использование выше определённого порога. Какие условия будут у V4 — пока неизвестно.
Релиз 17 февраля выглядит как продуманный маркетинговый ход: праздничные дни в Китае, сниженная активность американских конкурентов, максимальный резонанс в социальных сетях. DeepSeek уже доказала, что умеет выбирать момент — остаётся дождаться, оправдает ли V4 ожидания.


