Kimi K2.6 неделю спустя: open-source проголосовал кошельком
Через пять дней после релиза Kimi K2.6 LocalLLaMA массово переходит на неё с Claude. Разбираем, чего реально стоит миграция и где K2.6 ломается.

«K2.6 is a legit Opus 4.7 replacement» — заголовок треда на r/LocalLLaMA, набравшего пять тысяч апвоутов за выходные, превратился из преувеличения в общее место. Прошло пять дней после релиза Moonshot, и это уже не вопрос «может ли модель сравниться с фронтиром», а вопрос «зачем продолжать платить Claude в десять раз больше». Самый интересный сюжет недели — не цифры из бенчмарков, а то, что комьюнити проголосовало кошельком и репозиториями.
Что произошло за пять дней
20 апреля Moonshot выпустила Kimi K2.6 — открытые веса, modified MIT, 1T параметров MoE с 32B активных, контекст около 256K, мультимодальный вход с видео. Через четыре дня Anthropic выкатила Opus 4.7. Совпадение календарей сделало то, что не сделали бы пресс-релизы: рынок получил прямое сравнение в один клик.
К 25 апреля случилось три вещи, каждая из которых по отдельности была бы новостью.
OpenRouter показал, что K2.6 пробила первую десятку моделей по объёму трафика — впервые open-weight без поддержки от Microsoft или Google делает это за неделю. На Hugging Face модель собрала больше скачиваний, чем DeepSeek V3 за свой первый месяц. Kimi Code, терминальный CLI в стиле Claude Code, попал в trending на GitHub.
Параллельно ленты разработчиков забились историями миграции. Kimi API — OpenAI-совместимый, переключение делается одной строкой base_url в существующем коде. Команды с большими счетами за Anthropic ставят K2.6 в Cursor и Cline, замеряют разницу и пишут постмортемы вида «теряем 7 пунктов на SWE-Bench Verified, экономим $30 000 в месяц».
Чем K2.6 реально отличается
Пять дней использования высветили картину сильнее, чем стартовые бенчмарки. Раз за разом всплывают одни и те же сильные и слабые места, и они складываются в чёткий профиль.
K2.6 — это не coding-модель. Это агентная платформа с моделью внутри. Moonshot встроила в неё примитив swarm — координацию до 300 параллельных подагентов в одном запуске на 4 000 шагов. Ни Claude Code, ни Cursor, ни Devin такой архитектуры не дают: у всех один основной агент, который зовёт инструменты по одному. На задачах, где нужно построить интерфейс, прочитать скриншот, разделить работу и удерживать длинный run — K2.6 объективно делает то, что Opus 4.7 делает медленнее и дороже.
Где она ломается — на тонком чистом кодинге. SWE-Bench Verified 80.2% против 87.6% у Opus 4.7 — это не «небольшое отставание», это семь процентных пунктов в задачах, где каждый пункт стоит итерации. Опытные разработчики в твиттере жалуются на одно и то же: K2.6 даёт правдоподобный, симпатичный, прошедший тесты патч, который при ревью оказывается не тем, что просили. Полный экран изменений, красивый коммит, частично решённая задача.
Технические характеристики:
- Параметры: 1T MoE, 32B активных
- Контекст: ~262 144 токена
- Вход: текст, изображения, видео
- Лицензия: Modified MIT (с оговоркой на 100M+ MAU и $20M+ MRR)
- Цены OpenRouter: $0.95 input cache miss / $0.16 cached / $4 output за 1M
- Self-host: vLLM, SGLang, KTransformers, INT4 day-one
Сравнение с альтернативами
| Модель | Open-weight | SWE-Bench Verified | SWE-Bench Pro | Цена output / 1M |
|---|---|---|---|---|
| Claude Opus 4.7 | Нет | 87.6% | 64.3% | $25.00 |
| Kimi K2.6 | Да (Modified MIT) | 80.2% | 58.6% | $4.00 |
| GLM-5.1 | Да (MIT) | — | 58.4% | $4.40 |
| DeepSeek V4-Pro | Да (MIT) | 80.6% | 55.4% | $3.48 |
| GPT-5.5 | Нет | — | 58.6% | $30.00 |
Картина, которую эту таблицу обычно используют — «open-source закрыл фронтир» — некорректна. Opus 4.7 всё ещё ведёт по чистому коду на 7 пунктов. Корректная картина — другая: open-weight модели зажали верхний сегмент по выходной цене с обеих сторон. K2.6, GLM-5.1 и DeepSeek V4-Pro идут на $3–4 за миллион output-токенов с разницей в полпункта на бенчмарках. Opus и GPT-5.5 стоят на $25–30 за тот же объём, и теперь должны объяснять каждый пункт разрыва.
Что говорят те, кто перешёл
Самая цитируемая история недели — пост на HackerNews от инженера-фрилансера, который перевёл свой агентный стек с Anthropic на K2.6 за день. Workflow тот же: ревью кода, генерация патчей, оркестрация инструментов. Счёт за месяц упал с $4 200 до $380. Качество, по его измерению, упало на 4–6% (он гонял свой 50-задачный пакет на обоих стеках). Время review-burden — то есть сколько правок надо вносить руками — выросло на 12%. Финансовый итог: $3 800 экономии минус 4 часа дополнительного ревью в неделю. Очевидный плюс.
Команды, которые остались на Opus 4.7, формулируют выбор по-другому. Архитектурные решения, разбор регрессий в большом коде, ревью миграций баз данных — всё, что стоит дороже разницы в счёте, продолжают делать на Claude. Но routine-кодинг, генерация тестов, рефакторинги по конвенциям — уходит на K2.6 или GLM-5.1.
Лицензионная ловушка
Modified MIT — это не чистый MIT. Любой деплой с более чем 100M MAU или $20M MRR обязан видимо кредитить Kimi K2.6 в UI. Для 99.9% компаний условие иррелевантно. Для Apple, Microsoft, Google или ChatGPT — это либо переговоры с Moonshot, либо «Powered by Kimi» в продукте, что вряд ли произойдёт.
Это умный коммерческий ход: Moonshot отдала бесплатно весь рынок, кроме хайперскейлеров, и оставила переговорную позицию для самых крупных. Любой стартап или энтерпрайз ниже этого тира берёт модель без размышлений.
Как это меняет рынок
Anthropic, скорее всего, не будет резать цены на Opus 4.7 — это запуск, и Дарио Амодеи говорил в Q1 2026, что компания не пойдёт на ценовую войну. Но Sonnet 4.6, который и так стоит вдесятеро меньше Opus и идёт по $3/$15 за input/output, теперь упирается в K2.6 c другой стороны. Анонс Sonnet 4.7 ожидался во второй половине 2026 — теперь вероятно ускорение и снижение цен.
Для команд, которые строят AI-продукт с нуля, дефолт меняется. Раньше архитектурный выбор был «Anthropic API + что-то open-source как fallback». Теперь — «K2.6 или GLM-5.1 как основа + Opus 4.7 как escalation lane для самых сложных задач». Гибридный стек, маршрутизация по сложности задачи, попытка не платить премиум там, где он не отбивается ревью-burden.
Для энтерпрайза, который уже считает счёт за Claude в шестизначных числах — это самая дешёвая возможность за последние полгода уменьшить расходы на AI на порядок без катастрофической просадки качества. Если 80–85% ваших агентских вызовов — это рутинные операции, переезд на K2.6 экономит $300K–$1M в год при росте review-burden на 10–15%.
Что дальше
Moonshot обещает следующую версию летом. По слухам — попытка закрыть SWE-Bench Verified gap до уровня Opus и расширение swarm до 1 000 подагентов. Anthropic, вероятно, выкатит Sonnet 4.7 раньше планов. DeepSeek V5 ожидается в Q3.
Главный сдвиг — психологический. Идея «open-source модель не годится для serious production» окончательно умерла за эту неделю. Не потому что K2.6 идеальна — она не идеальна. А потому что её достаточно хорошая, и достаточно дешёвая, и достаточно свободная, чтобы даже консервативные команды начали считать стоимость отказа от неё.
Через пять дней после релиза Kimi K2.6 — это уже не «новый фронтир open-source». Это новая базовая линия, относительно которой будут оцениваться все остальные коммерческие предложения.


