Cursor тихо построил свою модель на китайском open source — и попался
Composer 2 от Cursor оказался файнтюнингом Kimi K2.5 от Moonshot AI. Компания не раскрыла это, пока китайские разработчики не разобрались сами.

19 марта Cursor выпустил Composer 2 — собственную AI-модель для кодинга, которая на внутреннем бенчмарке обогнала Claude Opus 4.6. Через два дня выяснилось, что «собственная» модель построена на китайском open-source Kimi K2.5 от Moonshot AI. И что Cursor предпочёл об этом умолчать.
Как это вскрылось
Cursor позиционировал Composer 2 как результат собственной работы: continued pretraining, reinforcement learning на длинных кодинг-задачах, оптимизация под агентные сценарии. В блог-посте и интервью Bloomberg сооснователь Аман Сангер рассказывал о том, как модель тренировали исключительно на коде.
Проблема в том, что он забыл упомянуть фундамент — базовую модель Kimi K2.5, выпущенную Moonshot AI в январе 2026 года. Обнаружили это сотрудники самой Moonshot, изучив модель. Ни разрешения, ни оплаты за использование базовой модели, по их словам, не было.
21 марта сотрудник Cursor Ли Робинсон подтвердил в X: примерно четверть претренинга приходится на базовую модель, остальное — файнтюнинг и дополнительное обучение от Cursor. Коммерческая лицензия оформлена через провайдера инференса Fireworks.
Аман Сангер признал ошибку: «Мы должны были указать Kimi в блоге с самого начала. Исправим это для следующей модели».
Почему Cursor промолчал
Самое вероятное объяснение — имиджевое. Cursor конкурирует напрямую с Anthropic и OpenAI, оба из которых вкладывают миллиарды в собственные фронтирные модели. Признать, что твоя «собственная» модель — это файнтюнинг чужого open source, значит публично подтвердить: ты не можешь играть на том же уровне.
При этом ничего технически неправильного в подходе нет. Брать сильную открытую модель и дотачивать под конкретный юзкейс — нормальная практика. Cursor мог бы преподнести это как историю успеха: посмотрите, наш файнтюнинг поверх open source конкурирует с моделями, на которые потратили миллиарды. Это был бы неудобный вопрос для фронтирных лабораторий, а не для Cursor.
Вместо этого компания получила скандал о прозрачности.
Composer 2 в цифрах
Технически модель действительно хороша, независимо от происхождения.
| Модель | CursorBench | Terminal Bench 2.0 | SWE-bench Multilingual |
|---|---|---|---|
| Composer 2 | 61.3 | 61.7 | 73.7 |
| Composer 1.5 | 44.2 | 47.9 | 65.9 |
| Claude Opus 4.6 | 58.2 | 58.0 | 77.8 |
| GPT-5.4 Thinking | 63.9 | 75.1 | — |
Скачок с Composer 1.5 — впечатляющий: +39% на CursorBench. Модель обходит Claude Opus 4.6 на собственном бенчмарке Cursor, хотя уступает GPT-5.4 Thinking.
Ценовое преимущество ещё заметнее. Composer 2 стоит $0.50/$2.50 за миллион токенов — на 86% дешевле Composer 1.5 и в разы дешевле Claude Opus 4.6 ($5/$25) и GPT-5.4 ($2.50/$15).
Стратегическая ловушка Cursor
Скандал с Kimi высвечивает структурную проблему компании. Cursor — платформа с миллионом ежедневных пользователей и оценкой в $50 млрд — зависит от моделей конкурентов. Anthropic агрессивно продвигает Claude Code, OpenAI развивает Codex. Оба продают подписки напрямую разработчикам.
При этом потребительские подписки Cursor, по имеющимся данным, уже работают в убыток — бизнес держится на корпоративных контрактах. Собственная модель нужна для выживания: она снижает зависимость от поставщиков и позволяет контролировать маржу.
Но «собственная» модель, основанная на чужом фундаменте без публичного признания — это удар по доверию. В мире разработчиков, где open-source атрибуция — базовая норма, такое замалчивание вызывает больше вопросов, чем сам факт использования Kimi K2.5.
Что дальше
Cursor обещает прозрачность в будущих релизах. Composer 2 уже доступен всем пользователям, быстрая версия ($1.50/$7.50) установлена по умолчанию. Модель работает только внутри Cursor — отдельного API нет.
Для индустрии главный урок не в скандале, а в самом факте: команда из нескольких десятков человек взяла открытую модель, дообучила её и получила результат, конкурирующий с миллиардными инвестициями фронтирных лабораторий. Это ставит интересный вопрос о реальной стоимости проприетарного претренинга — и, возможно, Cursor стоило задать его первым.

