GPT-5 без VPN

Aijora.ru — без ограничений

Попробовать бесплатно
Все новости
bytedanceseedanceai-videoгенерация видеоjimeng

Seedance 2.0: ByteDance показала, на что способно AI-видео

ByteDance выпустила Seedance 2.0 — мультимодальную модель генерации видео с нативным звуком, 12 входными референсами и режиссёрским контролем. Разбираем, что умеет новый претендент на трон.

Влад МакаровВлад Макаровпроверил и опубликовал
8 мин чтения
Seedance 2.0: ByteDance показала, на что способно AI-видео

Неделю назад мы писали про Kling 3.0 от Kuaishou. Казалось — ну вот, новый король AI-видео. Прошло семь дней, и ByteDance выкатила ответ, от которого челюсть отвисает заметно сильнее. Seedance 2.0 — это не просто апгрейд: модель принимает до 12 входных файлов одновременно, генерирует нативный звук и позволяет управлять камерой как на настоящей съёмочной площадке.

Что умеет Seedance 2.0

Seed — это исследовательская лаборатория ByteDance, аналог DeepMind у Google. Внутри неё два продукта: Seedream для изображений и Seedance для видео. Предыдущая версия, 1.5, вышла примерно два месяца назад и уже умела генерировать звук. Но 2.0 — совсем другой зверь.

Модель принимает четыре типа входных данных: изображения (до 9 штук), видео (до 3 клипов по 15 секунд), аудио и текст. Итого — до 12 референсов за одну генерацию. На выходе — видео от 4 до 15 секунд в разрешении 2K с нативным аудио: диалоги, шаги, эмбиент — всё синхронизировано в один проход.

Главное, что выделяет Seedance 2.0 среди конкурентов, — это режиссёрский контроль. Вы загружаете референсное видео, и модель извлекает из него движение камеры, хореографию, ритм монтажа. Загружаете изображение персонажа — и он появляется в новой сцене, сохраняя внешность кадр за кадром. Это не промт-рулетка, а что-то похожее на работу с виртуальной съёмочной площадкой.

Боевые сцены, спорт и motion transfer

Самое впечатляющее в демках Seedance 2.0 — физика тел в динамичных сценах. Драки с мечами, зомби, падающие как мешки с песком, ниндзя с вайрворком — модель удерживает правдоподобную физику ударов и столкновений. Раньше это был проклятый юзкейс для любой AI-видеомодели: руки проходили сквозь тела, инерция отсутствовала, а персонажи двигались как куклы.

ByteDance показала, что можно взять реальную хореографию двух актёров перед гринскрином и «переодеть» их в других персонажей, сохранив каждое движение. Отдельный трюк — «subvert the plot»: загружаешь видео с одним сюжетом, а модель переписывает развитие событий. Романтическая сцена на мосту превращается в триллер, а мужчина с букетом — в рекламу снэков.

Спортивные сцены тоже выглядят впечатляюще. Модель генерирует реалистичный motion transfer: загружаешь видео танцора, указываешь нового персонажа — получаешь точное воспроизведение движений с правильным отслеживанием камеры.

Мультикамерный монтаж и «один дубль»

Seedance 2.0 поддерживает мультикамерное повествование внутри одного клипа. Можно задать смену ракурсов, скоростные рампы и переходы через текстовый промпт — модель самостоятельно разбивает 15 секунд на «кадры» с разными углами. Независимые тестеры из Theoretically Media назвали один из таких примеров — проход по лондонской улице XIX века со сменой ракурсов — «одной из самых впечатляющих AI-генераций, которые я видел».

Другая фишка — генерация «одного дубля» (one-take). Можно задать первый и последний кадр, а модель создаст непрерывное видео между ними. Более того, последний кадр одного видео может стать первым кадром другого — нечто вроде монтажной склейки через генерацию.

Видеоинпейнтинг тоже на месте: можно изменить причёску персонажа в существующем видео или добавить в сцену акулу. Модель при этом адаптирует кадрирование, чтобы разместить новые элементы.

Jimeng AI и ожидаемый глобальный запуск

Seedance 2.0 уже доступна в бета-версии на Jimeng AI — китайской платформе ByteDance для генеративного контента. По неподтверждённым данным, API может появиться 24 февраля, а доступ для западных пользователей через платформы вроде Higgsfield и WaveSpeed — ещё раньше.

Параллельно ByteDance анонсировала Seedream 5.0 Preview — обновление модели генерации изображений. Судя по демкам, компания выстраивает полноценный конвейер: Seedream для изображений, Seedance для видео, единый мультимодальный стек.

Есть нюансы. Модель иногда «принимает решения за вас» — если считает, что не может точно воспроизвести референс, выдаёт собственную интерпретацию вместо ошибки. Это и сила, и слабость: результат часто выглядит лучше, чем буквальное следование промпту, но предсказуемость страдает.

Гонка ускоряется

Контекст здесь важен: Kling 3.0 вышла всего неделю назад, Google развивает Veo 3.1, OpenAI тестирует Sora 2. И вот уже Seedance 2.0 претендует на первое место. Независимый центр CTOL (Center for Technology Outcomes and Learning) назвал модель «самой продвинутой на планете» — оценка, от которой акции медиакомпаний в Китае подскочили на 20%.

Но главное — это даже не качество отдельных генераций. Seedance 2.0 показывает, что AI-видео перестаёт быть «вау-демо» и становится инструментом. Мультимодальный ввод, режиссёрский контроль, нативный звук — всё это приближает момент, когда создание коротких видео станет таким же доступным, каким стало создание изображений с появлением Midjourney.

И ещё один факт, который стоит держать в голове: ByteDance владеет TikTok. А значит, у них есть не только модель, но и датасет из миллиардов коротких видео, и дистрибуция для результатов. Февраль 2026-го — и мы ещё только в начале.

Похожие новости

Листайте вниз

для загрузки следующей статьи