Новая модель ИИ от Runway: стабильные видео, люди и сцены, наконец, реальность
Новая модель Runway Gen-4 создает согласованные видеоролики с персонажами и сценами, не меняющимися в процессе. Обеспечивает непрерывность повествования и контроль над процессом генерации. Доступно платным пользователям.
Преодоление границ: стабильные персонажи и сцены
Компания Runway представила четвертое поколение своей модели генерации видео – Runway Gen-4. Это значительный шаг вперед в создании реалистичных и последовательных видеороликов. В отличие от многих существующих решений, Gen-4 способна генерировать персонажей и сцены, сохраняя их визуальное единство на протяжении нескольких кадров. Проблема несоответствий в повествовании, характерная для многих AI-видео, в случае с Gen-4 существенно смягчена. Разработчики обещают пользователям значительно больший контроль и непрерывность при создании видеоисторий.
Возможности Runway Gen-4: от одного изображения к целостной сцене
Доступная платным и корпоративным пользователям, модель Gen-4 предлагает революционный подход к генерации видео. Теперь достаточно одного исходного изображения, чтобы создать персонажа или объект, который будет последовательно отображаться в разных кадрах и под разными углами. Пользователю необходимо лишь описать желаемую композицию, а алгоритм Gen-4 сгенерирует согласованные результаты, учитывая различные ракурсы и условия освещения. Например, в демонстрационных видеороликах показано, как внешний вид женщины остается неизменным при изменении ракурса и освещения.
Быстрый прогресс и этические вопросы
Выпуск Gen-4 состоялся менее чем через год после анонса Runway Gen-3 Alpha. Хотя Gen-3 Alpha позволила создавать более длинные видео, она вызвала острую дискуссию в сообществе из-за сообщений о том, что в процессе обучения использовались тысячи видеороликов, загруженных с YouTube и пиратских ресурсов. Этот опыт, безусловно, повлиял на разработку Gen-4, побудив разработчиков уделить больше внимания этическим аспектам создания подобных моделей.