Runway выпустила Act-One — новый ИИ для генерации video-to-video контента

Нейросеть умеет считывать мимику и жесты пользователя и переносить их на генерируемого персонажа.

Runway выпустила Act-One — новый ИИ для генерации video-to-video контента

Runway Research объявила о запуске Act-One — новой генеративной ИИ-модели для создания video-to-video контента.

Act-One умеет считывать мимику и жесты пользователя, чтобы переносить их на генерируемого персонажа. Для использования нейросети не требуется захват движений, риггинг и хромакей:

«Основная проблема традиционных подходов [к генерации видео] заключается в сохранении эмоций и нюансов из референсных кадров в цифровом персонаже. Наш подход использует совершенно иной метод, основанный исключительно на игре актера и не требующий никакого дополнительного оборудования»
— отмечают в Runway
«Модель отличается исключительной надёжностью при любых углах камеры, сохраняя при этом высококачественную анимацию лица. Эта возможность позволяет пользоваетлям разрабатывать правдоподобных персонажей, которые передают подлинные эмоции и выражения, усиливая связь зрителя с контентом»
— Runway

В компании также отметили работу над безопасностью и конфиденциальностью пользователей: Act-One получила:

  • более надёжные возможности обнаружения и блокирования попыток создания контента, содержащего публичные персоны;
  • технические меры для проверки того, что конечный пользователь имеет право использовать голос, созданный им с помощью Custom Voices;
  • постоянный мониторинг для обнаружения и минимизации других потенциальных случаев неправомерного использования наших инструментов и платформы.

Runway Research начала разворачивать Act-One 22 октября. Компания обещает предоставить доступ к модели всем желающим в ближайшее время.