Runway Research объявила о запуске Act-One — новой генеративной ИИ-модели для создания video-to-video контента.
Act-One умеет считывать мимику и жесты пользователя, чтобы переносить их на генерируемого персонажа. Для использования нейросети не требуется захват движений, риггинг и хромакей:
«Основная проблема традиционных подходов [к генерации видео] заключается в сохранении эмоций и нюансов из референсных кадров в цифровом персонаже. Наш подход использует совершенно иной метод, основанный исключительно на игре актера и не требующий никакого дополнительного оборудования»
«Модель отличается исключительной надёжностью при любых углах камеры, сохраняя при этом высококачественную анимацию лица. Эта возможность позволяет пользоваетлям разрабатывать правдоподобных персонажей, которые передают подлинные эмоции и выражения, усиливая связь зрителя с контентом»
В компании также отметили работу над безопасностью и конфиденциальностью пользователей: Act-One получила:
- более надёжные возможности обнаружения и блокирования попыток создания контента, содержащего публичные персоны;
- технические меры для проверки того, что конечный пользователь имеет право использовать голос, созданный им с помощью Custom Voices;
- постоянный мониторинг для обнаружения и минимизации других потенциальных случаев неправомерного использования наших инструментов и платформы.
Runway Research начала разворачивать Act-One 22 октября. Компания обещает предоставить доступ к модели всем желающим в ближайшее время.