Учёные создали ИИ, который генерирует реалистичные анимации танцевальных движений в такт музыке
Алгоритм обучен на пятисекундных танцевальных клипах.

Специалисты Стендфордского университета Джонатан Ценг, Родриго Кастеллон и Карен Лю представили нейросетевую модель EDGE (Editable Dance Generation from Music). Она умеет генерировать реалистичные танцевальные движения с учётом воспроизводимой музыки.
Нейросетевой алгоритм обучен на серии пятисекундных танцевальных клипов. Однако модель способна генерировать ролики любой продолжительности. Создатели EDGE отдельно отмечают физическую правдоподобность результатов: технология учитывает в том числе время контакта и стопы с землёй, а также возможности скольжения по поверхности.
EDGE поддерживает ряд пространственных и временных ограничений. Например, можно задать определённые движения для начала танца; задействовать только некоторые части тела «танцора»; ограничивать движения заданным пространством.
