«Сбер» выложил в открытый доступ модель для генерации видео Kandinsky Video Lite

А также нейросеть для создания векторных представлений текста — Giga-Embeddings.

«Сбер» выложил в открытый доступ модель для генерации видео Kandinsky Video Lite

«Сбер» поделился с разработчиками и бизнесом двумя моделями искусственного интеллекта — Kandinsky Video Lite и Giga-Embeddings. Об этом Rozetked рассказали в пресс-службе компании.

Kandinsky Video Lite преобразует текстовые описания в видео длительностью до 10 секунд и с разрешением SD или HD. Модель с 2 млрд параметров превосходит по общему качеству более крупные нейросети — Wan 2.1 14B, Wan 2.2 5B и оригинальную Sora, показывают внутренние тесты «Сбера».

Инженеры специально дообучили Kandinsky Video Lite на более чем миллионе изображений и видео, демонстрирующих российский культурный код — благодаря этому модель хорошо понимает характерные для нашей страны и её истории объекты.

Также в open-source теперь доступна оптимизированная версия — Kandinsky Video Lite Flash, которая работает в 6 раз быстрее базовой модели.

Giga-Embeddings — это модель, преобразующая текстовую информацию в эффективные векторные представления. На базе нейросети можно строить высокоэффективные RAG-системы (Retrieval-Augmented Generation) для поиска по документам, аналитики данных и автоматизированной поддержки пользователей на основе данных конкретного бизнеса. 

Как отметили в «Сбере», Giga-Embeddings занимает первое место в общем зачёте бенчмарка ruMTEB, который демонстрирует способности модели на русском языке, с результатом 74.1.

Kandinsky Video Lite доступна на платформах Hugging Face, GitVerse и GitHub, а ознакомиться с Giga-Embeddings можно на Hugging Face и GitVerse.