Исследование: 96% видео с DeepFake используется в порно

Чаще всего в таких видео изменяют лица исключительно женщинам.

Исследование: 96% видео с DeepFake используется в порно

Почти всё видео, созданное с технологией DeepFake, относится к порнографическому контенту. Такой вывод сделали исследователи нидерландской компании по кибербезопасности Deeptrace. 

В докладе экспертов сказано, что порно с технологией замены лица было просмотрено более 134 млн раз, причём подвергаются DeepFake в основном женщины. 

Даниэль Ситрон, профессор права Бостонского университета, считает, что «подделки» используются в качестве оружия против женщин: «Это смущает, унижает и заставляет замолчать. Порно-видео такого плана отнимают у женщин чувство безопасности».

В отчёте говорится, что с декабря 2018 года было найдено более 14 678 видео с DeepFake в интернете — это больше, чем 7964 видео, найденных в прошлом году. Deeptrace также отмечает, что 96% всех видео — порно.

Развитие «фейковых» видео стимулировалось открытыми алгоритмами обмена лицами, размещёнными на GitHub, а также быстрым ростом Generative Adversarial Network (GAN) в технологиях машинного обучения. Благодаря этому в сети появилось приложение, генерирующее обнаженные фигуры на фотографиях, которое быстро набрало популярность. 

В настоящее время существует несколько приложений и сервисов, которые помогут вам создать фальшивые видео за считанные минуты, добавляют эксперты. Даже если кто-то не владеет мощной аппаратурой, он может заплатить пару долларов и получить готовый материал с DeepFake.

Deeptrace заключает, что технология сама по себе является большой угрозой и предоставляет киберпреступникам новые возможности для мошенничества.