Можем ли мы доверять зрению? Разбираемся в технологии DeepFake

Автор Роман Сумцов 22:00 02.02.2019
- 1 +  7 948 0
Можем ли мы доверять зрению? Разбираемся в технологии DeepFake

Последние достижения в области искусственного интеллекта позволяют поставить под сомнения один из главных источников информации — зрение. Речь о технологии замены лиц deepfakes, дебютировавшей в 2017 году в порно-видео, где лица актрис заменяли на лица знаменитостей.

Технология продолжает развиваться и теперь её тестируют даже на политических лидерах стран. Правительство США всерьёз озадачилось данным вопросом, поставив под контроль разработку средств создания и обнаружения таких фальсификаций.

Потенциальная опасность

Мы привыкли доверять тому, что мы видим. Съёмки видеокамер являются неопровержимыми доказательствами в любом суде. Но что будет, если мы не сможем им верить? Вероятно, это станет началом новой информационной войны, в которой доверие может вызвать только то, что вы видели лично.

Попытки манипулировать видеоконтентом не новы. В кинематографе не раз встречались случаи, когда в кадре появлялись уже ушедшие из нашего мира актеры. Тут можно вспомнить заключительные кадры из фильма Форсаж 7, где появляется трагически погибший актёр Пол Уокер.

Ранее подобные проделки требовали большого количества специалистов, много денежных средств и времени. Теперь же технологический процесс может быть доступен почти кому угодно, что создает угрозу применения подобных фальшивок в политических и криминальных целях.

Если вы думаете, что вас это может не коснуться — задумайтесь. Кто-то может сделать вас участником спорного эротического эпизода или подделать видео преступления. Это проблема не только на уровне звёзд и политиков, вскоре это может стать вопросом каждой личности.

Технологический процесс

Большую роль в создании подобных эффектов играют машины, а не человек, что делает процесс создания максимально простым. Достаточно отобрать материал и создать готовую модель, далее с ней можно делать практически всё что угодно.

Можно поместить лицо в уже отснятый материал или изменить мимику и речь, сказав то, что ранее человек не говорил. Возможности современных синтезаторов и акустических программ позволяют воссоздавать реалистичные голоса, так что вопрос остаётся в изображении.

Наиболее ужасающе выглядит применение подобных технологий в реальном времени. А такая возможность уже есть. Достаточно совместить искусственный интеллект и умелого актера.

Причём для борьбы с фальсификациями используется компьютер. Исследователи демонстрируют искусственному интеллекту скомпрометированные и оригинальные материалы, обучая его находить отличия в мимике и голосе. 

Алгоритм ищет несоответствия и признаки обработки, позволяя выявить подозрительные участки или же точно определить фальсификацию.

Что в итоге?

Сейчас это выглядит скорее как забавная игрушка. В интернете всплывают различные ролики с заменами лиц знаменитостей или интеграции компьютерных персонажей в фильмы для взрослых. 

Джокер в фильме «История рыцаря»

Но если абстрагироваться от шуток, то перед нами очередная гонка вооружений, происходящая за право занять первенство в информационной войне.

Подобные технологии способны перевернуть наше виденье настоящего, изменить записи прошлого и сформировать нужное кому-то будущее. Как можно потреблять информацию, если всё что угодно может оказаться фальсификацией? 

Подписывайтесь на Rozetked в Telegram, во «ВКонтакте» и обязательно в YouTube.

14.05.2024
Google I/O 2024
21.05.2024
Microsoft Build 2024
Нет событий
04.04.2025
«Форсаж 11»
Все события





Реклама на сайте



Комментарии

14.05.2024
Google I/O 2024
21.05.2024
Microsoft Build 2024
Нет событий
04.04.2025
«Форсаж 11»
Все события





Реклама на сайте