0800-31-0700 для новых абонентов
0800-31-0800 техническая поддержка

Дипфейки: как и с какой целью создаются и как их выявить?

Главная /

Блог

/

Дипфейки: как и с какой целью создаются и как их выявить?

Дипфейки: как и с какой целью создаются и как их выявить?

16.11.2023

Интернет

17114

Наверняка вам попадались в Интернете дипфейки — фото и видео, очень похожие на реальные, но на которых люди говорят или делают вещи, которые на самом деле не делали. Термін “deepfake” представляет собой комбинацию двух понятий: “deep learning” (глубокое обучение) и “fake” (подделка). То есть это фотографии или видеоролики, искусственно сгенерированные с использованием знаний, полученных в процессе обучения нейросетями. С помощью каких инструментов их создают, зачем и как отличить дипфейковые изображения от реальных? Давайте разберемся вместе.

Специальные приложения для создания дипфейков

Сегодня каждый, кто имеет смартфон, может загрузить на него то или другое приложение, предназначенное для создания дипфейков. Вот несколько из них:

Reface

Это самое популярное приложение App Store, к тому же созданное украинскими разработчиками. С помощью онлайн-сервиса можно заменять одно лицо на другое в видео или на GIF-изображениях. Достаточно только сделать селфи и выбрать целевой ролик, и сервис создаст анимированную картинку. Но точность конечного результата зависит от симметрии лица на фото и качества входящих данных.

Avatarify

Дипфейк-приложение, доступное на iOS и Android, дает возможность загрузить любое фото из галереи смартфона. Путем переноса эмоций на лицо нейронная сеть оживляет его и сохраняет результат в виде короткого видео.

Wombo

Сервис предоставляет статичным лицам людей на фото певческую мимику. Для этого пользователю достаточно сделать селфи и выбрать музыкальный трек из перечня предложенных, а дальше система анимирует лицо и синхронизирует его губы с выбранной композицией.

MyHeritage

Это бесплатное приложение оснащено функцией “глубокая ностальгия”, которая анимирует старые фото, даря им новую жизнь. Все, что для этого нужно сделать — загрузить изображение и нажать кнопку анимации.

DeepFakes Web

Нужно заменить лицо одного человека в видео на другое? С этим вам поможет DeepFakes Web. Необходимо только загрузить исходный и целевой ролики, а далее в течение 30 минут будет выполнена обработка видео в облаке. Приложение доступно для загрузки как на iOS, так и на Android.

Вред и польза дипфейков

Доступность технологии создания дипфейков способствует распространению множественных манипуляций в обществе. Выдавая ложь за правду, легко убедить людей верить в то, чего на самом деле не существует. А это очень опасно и может иметь значительные последствия: уничтожение репутации, разрушение брака, срыв выборов и т.п.

Наибольшую популярность дипфейки приобрели с появлением в 2017 году приложения FaceApp. Сегодня созданные подделки массово выкладывают в интернет-сети. В частности, дипфейковые видео можно найти на YouTube. Например, как вот этот популярный ролик, в котором вроде бы Барак Обама обидно говорит о Дональде Трампе:


Использование результатов дипфейковой технологии может навредить репутации конкретного человека. Так, одним из первых и наиболее известных дипфейков в истории стало видео с актрисой Галь Гадот: в ролике лицо кинозвезды “прилепили” к телу порноактрисы. А впоследствии жертвами аналогичных манипуляций стали и другие актрисы (Натали Портман, Эмма Уотсон, Натали Дормер и др.).

Фальсификация данных с дальнейшей выдачей их за доказательства в суде — еще один недобросовестный способ применения фото- и видеодипфейков. Как и обман систем распознавания лиц или голоса путем имитации биометрических данных с целью нарушения личной безопасности человека.

Но вместе с тем технологию используют и с пользой при выполнении рабочих задач. Например, в киноиндустрии, когда нужно заменить актера, исправить ошибки в съемках, синхронизировать движение актерских губ и аудиодорожки при дублировании фильмов разными языками и т.п. Или в маркетинге, как это сделал бренд Lays в своей рекламной кампании, в которой использовал дипфейк звездного футболиста Лионеля Месси:


Еще один пример экологичного применения дипфейков: в документальном фильме об американском шеф-поваре Энтони Бурдене был использован подделанный голос знаменитости для того, чтобы прочитать отчаянное личное электронное письмо.

Также результаты “творчества” нейросетей становятся популярным способом развлечений. Один з них — публикация пользователями в соцсетях Instagram и TikTok отрывков популярных кинокартин с замененными лицами героев, созданными через специальные приложения. Тут же можно вспомнить о выложенных на аккаунте @deeptomcruise в TikTok видео будто бы с Томом Крузом, которые за три дня набрали миллионы просмотров. Из этого можно сделать вывод: аккаунт каждой публичной персоны должен быть верифицированным, чтобы это упростило идентификацию фейковых страниц.

Учимся распознавать дипфейки в сети

Если на этапе появления технологии распознать созданные дипфейки было проще, то с ее развитием сделать это становится все сложнее. С большей вероятностью выявить поддельные фото и видео может помочь специальное программное обеспечение. Но практика подтверждает, что лучшие результаты удается получить на примерах селебрити, ведь в свободном доступе есть много материалов, на которых искусственный интеллект имеет возможность тренироваться. С разоблачением дипфейков с обычными людьми машинным алгоритмам справиться сложнее.

Однако, выявить фальшивку все же возможно, обратив внимание на такие несоответствия:

  • Визуальные. Помните, как первые сгенерированные ИИ изображения людей имели странные ладони с шестью пальцами на них? Конечно, современные дипфейки уже не такие бестолковые. Теперь вас должны насторожить необычные движения тела или мимика лица человека (например, неморгающие глаза, непоследовательные тени или освещение и пр.).
  • Звуковые. Если замечаете, что произношение персонажа на видео не синхронизируется с движением его губ, это тоже явно указывает на подделку.
  • Контекстуальные. Не забудьте подключать критическое мышление, которое поможет вам ответить на вопрос: “В состоянии ли герой видео вообще говорить и делать то, что я вижу?“.

А еще имеет значение, насколько надежным является источник публикации. Уважаемые мировые издания обычно тщательно проверяют материалы, которые публикуют на своих веб-страницах. А вот если вы наткнулись на сайт какой-то “желтой прессы”, то внимательно пересмотреть размещенные на нем фотографии или видео не помешает.

Резюме

Чем более продвинутыми становятся алгоритмы машинного обучения, тем лучше становится их продуктивность, а значит, тем более реалистичными дипфейки. Но по определенным признакам все-таки можно отличить фотографии и видео, сгенерированные нейросетями, от созданных человеком. И хорошо, когда это препятствует использованию синтезированных человеческих изображений и видео как оружия для распространения дезинформации, которая способна серьезно навредить другим.

Комментарии

0

Еще комментарии