Анализ данных • 03 апреля 2025 • 5 мин чтения

Что такое дипфейки, для чего их используют и чем они опасны

Подробно рассказываем, что такое DeepFake, где применяется эта технология и по каким признакам можно распознать дипфейки.

Что такое дипфейк

Дипфейк — это синтетически созданный медиаконтент (изображения, видео или аудио), который с высокой степенью реалистичности имитирует реальные записи. Такие подделки создаются с использованием глубоких нейронных сетей.

Термин «дипфейк» объединяет понятия «глубокое обучение» и «подделка», подчёркивая использование алгоритмов ИИ для создания реалистичных фальшивок.

Впервые ник Deepfakes использовал в 2017 году пользователь форума Reddit, опубликовавший видео порнографического содержания. Лица актёров он с помощью ИИ заменил на лица знаменитостей. По ассоциации все подобные замены стали называть дипфейками.

В более широком понимании дипфейк — это любая разновидность контента, неотличимая от реальной и сгенерированная с использованием алгоритмов искусственного интеллекта и машинного обучения.

Инженеры обучили нейросеть на тысячах фотографий из фильмов с участием Брюса Уиллиса, и в 2021 году дипфейк актёра появился в рекламных роликах «Мегафона». Источник: youtube

Освоить навыки анализа данных и машинного обучения поможет курс «Специалист по Data Science». Большую часть учёбы составляет практика — в портфолио войдут больше 15 проектов. Гарантируем интересные задачи и полное погружение в рабочую среду.

Принцип работы технологии

На заре появления дипфейков процесс их создания был довольно сложен. Специалисту необходимо было хорошо разбираться в принципах работы нейросети, потому что приходилось часто вносить изменения и обучать сеть под конкретную задачу. Также важно было иметь доступ к вычислительным ресурсам.

В настоящее время генерация дипфейков — это простой инструментарий, доступный даже школьникам и новичкам в работе с ИИ. Существуют готовые платформы и масса чат-ботов, которые за несколько секунд создают дипфейки. Пользователю достаточно загрузить исходное видео и фотографию лица для замены — результат будет готов за несколько секунд.

В телеграме работают десятки подобных ботов. Источник: Face Swap DEEPFACE BOT AI

Одна из наиболее популярных платформ для генерации дипфейков — HeyGen. Она позволяет превратить текст в видео за несколько минут. В легальных целях её используют для производства контента, в том числе цифровых аватаров.

Три видео в месяц продолжительностью до трёх минут можно сгенерировать бесплатно. Источник: heygen

Процесс работы с платформой предельно прост: чтобы создать цифрового двойника, нужно загрузить фотографию и короткое аудио с голосом. В итоге пользователь получает ожившую фотографию, которая говорит нужным ему голосом.

Применение

Полезные цифровые двойники

Создание дипфейков и цифровых двойников в легальных целях даёт массу дополнительных возможностей для производства контента и минимизации затраченных усилий и средств. Дипфейки активно применяются в индустрии культуры, образования и развлечений. Например, можно записывать обучающие видеокурсы без аренды студии, привлечения монтажёров и звукооператоров. Для создания курса понадобятся только фотография лектора, образец голоса и готовый текст.

Дипфейки — это отличное решение с точки зрения киноиндустрии, рекламы и массмедиа-индустрии. Например, в сериале «Мандалорец» образ молодого Люка Скайуокера был полностью воссоздан нейросетью.

Дипфейки позволяют заменить ушедших из жизни актёров или тех, кто по состоянию здоровья уже не может принимать участие в съёмках. Так, Брюс Уиллис, у которого диагностировали проблемы с речью, продал права на свой образ компании Deepfake.

«Вредные» двойники

Но у дипфейков есть и обратная, тёмная сторона: их активно используют мошенники. Они генерируют аудио и видео с лицом и голосом персонажа, которому человек доверяет, и просят, например, перевести деньги или совершить что-то противоправное.

Таким образом директор британской компании перевела мошенникам 243 тыс. долларов США якобы по звонку своего руководителя. А китайский бизнесмен потерял 610 тыс. долларов после разговора по видеосвязи со своим другом — им оказался дипфейк. Больше оказались потери гонконгской корпорации — её сотрудник, пообщавшись с дипфейками финансового директора и других топ-менеджеров, перевёл мошенникам 25 млн долларов.

Также с помощью дипфейков создают компрометирующие материалы, которыми могут шантажировать жертву. Другой способ незаконного обогащения — рекламные ролики с дипфейками пользующихся доверием известных лиц. Жертвой такой аферы стал Олег Тиньков: мошенники от его имени обещали выгоду клиентам банка.

По данным Identyty Fraud Report 2024, в среднем каждые 5 минут в мире происходит попытка дипфейк-атаки. Только в 2023 году количество мошеннических действий с использованием дипфейков увеличилось в 31 раз.

Каким способом можно распознать дипфейк

На сегодняшний день нет единой программы или подхода, которые со 100-процентной вероятностью позволили бы определить, является изображение дипфейком или нет. Исследования в этом направлении активно ведутся, но, по сути дела, это противоборство двух стихий. Первая пытается обойти любые ограничения, а вторая — создать непреодолимые барьеры, и это противостояние будет продолжаться бесконечно.

Крупные компании, такие как Microsoft, Intel и Ассоциация компаний Google, разрабатывают идею синтетических меток. Суть в том, чтобы отметить специальным «водяным знаком» в виде внутренней информации весь контент, который был сгенерирован с использованием нейросетей. Внешне такая отметка никак не проявляется, но после использования определённых алгоритмов позволяет определить, сгенерирована эта единица контента или существует в реальности.

Идея хороша, но у неё очень много ограничений. В частности, любое перекодирование, изменение размеров изображения или некая трансформация с помощью нейросети позволяют устранить эти отметки. Пока нет единой технологии, которая делает возможным консистентно сохранять «водяные знаки» на протяжении всего жизненного цикла контента. Возможно, в будущем такая «несмываемая печать» появится, и определение дипфейков станет проще.

С другой стороны, есть идеи маркировать реальный контент, например с уличных камер видеонаблюдения. В идеале будет существовать два вида маркированного контента — реального и созданного с помощью ИИ. Но на текущий момент нет единого подхода к маркировке контента, а значит, и доступного широкому кругу пользователей инструмента для стопроцентного распознавания дипфейков.

Евгений Арзамасцев
Большие корпорации будут продолжать исследования в области создания и распознавания дипфейков, и, возможно, в будущем появятся обязательная маркировка сгенерированного контента и доступные инструменты его распознавания. Но нужно учитывать, что всегда будут технологии, предназначенные для обхода этой защиты, и люди, которые будут в этом заинтересованы.

Рекомендации по распознаванию дипфейков

Дадим рекомендации, как можно понять, что некий контент представляет собой дипфейк.

1. Самый простой способ — включить критическое мышление. Если человек начинает говорить что-то несвойственное ему, что вызывает у зрителя вопросы, стоит задуматься: «Зачем он это говорит?» Можно поискать это видео в интернете по обратному поиску, то есть загрузить и поискать упоминания, было действительно что-то подобное или нет, какие события связаны с этим видео. Если ничего не находится, возможно, что это именно дипфейк.

2. Нужно быть внимательным и тренировать навык разглядывания. Предположим, что технология создания дипфейков дошла до такого уровня, что позволяет делать их в режиме реального времени. Сразу оговоримся, что сейчас это труднодостижимо. Но допустим, что это возможно. Как в этом случае определить, что общение идёт с дипфейком?

Большинство алгоритмов настроены на фронтальную замену лица. Если попросить собеседника почесать нос или глаз, провести рукой по волосам или коснуться подбородка, технология, скорее всего, даст сбой, то есть лицо как минимум дёрнется, и зритель поймёт, что это дипфейк.

Другой вариант: все технологии подмены лиц рассчитаны на то, что человек смотрит фронтально и чуть-чуть двигает головой. Нейросеть не видела ухо и затылок человека, лицо которого подменяет, поэтому любые движения в сторону от фронтальной плоскости, скорее всего, вызовут сбой в системе.

Разумеется, со временем эти баги будет устранены, и вполне возможно, что дипфейки смогут крутить головой на 360°, но пока это не работает. Поэтому если мы общаемся в соцсети и есть подозрение, что перед нами не тот человек, за которого выдаёт себя человек на видео, достаточно попросить, чтобы он повернулся спиной, и посмотреть, что произойдёт.

3. Помнить, что нейросети не идеальны, искать и тщательно рассматривать артефакты. Должны насторожить классические шесть пальцев или отсутствие моргания: дипфейк может не моргать очень долго — в отличие от реального человека. Если в коротком видеоролике отсутствует хотя бы одно моргание, это может служить сигналом для более детальной проверки на признаки дипфейка.

Другой яркий признак — несоответствие эмоций и выражения лица. Среднестатистический человек обычно хорошо чувствует эмоции. Несовпадение у дипфейков эмоций с мимикой вызывает недоумение и тревожность, это так называемый эффект зловещей долины. Суть в том, что чем больше лицо робота становится похожим на лицо человека, тем страшнее становится человеку, когда он понимает, что перед ним робот. Мы боимся того, что выглядит как человек, но не является человеком.

4. Должны насторожить моменты, связанные с технологией наложения лица. Обычно накладывается именно лицо, от линии волос до подбородка. Соответственно, можно заметить несовпадение оттенков кожи лица и шеи, полутона, разную освещённость и другие артефакты.
Нейросети часто не могут соотнести освещённость первого объекта с реальными условиями, которые были на видео, — в результате возникают артефакты, связанные с неправильной передачей светотени. Но, конечно, сразу распознать такие вещи бывает сложно.

Евгений Арзамасцев
Ещё у дипфейков есть совсем мелкие артефакты, которые возникают при близком рассмотрении. Допустим, если оригинальное видео было записано с определённым освещением, например рядом с окном или с лампой, у человека в обоих зрачках будет отражаться окно или лампа. Блик при этом будет одинаковым в левом и в правом зрачках.
Если же видео генерирует нейросеть, блики обычно разные. Например, в правом зрачке будет два блика, в левом три. Так тоже можно определить дипфейк.
Ещё есть технологический способ с использованием программных средств, которые могут определять, живой человек перед тобой или нет. У каждого человека под кожей есть сосуды, которые пульсируют. Некоторые бесконтактные полиграфы могут считывать сердцебиение по сосудам, то есть по еле заметным изменениям интенсивности цвета кожи и пульсации. Если она отсутствует, значит, перед нами дипфейк. Но подобное специальное программное обеспечение, во-первых, недешёвое, во-вторых, отсутствует в открытом доступе.

Совет эксперта

Евгений Арзамасцев
В данном случае только критическое мышление и попытка самому разобраться, не подделка ли это, позволит определить дипфейк. Нам придётся жить с такими генерациями, и даже хорошо, что сейчас появляется и активно обсуждается информация о них. Это поможет людям более критично воспринимать контент и не принимать за правду всю информацию, которая присутствует в интернете.
В целом нужно развивать знания в этой области и проводить определённые образовательные мероприятия для формирования правильного общественного мнения по отношению к дипфейкам.
Статью подготовили:
Евгений Арзамасцев
Яндекс Практикум
Старший эксперт направления Data Science
Мария Вихрева
Яндекс Практикум
Редактор
Анастасия Павлова
Яндекс Практикум
Иллюстратор

Дайджест блога: ежемесячная подборка лучших статей от редакции

Поделиться
Угадайте, где правда, а где фейк про IT, и получите скидку на курсы Практикума
Mon Apr 14 2025 10:23:23 GMT+0300 (Moscow Standard Time)