Что такое дипфейки, для чего их используют и чем они опасны
Что такое дипфейки, для чего их используют и чем они опасны
Подробно рассказываем, что такое DeepFake, где применяется эта технология и по каким признакам можно распознать дипфейки.
Дипфейк — это синтетически созданный медиаконтент (изображения, видео или аудио), который с высокой степенью реалистичности имитирует реальные записи. Такие подделки создаются с использованием глубоких нейронных сетей.
Термин «дипфейк» объединяет понятия «глубокое обучение» и «подделка», подчёркивая использование алгоритмов ИИ для создания реалистичных фальшивок.
Впервые ник Deepfakes использовал в 2017 году пользователь форума Reddit, опубликовавший видео порнографического содержания. Лица актёров он с помощью ИИ заменил на лица знаменитостей. По ассоциации все подобные замены стали называть дипфейками.
В более широком понимании дипфейк — это любая разновидность контента, неотличимая от реальной и сгенерированная с использованием алгоритмов искусственного интеллекта и машинного обучения.
Инженеры обучили нейросеть на тысячах фотографий из фильмов с участием Брюса Уиллиса, и в 2021 году дипфейк актёра появился в рекламных роликах «Мегафона». Источник: youtube
Освоить навыки анализа данных и машинного обучения поможет курс «Специалист по Data Science». Большую часть учёбы составляет практика — в портфолио войдут больше 15 проектов. Гарантируем интересные задачи и полное погружение в рабочую среду.
На заре появления дипфейков процесс их создания был довольно сложен. Специалисту необходимо было хорошо разбираться в принципах работы нейросети, потому что приходилось часто вносить изменения и обучать сеть под конкретную задачу. Также важно было иметь доступ к вычислительным ресурсам.
В настоящее время генерация дипфейков — это простой инструментарий, доступный даже школьникам и новичкам в работе с ИИ. Существуют готовые платформы и масса чат-ботов, которые за несколько секунд создают дипфейки. Пользователю достаточно загрузить исходное видео и фотографию лица для замены — результат будет готов за несколько секунд.
Одна из наиболее популярных платформ для генерации дипфейков — HeyGen. Она позволяет превратить текст в видео за несколько минут. В легальных целях её используют для производства контента, в том числе цифровых аватаров.
Процесс работы с платформой предельно прост: чтобы создать цифрового двойника, нужно загрузить фотографию и короткое аудио с голосом. В итоге пользователь получает ожившую фотографию, которая говорит нужным ему голосом.
Создание дипфейков и цифровых двойников в легальных целях даёт массу дополнительных возможностей для производства контента и минимизации затраченных усилий и средств. Дипфейки активно применяются в индустрии культуры, образования и развлечений. Например, можно записывать обучающие видеокурсы без аренды студии, привлечения монтажёров и звукооператоров. Для создания курса понадобятся только фотография лектора, образец голоса и готовый текст.
Дипфейки — это отличное решение с точки зрения киноиндустрии, рекламы и массмедиа-индустрии. Например, в сериале «Мандалорец» образ молодого Люка Скайуокера был полностью воссоздан нейросетью.
Дипфейки позволяют заменить ушедших из жизни актёров или тех, кто по состоянию здоровья уже не может принимать участие в съёмках. Так, Брюс Уиллис, у которого диагностировали проблемы с речью, продал права на свой образ компании Deepfake.
Но у дипфейков есть и обратная, тёмная сторона: их активно используют мошенники. Они генерируют аудио и видео с лицом и голосом персонажа, которому человек доверяет, и просят, например, перевести деньги или совершить что-то противоправное.
Таким образом директор британской компании перевела мошенникам 243 тыс. долларов США якобы по звонку своего руководителя. А китайский бизнесмен потерял 610 тыс. долларов после разговора по видеосвязи со своим другом — им оказался дипфейк. Больше оказались потери гонконгской корпорации — её сотрудник, пообщавшись с дипфейками финансового директора и других топ-менеджеров, перевёл мошенникам 25 млн долларов.
Также с помощью дипфейков создают компрометирующие материалы, которыми могут шантажировать жертву. Другой способ незаконного обогащения — рекламные ролики с дипфейками пользующихся доверием известных лиц. Жертвой такой аферы стал Олег Тиньков: мошенники от его имени обещали выгоду клиентам банка.
По данным Identyty Fraud Report 2024, в среднем каждые 5 минут в мире происходит попытка дипфейк-атаки. Только в 2023 году количество мошеннических действий с использованием дипфейков увеличилось в 31 раз.
На сегодняшний день нет единой программы или подхода, которые со 100-процентной вероятностью позволили бы определить, является изображение дипфейком или нет. Исследования в этом направлении активно ведутся, но, по сути дела, это противоборство двух стихий. Первая пытается обойти любые ограничения, а вторая — создать непреодолимые барьеры, и это противостояние будет продолжаться бесконечно.
Крупные компании, такие как Microsoft, Intel и Ассоциация компаний Google, разрабатывают идею синтетических меток. Суть в том, чтобы отметить специальным «водяным знаком» в виде внутренней информации весь контент, который был сгенерирован с использованием нейросетей. Внешне такая отметка никак не проявляется, но после использования определённых алгоритмов позволяет определить, сгенерирована эта единица контента или существует в реальности.
Идея хороша, но у неё очень много ограничений. В частности, любое перекодирование, изменение размеров изображения или некая трансформация с помощью нейросети позволяют устранить эти отметки. Пока нет единой технологии, которая делает возможным консистентно сохранять «водяные знаки» на протяжении всего жизненного цикла контента. Возможно, в будущем такая «несмываемая печать» появится, и определение дипфейков станет проще.
С другой стороны, есть идеи маркировать реальный контент, например с уличных камер видеонаблюдения. В идеале будет существовать два вида маркированного контента — реального и созданного с помощью ИИ. Но на текущий момент нет единого подхода к маркировке контента, а значит, и доступного широкому кругу пользователей инструмента для стопроцентного распознавания дипфейков.
Совет эксперта
Читать также: