Разборы

Как создаются дипфейки и в чём их опасность

Разбираемся с новым видом мошенничества
Что такое дипфейки

Искусственный интеллект может создавать двойников человека в видео, изображениях и аудиозаписях. Такие двойники называются дипфейками. Иногда дипфейки помогают режиссерам, сценаристам или актерам озвучки. А иногда их используют мошенники, чтобы обмануть людей.

В статье подробно разбираем плюсы и минусы использования дипфейков. А также рассказываем, как отличить подделку от оригинала и как защитить себя от дипфейков.

Что такое дипфейки и откуда они взялись

Представьте, что вы смотрите видео, на котором ваш любимый актер говорит что-то невообразимое. Или появляется в фильме, в котором на самом деле не снимался. Это называется дипфейк (от deep learning – «глубокое обучение» и fake – «подделка») — поддельное видео, аудио или фото, созданное нейросетями. 

Пример дипфейка — видео с Томом Крузом. Видео настолько реалистичное, что люди оставляют под видео комментарии «На самом деле немного страшно, насколько это реально выглядит» или «фейк Тома здесь машет руками, поправляет прическу и плавно надевает очки. Никаких глюков и мерцаний вообще нет».

Дипфейк Тома Круза настолько реалистичен, что зрителям становится жутковато от осознания, что перед ними не оригинал

Дипфейки стали активно появляться с 2017 года, когда пользователи Reddit начали экспериментировать с новой технологией машинного обучения. Тогда с помощью ИИ они подменяли лица девушек в роликах 18+ на лица известных актрис.

С тех пор нейросети поумнели, а создавать дипфейки стало проще.

Зачем создают дипфейки

В основном дипфейки используют в кинематографе и развлекательных роликах. В них с помощью дипфейков омолаживают актеров, улучшают качество лиц или заменяют одних актеров на других. 

Например, в фильме «Изгой-один. Звездные войны: Истории» воссоздали Питера Кушинга,  который сыграл гранд-моффа Таркина.

Оживленный нейросетью персонаж в фильме «Изгой-один. Звездные войны: Истории»
Оживленный нейросетью персонаж в фильме «Изгой-один. Звездные войны: Истории»

Другой пример — «омолодевшие» Роберт Де Ниро, Джо Пеши и Аль Пачино в фильме «Ирландец». По сюжету, герои картины появляются в фильме в возрасте 24, 36, 41, 42, 47, 55, 76 лет. И чтобы не использовать гримм, режиссер фильма Мартин Скорсезе использовал программу Face Finder для искусственного омоложения актеров.

Еще один кейс использования дипфейков — озвучка фильмов и сериалов на разных языках. Дипфейки помогают менять движения губ так, чтобы при дубляже не было рассинхронизации и закадровый голос всегда совпадал со словами героя.

Но иногда дипфейки используют в опасных целях: для обмана, шантажа, манипуляции общественным мнением или фишинга.

В случае с обманом, мошенники копируют голос жертвы, генерируют копию его голоса в нейронке с просьбой перевести деньги или что-то в этом роде. А потом звонят родственникам и друзьям жертвы, включают сгенерированный голос и ждут чуда.

Иногда мошенники идут дальше: взламывают социальные сети жертвы и пишут от её имени кому попало из контактов с просьбой занять денег. А в подтверждение того, что это пишет сама жертва — присылают голосовые сообщения. А если пишут в Telegram или WhatsApp — могут даже круглые видео прислать. И сразу подделку не заметить — кружок реально выглядит так, будто его записал тот самый человек.

В итоге жертва переводит деньги на счёт мошенников и те бросают аккаунт.

С шантажом все проще: злоумышленники могут сделать дипфейк с участием любого человека. А затем написать жертве и угрожать, что выложат дипфейк в сеть, если жертва не отправит деньги.

Некоторые злоумышленники создают фальшивые обращения политиков, в которых те якобы высказывают экстремистские или противоречащие их реальной позиции взгляды. Поддельные заявления быстро распространяются в социальных сетях и вводят людей в заблуждение. 

Например, в 2018 году злоумышленники создали дипфейк с бывшим президентом США Бараком Обамой, в котором он оскорбляет нового президента Дональда Трампа. Ролик стал вирусным и быстро разлетелся по соцсетям — люди возмущались, пока не поняли, что это дипфейк.

Дипфейк с Бараком Обамой
Дипфейк, компрометирующий американского политика, быстро стал вирусным

Примеров фишинга тоже много. Например, в 2019 г. в Великобритании мошенники создали аудиодипфейк голоса директора немецкой энергетической компании. Позвонили его подчиненному и потребовали в течение часа перевести €220 тыс. венгерскому поставщику. Сам пострадавший менеджер сказал, что узнал по телефону слабовыраженный немецкий акцент своего начальника и общий тон его голоса. Поэтому и перевел деньги.

Как создают дипфейки

Сильно вдаваться в технологии не будем, объясним общий принцип. 

Сначала нейросеть обучают на настоящих записях человека: голосовых сообщениях, фотографиях и видео. Нейронка анализирует эти данные и создает математическую модель человеческого лица. Запоминает, как выглядит «типичное» лицо, его пропорции, как оно меняется при разных эмоциях, как и с какой интонацией человек разговаривает. По ним нейронки учатся подделывать лицо, мимику и голос. И когда в нейросеть загружают нужное фото, ИИ распознает черты лица, а затем переносит данные из базы на статичный портрет. 

Технология обучения ИИ для оживления лица человека
Технология обучения ИИ для оживления лица человека

Пример такой нейронки — разработка Samsung и «Сколково». Программисты сделали нейросеть, которая может «оживлять» статичные изображения лиц.

4 ozhivshij s pomoshchyu nejroseti dostoevskij

«Оживший» с помощью нейросети Достоевский

Как отличить дипфейк от оригинала

Отличить дипфейк от настоящего видео сложно. Технологии развиваются, скиллы мошенников тоже. Если раньше в фейковых видео было много явных косяков, то сейчас их почти не найти. 

Но есть несколько признаков, по которым можно вычислить дипфейк:

  • Лицо размытое и нечеткое. Особенно это заметно возле рта и по краям лица. Как будто лицо немного плывет и его края сливаются с фоном.
  • Тени и блики на лице выглядят неестественно. Они могут быть слишком резкими или, наоборот, размытыми. Цвет кожи может меняться на разных участках лица.
  • Человек на видео очень редко моргает. Или вообще не моргает. Это потому, что нейросетям пока сложно правильно имитировать моргание.
  • Зубы похожи на одно белое пятно. Не видно отдельных зубов и прикуса. Как будто рот — это просто дырка с белой полосой внутри.
  • Одежда и фон вокруг человека могут выглядеть странно. На них могут быть искажения, размытия, неестественные тени и переходы цветов.

Это самые распространенные проколы нейронок, по которым можно вычислить дипфейк. Но даже если вы не заметили этих признаков, это не значит, что видео настоящее.

Поэтому главный совет — всегда включайте критическое мышление. Не верьте даже самым правдоподобным роликам. Особенно, если они вызывают у вас сильные эмоции — шок, возмущение или страх. Именно на таких эмоциях пытаются играть мошенники. Они хотят снизить вашу бдительность и обмануть вас.

А если видео кажется вам подозрительным, сделайте фактчекинг, поищите эту же информацию в других источниках.  Посмотрите, что пишут об этом серьезные СМИ и эксперты. Если нигде про это не написано, скорее всего, новость — фейк.

Как защитить себя от дипфейков

Чтобы мошенники сделали дипфейк, им нужно получить как можно больше фото, видео и записей голоса человека. Найти информацию они могут двумя способами: скачать что-то из открытых соцсетей или взломать аккаунт человека и скачать информацию из переписок.

Чтобы защититься, соблюдайте несколько правил:

  • Не загружайте свои фото, видео и аудиозаписи на сторонние ресурсы. Постарайтесь ограничить доступ к контенту со своим лицом.
  • Загружайте контент с водяными знаками. Благодаря водяным знакам злоумышленникам будет сложнее создать дипфейки. Все потому, что водяные знаки портят качество материала и мешают нейросетям правильно обучаться. Кроме того, по водяному знаку можно отследить, откуда взялось фото или видео и кто его настоящий владелец.
  • Придумайте кодовое слово для общения в переписках. Это должно быть какое-то необычное слово или фраза, которую знаете только вы и собеседник. И если вам пришлют подозрительное видео, попросите собеседника сказать ваше кодовое слово.
  • Надежно храните пароли. Записывайте их на листочек или добавляйте в облачное хранилище паролей. Придумывайте сложные пароли, которые сложно взломать. При этом для каждого сервиса придумывайте разные пароли.
  • Настройте двухфакторную аутентификацию.
  • Используйте антивирусы, чтобы вредоносное ПО не крало информацию с ПК.

Что в итоге

Дипфейки — это видео, аудио или фото, созданные нейросетями на основе большого количества реальных записей человека.

Дипфейки используют в кинематографе для омоложения актеров, улучшения качества лиц или замены одних актеров на других. Их также применяют для озвучки фильмов и сериалов на разных языках, чтобы избежать рассинхронизации.

Иногда дипфейки используют и в опасных целях: для обмана, шантажа, манипуляции общественным мнением или фишинга.

Отличить дипфейк от настоящего видео сложно, но есть несколько признаков: размытое и нечеткое лицо, неестественные тени и блики, редкое моргание, зубы, похожие на белое пятно, странный вид одежды и фона. Главное — всегда включайте критическое мышление и не верьте даже самым правдоподобным роликам. Особенно тем, что вызывают сильные эмоции.

Чтобы защититься от мошенников, не загружайте свои фото, видео и аудиозаписи в интернет. Используйте водяные знаки, придумайте кодовое слово для общения в переписках, надежно храните пароли и настройте двухфакторную аутентификацию.

Кстати, в школе Unisender есть онлайн-курс «AI & контент-маркетинг» для копирайтеров, SMM-специалистов, продюсеров и не только. Он помогает освоить необходимые скиллы, чтобы вместе с ИИ разрабатывать креативные контент-стратегии и рекламные кампании. Есть 100% кэшбэк на баланс в Unisender.

Как создаются дипфейки и в чём их опасность 6