Разборы

8 способов обмана с помощью нейросетей

Как мошенники используют нейросети и как распознать обман
8 способов обмана с помощью нейросетей

Нейросети — полезный инструмент для генерации картинок, текстов, обработки аудио и видео. Но в руках злоумышленников эти возможности используются в корыстных целях: для шантажа и вымогательства. Случаев ИИ-мошенничества становится больше, поэтому мы решили разобрать обманные схемы и рассказать, как не попасться на крючок.

Имитация голоса

Телефонное мошенничество благодаря ИИ вышло на новый уровень. Злоумышленник обучает нейросеть «разговаривать» чужим голосом, а потом звонит или отправляет голосовые сообщения жертве. 

В ОАЭ был случай, когда аферист, сымитировав голос директора компании, позвонил сотруднику банка и убедил его перевести на новый счет $35 млн. Похожая история произошла и в России, в Нижнем Новгороде: бухгалтеру позвонила «директор» и попросила достать наличные из сейфа и отправить их курьером. Жертва утверждает, что нейросеть в точности повторила голос руководительницы.

Мэр Березовского Свердловской области Евгений Писцов рассказывал о том, что аферисты от его лица писали и звонили людям с целью вымогательства денег.

Писцов и скрин переписки
Переписка от чужого лица

Следующая история показывает, что нейросеть способна разрушить карьеру. Актриса озвучки и дубляжа Алена Андронова подала в суд на «Т-Банк» за недобросовестное использование записи ее голоса, которая должна была применяться только для обучения голосового помощника. Однако банк предоставил возможность кому угодно и как угодно использовать голос Алены для синтеза любых реплик. Так, в 2022 году она услышала рекламу фильмов для взрослых, озвученную ее голосом.

Как распознать обман:

  • Неестественный голос, странный темп речи. Голос звучит слишком монотонно, роботизированно. Говорящий иногда ставит не те ударения, произносит слова с неправильной интонацией, делает долгие паузы.
  • Речь слишком правильная. Если живые люди употребляют слова-паразиты и запинаются, то нейросеть строит предложения как по учебнику.
  • Собеседник идет по сценарию. На уточняющие вопросы отвечает уклончиво и невнятно, продолжает гнуть одну и ту же линию.

Дипфейки

Дипфейк — синтез изображения и голоса с помощью искусственного интеллекта. Злоумышленник использует фото и видео жертвы, чтобы сгенерировать его точную цифровую копию. 

Так, на YouTube провели 5-часовую трансляцию с «Илоном Маском», который рекламировал криптовалютный скам.

Сгенерированный Илон Маск
На первый взгляд не отличить от настоящего

А еще задолго до этого в сети распространилось видео с якобы президентом Казахстана Токаевым, где тот призывал вкладываться в инвестплатформу Маска.

Сгенерированный Токаев
Этот скрин выглядит менее естественным

Банк России предупреждает о том, что мошенники используют дипфейки, чтобы выманивать деньги у граждан. Они крадут фотографии и видеозаписи из соцсетей, синтезируют двойников и рассылают видеоизображение знакомым. Как правило, клон рассказывает о тяжелой ситуации и просит отправить деньги.

Иногда дипфейки создаются в развлекательных целях или для привлечения внимания. В 2023 году, например, российский президент на пресс-конференции пообщался с неким «студентом СПбГУ».

Владимир Путин и его дипфейк
К прямому эфиру с президентом (слева) подключился его дипфейк (справа)

Часто героями таких видео становятся актеры. В 2021 году в TikTok распространилось видео, где двойник Леонардо ДиКаприо на Красной площади говорит на русском и передает привет своей маме.

Дипфейк Леонардо ДиКаприо на Красной площади
Некоторые действительно решили, что актер посетил Москву

Как распознать обман:

  • У человека неестественная мимика. Персонаж странно моргает, движение губ не совпадает с речью.
  • Некорректное изображение лица. Тени, пересветы, сильные различия в тонах кожи на разных участках.
  • Картинка сбоит, если персонаж машет рукой перед лицом, поправляет волосы или резко двигает головой.

В отдельной статье мы подробно рассказали о дипфейках и способах их распознать.

Сгенерированные фото

Фотографии, созданные в нейросетях, многих вводили в заблуждение, иногда — даже самых близких людей. В этом году певица Кэти Перри получила от мамы сообщение, где та хвалила ее образ на Met Gala. Только вот звезда мероприятие пропустила, а фото Перри в роскошном платье было фейковым.

Фото Кэти Перри на Met Gala, созданное нейросетью
Платье кажется невероятным даже для сверхпопулярного бала

Часто мошенники продают откровенные фотографии знаменитостей, созданные с использованием нейросетей. На eBay предлагали фейковые снимки Тейлор Свифт, Селены Гомес, Кэти Перри, Арианы Гранде, Дженны Ортеги, Марго Робби и Галь Гадот.

В 2023 году по интернету разлетелся снимок Папы Римского в длинном белом пуховике и со стаканчиком кофе. Картинка абсурдная, но выполнена достаточно реалистично, чтобы в нее поверили.

Папа Римский в белом пуховике
Правая рука со стаканчиком выглядит неестественно

Иностранный журналист сгенерировал несколько фотографий, где бывшего президента США Дональда Трампа задерживает полиция.

Дональда Трампа задерживают полицейские
Нейросеть явно запуталась с количеством и положением ног, но если не вглядываться, то и в такой фейк можно поверить

Пользователь Reddit с ником Arctic_Chilean выложил фейковые снимки разрушительных последствий землетрясения и цунами, которые якобы накрыли тихоокеанское побережье США и Канады в 2001 году. Фото были выложены в одной из веток, где публиковались творения нейросети Midjourney— так что никакого обмана. Но пост развирусился, попал на главную страницу сайта, и те, кто не знал контекст, поверили в эти снимки.

Полуразрушенный дом и обломки
Полуразрушенный дом
Службы спасения ищут пострадавших среди обломков
Сотрудники службы спасения за работой

На международном конкурсе фотографий Sony World Photography Awards победил снимок, сгенерированный нейросетью. Автор, немецкий художник Борис Эльдагсен, от награды отказался и жестко раскритиковал организаторов за ошибку. По его словам, он отправил созданное ИИ фото, «чтобы проверить, готов ли конкурс к изображениям нейросетей». Выяснилось, что не готов.

ИИ-изображение, победившее на конкурсе
Работа очень напоминает настоящие старые снимки

Как распознать обман:

  • Некачественные мелкие детали. Нейросети могут ошибиться с количеством пальцев, не ровно прорисовать линию роста волос, сделать лицо асимметричным, исказить некоторые элементы. На портретных снимках отчетливо видно лицо, а задний план размытый.
  • Идеальные пейзажи и фоны. Сгенерированные картинки часто слишком красивые, чтобы быть настоящими.

Есть сервисы, которые помогают отличить нейросетевые изображения от настоящих: Maybe’s AI Art Detector, Hive и другие. А еще мы писали подробный гайд о том, как определить, что картинку сгенерировала нейросеть.

Несуществующие товары на маркетплейсах

Мошенники генерируют изображения товаров, выкладывают их на маркетплейсы под видом настоящих и пытаются завести переписку в мессенджере, чтобы жертва оплатила покупку в обход площадки. Про подобные случаи обмана покупателей в 2022 году сообщал Wildberries.

Маркетплейс со своей стороны ввел для продавцов дополнительную идентификацию через банковские сервисы, но пользователям все равно лучше внимательнее приглядываться к фотографиям товаров и не переходить по сторонним ссылкам.

Как распознать обман:

  • Оценить реалистичность изображения. ИИ может добавлять лишние элементы, генерировать снимки в неправдоподобных ракурсах.
  • Заманивание в мессенджеры, просьба оплатить товар по сторонней ссылке. Коммуникация и платежи должны осуществляться внутри маркетплейса.

Имитация сотрудника банка, налоговой или другой службы

Аферисты используют нейросети, чтобы те давали подсказки: фразы и выражения, которые можно услышать от работника банка или налоговой. Мошенник заставляет жертву перевести деньги, сообщить паспортные данные или реквизиты банковской карты.

И такой способ обмана связан не только с финансовыми организациями. Популярный сайт для бронирования отелей Booking.com столкнулся с наплывом аферистов, рассылающих по email сгенерированные ИИ сообщения от имени отелей. Злоумышленники хотели получить личные данные путешественников.

ChatGPT сгенерировал сообщение якобы от имени отеля
Пример фейкового письма от имени отеля в ChatGPT. В нем содержится просьба сообщить платежные данные, чтобы «заселение прошло гладко».

Как распознать обман:

  • Собеседник теряется, когда отвечает на дополнительные вопросы. Можно уточнить должность, адрес отделения или информацию о взаимодействии с организацией, которой владеют только сотрудники (сроки действия договоров, дата последнего обращения).
  • Запрашивает личную информацию. Настоящий сотрудник не просит данные карты или паспор

Флирт по переписке

Мошенник может выдавать себя за девушку или парня с сайта знакомств. Способ обмана не новый, но стал популярнее из-за нейронки LoveGPT. Злоумышленник отправляет нейросети сообщения жертвы, а в ответ присылает игривые фразы, которые выдает ИИ. Из доверчивого пользователя аферист вытягивает конфиденциальную информацию или деньги.

К этой же категории можно отнести случаи, когда мошенник генерирует фотографию несуществующего человека, знакомится онлайн и назначает свидание. Он просит купить билеты на мероприятие, кидает ссылку на фишинговый сайт, а когда жертва переводит средства, исчезает. По данным Group–IB, за периоды 12–14 февраля, 21–23 февраля, а также 6–8 марта 2023 года 7 группировок, занимающихся фальшивыми свиданиями, заработали 5 млн рублей.

Как распознать обман:

  • Странности в общении. Боты общаются формально, не владеют сленгом, иногда выдают ответы не по теме. Чтобы проверить собеседника, можно внезапно написать сообщение вне контекста диалога. Реального человека это смутит, а бот, вероятно, спокойно продолжит переписку.
  • Настойчивые просьбы перейти по ссылке или отправить деньги. Это явно намекает на недобросовестность собеседника.

Боты-мошенники

Боты могут спамить в комментариях в соцсетях, привлекая пользователей в Telegram-каналы или на сайты злоумышленников. Искусственный интеллект запрограммирован взаимодействовать с пользователями так, чтобы они не догадались, что их собеседник — не настоящий человек.

Похожий способ обмана — через мошеннические чат-боты. Так, в 2023 году российские аферисты расклеивали в общественных местах бумажки с QR-кодами, предлагая бесплатную консультацию по гарантированным выплатам. При переходе по коду открывался чат-бот, который убеждал людей, что им положены социальные выплаты, и жертвы вводили платежные данные.

Как распознать обман:

  • Сообщения не в тему. Боты оставляют под постами в соцсетях шаблонные комментарии с целью втянуть пользователей в мошенническую схему.
  • Много одинаковых комментариев. Если один и тот же пользователь пишет комментарии повсюду и всегда однотипные, велика вероятность, что это бот.
  • В случае с чат-ботами, нейросеть выдадут странности в общении. Как и при флирте по переписке боты общаются формально, не владеют сленгом, иногда выдают ответы не по теме. Чтобы проверить собеседника, можно внезапно написать сообщение вне контекста диалога. Реального человека это смутит, а бот, вероятно, спокойно продолжит переписку.

Фотографии поддельных документов

На сайте OnlyFake можно создавать фотографии документов. Изображение генерируется за несколько минут, стоит услуга $15 (около 1300 ₽). Нейросеть способна подделать паспорта и водительские права 26 стран мира. Снимки получаются настолько достоверными, что позволяют проходить проверку на криптобиржах. 

Опасность в том, что мошенники могут украсть чужие данные, взять фото из соцсетей и сгенерировать фейковые изображения документов для регистрации в онлайн-казино, сервисах для аренды автомобилей, оформления микрозаймов.

Сгенерированные водительские права, США
Нужно выбрать шаблон, добавить личную информацию и фото

Ранее сообщалось, что OnlyFake заблокирован. Сейчас он работает на другом домене. Несмотря на то, что на сайте прописан запрет нелегально использовать сгенерированные документы, ресурс всё же связан с распространением фейковых материалов — поэтому ссылку на него из этических соображений мы не дадим.

Сайт для генерации документов
Ссылка на новый сайт указана в Telegram-канале OnlyFake

Как распознать обман: 

  • Эксперты считают, что нужно требовать сразу нескольких способов подтверждения. Как минимум, можно попросить сделать фото с другого ракурса, повернуть документ, приблизить страницу. 
  • Анализировать изображение на подлинность, проверять на опечатки и искажения. В этом помогут сервисы для обнаружения картинок, созданных ИИ.

Нейросети — это перспективный, удобный, но опасный инструмент. Даже если не брать в расчет многочисленные мошеннические схемы, ИИ сам часто выдает неправильные ответы на запросы пользователей. Нейросети делают ошибки, искажают факты, поэтому сгенерированную информацию необходимо проверять, особенно если это касается таких важных тем, как медицина, финансы, юридические вопросы.

Искусственный интеллект распространяется во многих сферах, и сейчас — самое время учиться тому, как обезопасить себя в новую технологическую эру.