Мошенничество с использованием ИИ: виды и способы борьбы

Туристов предупредили о фишинге с применением ИИ phishing AI 2

Искусственный интеллект существенно упрощает рабочие процессы и повышает производительность. Однако он также нередко является инструментом мошенников, поскольку позволяет дешево и качественно создавать аудио, видео, сообщения, дипфейки, пишет TechCrunch

Рассказываем о популярных способах обмана с использованием ИИ и вариантами борьбы со злоумышленниками. 

Клонирование голоса членов семьи и друзей

Синтез речи существует уже несколько десятилетий, но благодаря развитию генеративного искусственного интеллекта мошенники могут создавать фейк всего лишь из нескольких секунд аудио. Голос любого человека, который публично транслировался, например в новостном репортаже или в видео на YouTube, может быть клонирован. 

У мошенников есть возможность генерации убедительных и фальшивых версий друзей или близких потенциальной жертвы. Часто используется просьба о помощи, отмечает издание. Например, родитель может получить голосовое сообщение с неизвестного номера от «сына», который рассказывает о краже вещей во время путешествия и просит отправить деньги.

В январе неизвестный клонировал голос президент США Джо Байдена и осуществил серию звонков избирателям в Нью-Гемпшире, призвав бойкотировать голосование. В результате Федеральная комиссия по связям предложила назначить штраф $6 млн за фейковые звонки. 

Еще один пример: в США учителя физкультуры обвинили в использовании голосового дипфейка, чтобы подставить директора школы и добиться его увольнения. Однако независимые эксперты установили, что аудио было сфабриковано, поскольку имеет «ровный тон, необычно чистый фон, отсутствие последовательных звуков дыхания или пауз».

Как бороться с клонированием голоса?

Технология развилась настолько, что распознать фальшивый голос крайне сложно. Иногда это не под силу даже экспертам.

Все, что происходит с неизвестного номера, адреса электронной почты или аккаунта, необходимо автоматически считать подозрительным, советует TechCrunch. Если кто-то представляется другом или родственником, стоит связаться с этим человеком по другим каналам связи.

Персонализированный фишинг и спам по электронной почте

Искусственный интеллект позволяет генерировать тексты намного быстрее и на разных языках, в том числе адаптированные для конкретного человека. Компания по безопасности SlashNext отметила, что количество фишинговых атак по электронной почте увеличилось на 856% за последний год, а с момента запуска ChatGPT в 2022 году — на 4151%.

Согласно изданию, особенно опасными являются персонализированные письма. Поскольку утечки личных данных происходят регулярно, большая их часть находится в открытом доступе. Мошенники могут использовать информацию о недавнем местоположении, покупках или привычках, а языковая модель напишет тысячи писем за считанные секунды. Журналисты приводят возможный пример такого сообщения:

«Привет, Дорис! Я из команды продвижения Etsy. На товар, которым вы недавно интересовались, скидка 50%! А доставка на ваш адрес в Беллингеме будет бесплатной, если вы воспользуетесь этой ссылкой».

Такое письмо выглядит правдоподобным, а нейросеть может создавать их в больших количествах для разных людей, говорится в статье.

Как бороться со спамом по электронной почте?

Не переходить по сомнительным ссылкам и не скачивать странные файлы. Если нет стопроцентной уверенности в подлинности и личности отправителя, лучше письмо или ссылки в нем не открывать. 

Атака с подменой личности

Используя утечки личных данных, мошенники могут входить в аккаунт на каком-либо ресурсе/бирже. Издание указывает, что нейросеть способна создать поддельную копию личности пользователя и с помощью персональной информации обратиться в службу поддержки с просьбой восстановить аккаунт. 

Как правило, для восстановления доступа требуются такие данные как дата рождения, номер телефона. Иногда требуется сделать селфи, но и такая задача ИИ по силам, подчеркивает TechCrunch.

Как бороться с мошенничеством подмены личности?

С помощью многофакторной аутентификации. Любая подозрительная активность по аккаунту будет транслироваться на электронную почту или прямо на телефон.

Дипфейки и шантаж

ИИ позволяет наложить лицо любого человека на другое тело и сделать таким образом правдоподобную фотографию (или видео). Этот вид мошенничества используется для шантажа или распространения фейков. 

Например, в январе сотрудник транснациональной компании в Гонконге перевел мошенникам $25 млн после созвона с «коллегами», которые оказались дипфейками. Пострадавший получил приглашение якобы от финансового директора фирмы на онлайн-видеовстречу, где планировалось обсудить некую конфиденциальную сделку. 

Все присутствовавшие на созвоне «руководители компании» были дипфейк-имитацией. Они убедили сотрудника перевести $25,5 млн из средств фирмы на пять банковских счетов.

Как бороться с дипфейком и шантажом?

Вместо выполнения требований шантажиста лучше обратиться в полицию и к хостингам с требованием удалить фотографии.

Напомним, в июне специалисты Elliptic отметили рост использования ИИ в криптопреступлениях. 

В начале июня графический дизайнер Dogecoin под ником DogeDesigner обнаружил на YouTube прямую трансляцию с дипфейком CEO Tesla и SpaceX Илона Маска, продвигающего криптовалютный скам.

Нашли ошибку в тексте? Выделите ее и нажмите CTRL+ENTER

Похожие записи