Дипфейк–контроль: ИИ может спровоцировать рост киберпреступности

Мошенники стали активнее пользоваться искусственным интеллектом и нейросетями

Бурное развитие нейросетей и других технологий искусственного интеллекта дало киберпреступникам множество новых инструментов. Не за горами всплеск атак, в том числе с использованием дипфейков, сложно отличимых от человека.

В сентябре 2021 года в Сети широко распространялось видео с предпринимателем Олегом Тиньковым, который рекламировал инвестиции с баснословными процентами. Очень быстро выяснилось, что это дипфейк, причём сделанный довольно грубо. Однако после этого видеоролики с поддельными знаменитостями стали появляться один за другим. Пожалуй, самый знаменитый случай произошёл с Илоном Маском в 2022 году — его фейк призывал людей инвестировать в мошенническую криптовалютную платформу. С тех пор технологии создания дипфейков шагнули далеко вперёд. И теперь от столкновения с ними не застрахован уже никто.

Никому нельзя верить

В последнее время соцсети заполнены историями о попытках мошенничества с использованием поддельных голосовых сообщений, сгенерированных нейросетью. "Например, приходит сообщение от начальника, который говорит, что сейчас с ним свяжутся правоохранительные органы. Затем идёт уже всем нам знакомая тема с социальной инженерией — жертву заставляют верить в действительность происходящего, и она отдаёт преступникам деньги", — рассказал "ДП" главный эксперт "Лаборатории Касперского" Сергей Голованов.
Сообщения генерируют с помощью нейросетей, в которые погружают образцы голоса человека. Фактуру берут из публичных источников — социальных сетей, видео и аудиозаписей. Поэтому выбирают мошенники в первую очередь публичных людей. Голосовые сообщения звучат очень убедительно. Тем не менее есть способ распознать фейки — нейросети пока ещё плохо передают человеческую интонацию. Речь может звучать немного роботизированно и слишком чисто — нет пауз, вздохов, протяжных звуков, слов–паразитов и междометий.
"Это реальные инциденты, у нас есть несколько потерпевших, есть компании, которые обращались к нам по этому вопросу. Обращу внимание, что во всех случаях такие сообщения записаны заранее, нельзя пообщаться с “собеседником” в реальном времени. Это же касается и дипфейков в видео, которые используются довольно давно. Раньше технология дипфейков создавала менее убедительные видео, тем не менее некоторые люди этому верили. Сейчас нет технологии, которая создавала бы дипфейк в реальном времени, но скоро появится и она. В таком случае будут использоваться не только голосовые сообщения, но и “кружочки” в мессенджерах, например", — добавил собеседник.
Кто–то может поверить и в достаточно плохой дипфейк, говорит ведущий исследователь данных "Лаборатории Касперского" Владислав Тушканов. Здесь срабатывает тот же принцип, что и с так называемыми нигерийскими письмами. Истории в них бывали совершенно неправдоподобными — например, наследство от богатой бабушки, но людей они привлекали массово.
"То же самое с дипфейками. Если человек клюнул на дешёвый и неубедительный, то так же клюнет и на дорогой", — замечает Тушканов.

"Злые" чаты

Ещё одно интересное направление — использование лингвистических моделей, например ChatGPT. Преступники могут заставить нейросеть различными уловками написать вредоносный программный код. Обычно на подобные запросы ИИ ответит отказом. Однако есть несколько методов для обхода.
Первый из них — prompt extraction (извлечение затравки) — атака, с помощью которой киберпреступник получает доступ к скрытым инструкциям чат–бота, которые затем использует в личных целях.
Второй — token smuggling, или "обфускация", запутывание текста. Это помогает обходить установленные в нейросети фильтры, которые не дают ей генерировать вредоносный контент.
Кроме того, многие используют так называемые джейлбрейки для обхода цензуры, о которых ранее писал "ДП". Напомним: один из самых популярных в Сети джейлбрейков — DAN для ChatGPT — представляет собой текстовый запрос, в котором чат–боту внушают, что он больше не является собой. Теперь он якобы нейросеть DAN, которая может нарушать правила, установленные разработчиком ИИ OpenAI. После чего нейросеть слушается и может генерировать запрещённый контент. Существует уже множество вариаций DAN, а также других джейлбрейков.
"Написать вредоносный код — это лишь малая часть киберпреступления. Этот код нужно ещё упаковать, убедиться, что он не конфликтует с антивирусами, найти источники распространения, распространить и так далее. Так что использование нейросети в данном случае автоматизирует лишь малую часть этого процесса", — говорит Владислав Тушканов.
В итоге можно ожидать появления большого количества новых киберпреступников низкого уровня. Порог входа в такую деятельность снизится, но всё равно они не сравнятся с "профессионалами", поэтому и качество кибератак будет низким.
Кроме того, на рынке кибепреступности массово появляются "злые" версии ChatGPT. Это чат–боты, в которых изначально отключена цензура. Самыми популярными в Сети считаются xxxGPT, WolfGPT, FraudGPT, DarkBERT. Помимо этого чат–боты стали активно использовать на форумах в даркнете.

Гонка интеллектов

Директор дирекции "Кибербезопасность" IBS Олег Босенко считает, что всплеск активности киберпреступников, применяющих ИИ, следует ожидать во втором полугодии 2024 года.
"Механизмы совершенствования кибератак применялись киберпреступниками и ранее. Они не имели такой технологической поддержки, которую им предоставляет ИИ, но они были", — подчёркивает эксперт.
ИИ позволил киберпреступности выйти на новый, более высокий уровень за счёт анализа огромных массивов данных, корректировки алгоритмов атаки, переноса аналитики на машинный уровень.
"К сожалению, на тёмной стороне силы внедрение современных методов идёт намного быстрее, чем в обычном мире", — уверен Босенко.
Киберпреступники активно исследуют и применяют новейшие возможности искусственного интеллекта для автоматизации атак и повышения их шансов на успех. За рубежом мошенничество с использованием ИИ стало применяться почти с момента появления таких технологий. Сейчас уже и в России всё чаще появляются киберпреступные схемы с применением ИИ, обращает внимание ведущий аналитик департамента Digital Risk Protection компании F. A. С. С. T. Евгений Егоров.
С каждым годом доля мошенничества и атак с использованием машинного обучения и искусственного интеллекта будет увеличиваться. Ранее многие фишинговые письма, написанные на русском языке иностранцами, были составлены неграмотно, содержали массу ошибок. Технический перевод онлайн–переводчиком также достаточно заметен. Соответственно, доверия у жертвы они не вызывали. Использование ИИ, к примеру того же ChatGPT, позволяет этого избежать — его стиль может быть очень похож на живого человека.
Разумеется, технологии применяются и для противодействия киберпреступлениям, подчёркивает Егоров.
Киберпреступники могут использовать нейросети для создания и распространения фальшивых и поддельных информационных материалов, включая фейковые новости, поддельные фотографии и видео. Это может применяться для манипуляции массовым сознанием, распространения дезинформации и социальной инженерии, считает директор центра компетенций по информационной безопасности "Т1 Интеграция" Виктор Гулевич.
"Стоит отметить два ключевых направления использования ИИ киберпреступниками: данные (масштабный сбор и анализ) и автоматизация разработки (от фишинговых страниц до вредоносных программ)", — отмечает он.

Горе от ума

Не стоит думать, что киберпреступность существует исключительно в интернете. Развитие инструментов ИИ даёт массу возможностей, в том числе и для взлома устройств "умного дома".
"Совсем недавно в интернете обсуждалось, как один пользователь умной стиральной машинки заметил на маршрутизаторе, что она генерирует 3 ГБ трафика. Что именно она делала, никто не знает. Может, майнила, может, ddosила, может, отправляла какие–то данные. В случае, если “умный дом” будет бездумно распространяться и инсталлироваться, станет больше ботнетов, а кибератаки будет проще осуществлять", — говорит генеральный директор оператора связи "Комфортел" Дмитрий Петров.
Теперь у кибермошенников нет необходимости взламывать личные компьютеры, можно просто получить доступ к какой–нибудь "умной" бытовой технике, представляющей собой по сути мини–компьютер.
С увеличением количества подключённых устройств растёт потенциальное количество уязвимостей, подтверждает инженер департамента информационной безопасности "Имба ИТ" Сергей Ефимов. "Пока не было информации о крупных глобальных взломах экосистем “умного дома”, но были отдельные случаи нарушений безопасности. В будущем важно продолжать разрабатывать и внедрять безопасные стандарты для “умных” устройств, чтобы уменьшить риски и предотвратить потенциальные атаки", — предупреждает он.
Количество атак на "умный дом" будет только возрастать, уверен Олег Босенко. "Развитие эффективных средств защиты идёт крайне вяло. А подключений в Сеть уже достаточно. Так что всё впереди. Причина взлома простая — либо обеспечить кражу, когда хозяев нет, либо получить информацию, в том числе компрометирующую. Отключать “умный” холодильник — это не цель", — резюмирует эксперт.
ИИ в кибепреступности использовался и раньше. Тут можно вспомнить, например, подделку документов или их частей — подписей, печатей, самого текста и прочего. Конечно, используемые технологии были проще по уровню, чем существующие генеративные сети. Но тем не менее позволяли мошенникам добиваться своих целей. Сами по себе нейросети и ИИ в целом — лишь инструмент. С их развитием будет появляться всё больше методов и у киберпреступников. И эти методы тоже будут совершенствоваться, а входные требования для использования — снижаться. Сейчас сложно сказать, как именно будут использоваться эти инструменты, так как фантазия людей поистине безгранична. Но предположу, что двигаться всё будет в сторону создания более достоверных генераций контента. Который затем будет использоваться для извлечения киберпреступниками выгоды. При этом контентом может стать абсолютно всё — аудио, изображения (как людей, так и документов и вообще чего угодно), видео (к примеру, чтобы выдать себя за другое лицо в процессе верификации по видеозвонку), текст (например, для симуляции диалога с условной службой поддержки или создания релевантных получателю фишинговых писем).
Дмитрий Иванков
эксперт Центра искусственного интеллекта СКБ Контур
С появлением более совершенных генеративных ИИ киберпреступникам удалось обмануть некоторые антивирусные и антиспам–программы. Например, фишинговые электронные письма, сгенерированные ИИ, легче проходят фильтры, а люди открывают их ссылки гораздо чаще. Также с помощью генеративных ИИ киберпреступники научились обходить защиту против ботов и даже подбирать пароли. Есть примеры использования ИИ в ботнете — сети компьютеров с вредоносным ПО, которое позволяет удалённо управлять заражёнными устройствами. С помощью ботнетов киберпреступники способны подменять пользователей, устраивать DDoS–атаки и проч. Однако для массивной атаки на тысячу и более устройств необходимо одновременно управлять большим количеством задач, что не под силу человеку. Поэтому всё чаще именно ИИ отвечает за центр контроля и управления. Последнее время подобные системы создаются с применением вычислительных мощностей умной техники, входящей в интернет вещей (IoT).
Людмила Богатырёва
руководитель департамента цифровых решений агентства "Полилог"