Атаки вишинга (от англ. voice phishing – голосовой фишинг) не являются новыми, однако их количество растет. Это объясняется многими факторами. Среди них – лучшая защита электронной почты и более высокий уровень осведомленности пользователей. В то же время, значительную роль играет развитие голосовых технологий ИИ, что помогает злоумышленникам повышать эффективность атак и масштабировать их.
В этом контексте основным фокусом статьи будет то, какие возможности для злоумышленников создают атаки вишинга на основе ИИ.
Ключевые компоненты ИИ в атаках вишинга
Технологии преобразования текста в речь и синтеза голоса
Эта сфера не нова. Технологии озвучивания текста и синтеза голоса существуют уже давно. Однако последние достижения в сфере ИИ открывают новые возможности для систем text-to-speech.
Это один из ключевых компонентов атак вишинга на основе ИИ. Теперь можно использовать клонированные голоса, имитировать акценты и передавать эмоции. Возможности практически безграничны.
Имитация человеческого взаимодействия
Еще одним значительным достижением стало качество взаимодействия и диалогов, подобных человеческим. Именно такие разговоры способны вести большие речевые модели. Это создает новый уровень реалистичности для разговорных атак. Такие возможности могут использоваться в атаках вишинга на основе ИИ.
Есть несколько способов их применения. Среди них – расширенные сценарии разговора и специально тонко настроенные модели. Основной вывод состоит в том, что генеративный ИИ очень хорошо имитирует человеческое взаимодействие.
Подтверждением этого может быть простой вопрос: как часто при общении с ChatGPT люди используют слова «пожалуйста» или «спасибо»?
Масштабные атаки вишинга
Атаки вишинга на основе ИИ могут производиться в большом масштабе.
Это первое и наиболее очевидное изменение в ландшафте угроз.
Ранее масштабные атаки были преимущественно ограничены асинхронными каналами. К ним относятся электронная почта, сообщения и малвертайзинг (malvertising).
Синхронные атаки обычно нуждались в участии оператора-человека. Взаимодействие происходило один на один.
С появлением ИИ масштабные атаки AI-вишинга стали вполне реальными. Их также стало гораздо проще реализовывать.
Один злоумышленник может запрограммировать несколько «ботов», которые будут одновременно звонить по телефону людям и взаимодействовать с ними.
Важно отметить, что это касается не только злоумышленников. Защитники могут использовать эту технологию. К примеру, можно создавать масштабные симуляции вишинга для обучения сотрудников.
Deepfake и атаки с клонированием голоса
Проблема состоит не только в масштабе. Атаки вишинга на основе ИИ также становятся более реалистичными.
Технологии клонирования голоса существуют уже некоторое время. К примеру, в фильме «Миссия невозможна» Итан менял голос с помощью высокотехнологичной ленты на шее. Это показывали около десяти лет назад.
Сегодня достаточно примерно 15 секунд чистой голосовой записи для создания качественной копии голоса человека. Поскольку эта технология новая, голос часто ассоциируется с конкретным лицом. Это позволяет злоупотреблять неявной формой аутентификации.
Суть заключается в том, что обычно голос человека позволяет его идентифицировать. В этом преимущественно не возникает сомнений, однако такой уверенности не всегда следует доверять.
Достаточно вообразить влияние такой ситуации на занятых сотрудников. Они занимаются ежедневной работой, в этот момент звонит по телефону руководитель и просит предоставить определенную информацию или выполнить действие.
Почему в такой ситуации должна быть запущена дополнительная процедура проверки? Ведь звучит знакомый голос, мозг сигнализирует, что это верный человек. Следовательно, нет необходимости в сложной проверке, повторном звонке или контрольном вопросе, ответ на который знает только это лицо.
Именно поэтому этот метод очень эффективен. Его уже использовали на практике: например, в Италии мошенники, используя клонирование голоса, выдавали себя за министра обороны. В результате было похищено более миллиона евро.
Атаки вишинга на основе агентного ИИ: прогноз
До этого момента рассматривались примеры того, что уже происходит и задокументировано. Чтобы этот материал оставался актуален в будущем, следует рассмотреть возможные дальнейшие сценарии развития.
Во-первых, упомянутые выше тенденции не взаимоисключающие.
Увеличение масштаба атак не приведет к понижению их реалистичности. Число атак будет расти. Их эффективность будет также повышаться.
Такие атаки, вероятно, будут развиваться по той же модели, что и фишинг.
Первоначально появились массовые спам-кампании и фишинг с минимальной персонализацией. Позже возник целевой фишинг (spear-phishing) – персонализированные письма с контекстом, полученным из открытых источников разведки (Open Source Intelligence, OSINT).
Этап сбора OSINT можно в значительной степени автоматизировать. Для этого используются базы данных с контактной информацией, публичные или приобретенные данные утечек, мониторинг социальных сетей и новостей. Это позволяет координировать индивидуальные атаки против нужного лица в подходящий момент.
И все это можно делать в большом масштабе. Например, есть экспериментальные прототипы, которые могут автоматически определять цели, формировать релевантный сценарий, находить контактные данные и совершать звонок.
Агентный ИИ (еще один популярный термин) поможет создавать цепочки автоматизации. Они могут формировать комплексную инфраструктуру атаки, охватывающую этапы сбора данных до эксплуатации.
Агенты могут звонить по телефону, разговаривать примерно 15 секунд и записывать голосовую выборку. После этого голос можно клонировать. Далее посылается звонок сотрудникам с требованием установить программное обеспечение для удаленного доступа.
Это уже не научная фантастика, учитывая быстроту развития технологий, целесообразно начинать обучение сотрудников для противодействия таким угрозам.
Вывод
Этот материал показывает современное состояние атак вишинга на базе ИИ. Также рассмотрены возможные направления дальнейшего развития. Телефонные номера не имеют такого уровня защиты, как электронная почта. Кроме того, имеющиеся на рынке технические решения не обеспечивают столь же эффективной защиты от подобных атак.







