Безопасность в мире AI: новые векторы атак и как им противостоять

Безопасность в мире AI: новые векторы атак и как им противостоять

Искусственный интеллект (ИИ, англ. Artificial Intelligence — AI) стремительно меняет не только экономику и медицину, но и кибербезопасность. К сожалению, далеко не всегда в положительном ключе. Если раньше хакеры отправляли криво переведённые письма от «королевы Нигерии», то сегодня на поле боя выходят языковые модели (LLM — Large Language Models), deepfake-алгоритмы и автоматизированные ИИ-инструменты атак.

ИИ, по словам аналитика Кайла Уилбера (Kyle Wilbur) из Forrester Research, — это как ядерный реактор: может освещать города, а может и устроить катастрофу. Он сравнивает его с ядерной технологией не только из-за мощности, но и из-за амбивалентности: малейшая ошибка или злоупотребление может привести к масштабной катастрофе, при этом технология в умелых руках — благо. Даже при всём этом, ИИ остаётся алгоритмом, а не разумом. Это стоит помнить, чтобы не впадать в панику — но и не впадать в беспечность.

Итог: ИИ не «думает», но в умелых (и неумелых) руках становится оружием.

ИИ-угрозы требуют системного ответа: технологий, процессов, обучения и готовности к имитационным атакам. Главное — не поддаваться иллюзии «невидимости» защиты. Если угроза стала умнее — защита должна эволюционировать.

Теперь, когда мы понимаем двойственную природу ИИ, разберем конкретные векторы атак, которые используют злоумышленники.

1. Новые векторы атак: ИИ на службе у злоумышленников

Под новыми векторами атак в данном контексте мы понимаем эволюцию старых методов, усиленных ИИ: они стали персонализированнее, масштабируемее и автономнее. Отличие — в точности, скорости и способности ИИ адаптироваться под контекст жертвы.

1.1. Фишинг нового поколения с помощью LLM

Фишинг всегда был одной из самых эффективных техник социальной инженерии. Однако теперь мошенники вооружены не только орфографическим словарём, но и ChatGPT, Claude, Gemini и другими LLM, которые позволяют создавать:
  • Фальшивые письма и тексты, неотличимые от корпоративной переписки.
  • Персонализированные обращения по открытым данным (OSINT) и ссылками на реальных коллег.
  • Масштабируемые атаки: тысячи вариантов под конкретных людей.
Исследование SlashNext за 2023 год показало, что ChatGPT используется уже в 60% фишинговых атак для генерации персонализированных писем, что увеличило их эффективность на 40% (SlashNext State of Phishing Report, 2023) и с большой вероятностью эти цифры с годами будут только расти.

Эти атаки отличаются от старого фишинга тем, что ИИ теперь может генерировать очень правдоподобные и персонализированные сообщения. Ранее фишинговые письма часто было легко распознать из-за грамматических ошибок и общего текста. Сегодня же письма выглядят почти как настоящие, что значительно повышает риск успешных атак.

Исследования и статистика

  • BlackBerry Cybersecurity Threat Report (2024): 51% фишинговых писем в США в 2023 году были созданы или доработаны LLM.
  • SlashNext State of Phishing Report (2023): рост LLM-усиленных фишинговых атак составил 1265% за 2023 год.
В России
  • Positive Technologies (2023–2024): 45% киберинцидентов — социальная инженерия, включая фишинг с ИИ. Если верить их же отчету «Киберугрозы Q1 2024» от апреля, то в 2024 году 30% атак на российские компании использовали LLM для создания фейковых вакансий с вредоносными вложениями.
  • Group-IB (2024): рост фишинга на банки — +68%. Всё чаще письма создаются с помощью ChatGPT.
  • Лаборатория Касперского (2024): каждое пятое фишинговое письмо в Рунете — результат работы LLM.

Примеры атак

  1. Фейковые письма от Сбербанка и Госуслуг (январь 2024 - февраль 2024)
    Мошенники отправляют жертвам письма или СМС, в которых сообщают о подозрительной попытке входа на портал, и просят позвонить по указанному номеру. Клиент, уверенный, что говорит со службой безопасности портала, выполняет их инструкции.
  2. Заявки в HR-отделы от кандидатов с вредоносными вложениями (март 2024)
    Кибератаки на сотрудников HR-департаментов участились, их стало на 38% больше. Фишинг — самый распространенный способ атак на специалистов кадровых служб. Хакеры отправляют поддельные резюме с вредоносными вложениями.
  3. Голосовые deepfake-звонки от "руководителей" (2023)
    Мошенники связываются в мессенджерах с сотрудниками компании от лица топ-менеджера, используя его фото и другую информацию из открытых источников, и пытаются выманить чувствительную информацию о компании или деньги.
Вывод: Сложность атак растёт, а их массовость создаёт эффект «информационного тумана». Эти новые методы фишинга являются значительным шагом вперёд в сравнении с традиционными методами социальной инженерии.

Фишинг — не единственная угроза. Еще более опасными становятся deepfake-атаки, которые эксплуатируют наше доверие к визуальной и аудио информации.

1.2. Deepfake и подлог документов

Deepfake — синтез изображений, видео и голоса на основе ИИ. Этот метод особенно опасен тем, что эксплуатирует зрительное и слуховое доверие. И уже на 2023 год, согласно отчету Group-IB, количество deepfake-атак на бизнес выросло на 300%, причем 80% из них использовали поддельные голосовые записи (Group-IB, отчет «High-Tech Crime Trends 2023», декабрь 2023).

В отличие от традиционных атак с фальшивыми документами, где просто использовались подделки, deepfake позволяет создать совершенно убедительные видео- и аудиофайлы, которые невозможно отличить от настоящих. Эти фальшивые записи можно использовать для манипулирования людьми и компаниями, заставляя их выполнять нежелательные действия, например, переводить деньги или раскрывать конфиденциальную информацию.

Примеры в России
  • Подделка голоса CEO. Сотрудник перевёл 35 млн рублей (источник: Group-IB, июнь 2023).
  • ИИ-звонки от имени «Сбербанка» — 500+ случаев за квартал (январь-март 2024).
  • Deepfake в Zoom от имени топ-менеджера ВТБ. Перевод предотвратили (октябрь 2023).
  • Голосовые атаки на клиентов Альфа-Банка. Клонирование голосов сотрудников (февраль 2024).
Факт: По данным Лаборатории Касперского на 2024 год 25% deepfake-атак в России использовали открытые данные из соцсетей для создания более убедительных подделок (Лаборатория Касперского, отчет «ИИ и киберпреступность», март 2024).

Подделка платёжек и доверенностей

ИИ способен создавать:
  • Реалистичные сканы доверенностей и заявлений на перевод.
  • Поддельные PDF-счета, визуально неотличимые от оригиналов.
  • Подмену реквизитов в вложениях без изменения метаданных.
Реальные кейсы (2024): в крупной логистической компании сотрудник получил «срочную» платёжку от лица CFO — deepfake-голос и подделка счета на 12 млн. Обнаружили только после аудита.

Таким образом Deepfake + подлог создают новый уровень социальной инженерии. И если раньше кибератаки требовали значительных усилий, то сегодня ИИ автоматизирует весь процесс — от сбора данных до эксплуатации уязвимостей.

1.3. Автоматизация атак: ИИ берёт работу на себя

ИИ способен автоматизировать весь цикл кибератаки:
  1. Сбор данных (OSINT): ИИ анализирует открытые данные, соцсети, утечки, форумы, сайты. Часто в этот анализ попадают украденные базы данных (от мелких сайтов, до медицинских учреждений и ваших анализов).
  2. Создание эксплойтов: Генерация кода на Python, Bash или PowerShell — прямо в чат-боте.
  3. Фишинговые рассылки: Подделка и персонализация писем, звонков, управление чат-ботами — всё автоматизировано.
  4. Постэксплуатация: Скрипты с ИИ управляют шифровальщиками, что позволяет воровать данные, обходя защиту.
Ранее злоумышленники вручную разрабатывали и запускали атаки, что занимало много времени и ресурсов. А уже в 2024 году ИИ позволял автоматизировать весь процесс, делая атаки гораздо быстрее и масштабнее. Что подтверждается исследованием Positive Technologies (отчет «Киберугрозы для бизнеса», февраль 2024). По их данным 40% атак на средний бизнес в РФ использовали ИИ для автоматического подбора уязвимостей в корпоративных системах.

Российские кейсы
  • Positive Technologies (2024): Рост использования ИИ при атаке на средний бизнес в РФ — злоумышленники создают индивидуальные "воронки обмана".
  • InfoWatch (2024): Злоумышленники использовали ИИ-бота, чтобы в автоматическом режиме убеждать сотрудников ввести логины от CRM в фейковую систему "для проверки".

2. Почему эти атаки проходят?

Всё просто – люди ошибаются, несмотря на знания. Почему?

  • Эффект правдоподобия: deepfake-звонок звучит, как директор.
  • Эмоциональное давление: «Срочно переведи деньги!».
  • Усталость: сотрудники перегружены и пропускают детали.
  • Иллюзия защищённости: «У нас же есть антивирус».
Факты:
  • По данным SANS Institute (2023), 95% атак — из-за человеческого фактора.
  • Исследование Proofpoint (2023) показало, что 70% сотрудников кликают на фишинговые ссылки, если письмо выглядит авторитетно (Proofpoint, отчет «Состояние фишинга», 2023). На 2024 год этот процент не сильно изменился.
Хорошо, зная причины успешности атак, перейдем к методам защиты, которые позволяют минимизировать риски.

3. Как защищаться от ИИ-угроз

Для эффективной защиты от атак с применением ИИ необходимо использовать новые технологии и методы, направленные на выявление аномальной активности и защиту данных.

3.1. Технологии защиты

  • Использование UEBA (User and Entity Behavior Analytics) и NDR (Network Detection and Response): Эти технологии позволяют выявлять аномалии в поведении пользователей и сетевой активности, что критически важно для обнаружения атак с применением ИИ. Они помогают распознавать необычные паттерны, которые могут быть признаком фишинга, использования deepfake или других атак.
  • Подключение антифрод и ИИ-аналитика трафика: Современные антифрод-системы помогают обнаруживать мошеннические транзакции, а ИИ-аналитика позволяет анализировать трафик в реальном времени. Это позволяет обнаруживать фишинг и вредоносные действия, сгенерированные ИИ.
  • ИИ-детекторы deepfake: Алгоритмы, анализирующие артефакты в видео и аудио. По данным MITRE на 2023 год (исследование по детекции deepfake), системы детекции deepfake (например, Microsoft Video Authenticator) способны были выявлять до 90% подделок по микроартефактам в видео. А уже в 2024 году точность распознавания видеодипфейков варьируется от 73,5% до 97,6% в зависимости от сложности подделки. Лучше всех себя показала российская система от VisionLabs. Она способна была распознавать все основные типы дипфейков:
    • замену лица (Face Swap),
    • перенос выражения лица (Face Reenactment),
    • синхронизацию губ (Lip-Sync),
    • генерацию лиц (Face Synthesis),
    • работает даже с видео низкого качества.

3.2. Обучение и тренировки

  • Симуляции фишинга: Регулярные проверки сотрудников и их обучение на их же примерах.
  • Red Team с ИИ: Тестовые атаки с использованием deepfake и автоматизированных сценариев. Поможет сотрудникам отличать подделки от настоящего.
Замечу: Исследование KnowBe4 показало, что регулярные тренировки снижают вероятность успешного фишинга на 60% (Отчет «Эффективность обучения кибербезопасности», 2023).

Указанный выше софт является хорошим, но в России он сейчас не доступен и поэтому в условиях импортозамещения российские компании предлагают собственные решения для противодействия ИИ-угрозам.

4. Российская перспектива: импортозамещение и практика

Российские технологии в области кибербезопасности становятся всё более конкурентоспособными на фоне роста угроз с применением ИИ. Ключевые решения, ориентированные на защиту от ИИ-угроз:
  • SIEM и аналитика: MaxPatrol SIEM от Positive Technologies — российская альтернатива западным решениям для мониторинга безопасности. Это система для обработки и анализа событий безопасности, а также для формирования отчётов о угрозах и инцидентах.
  • EDR/XDR: Решения от «Лаборатории Касперского» и СТАФ предоставляют защиту от угроз, используя поведенческую аналитику и мониторинг подозрительных действий в реальном времени.
  • VPN и межсетевые экраны: Решения от Континент, DallasLock и Код Безопасности помогают обеспечивать безопасность каналов связи и блокировать нежелательные соединения.
  • Операционные системы: Astra Linux и РЕД ОС — это российские операционные системы, обеспечивающие безопасность на уровне работы с данными и взаимодействия в сети.
Российские решения уже сегодня защищают от известных угроз и они же в будущем будут защищать, но ИИ не стоит на месте. Пока компании внедряют SIEM и EDR, злоумышленники готовят атаки нового поколения — на голосовых помощников, промышленные системы и даже через «отравление» данных. Какие вызовы ждут нас в ближайшие 2–3 года и как к ним подготовиться?

5. Будущие тренды ИИ-атак: куда движется угроза

ИИ развивается экспоненциально, и злоумышленники не отстают. Уже сегодня можно обозначить несколько векторов, которые в ближайшие 1–3 года могут стать основными направлениями атак:

5.1. Атаки на голосовых помощников и "умные" устройства

С распространением голосовых ассистентов (Алиса, Siri, Google Assistant, Marusya) открываются новые векторы атак:
  • Генерация аудиозапросов, имитирующих голос владельца устройства — для активации функций, совершающих действия от имени пользователя (например, отправка сообщений, транзакции, разблокировка IoT-устройств).
  • Злоупотребление голосовыми интерфейсами в офисах: злоумышленник может использовать записанный или синтезированный голос для управления "умными" конференц-системами или блоками автоматизации.
  • Атаки через акустические сигналы вне слышимого диапазона (так называемые "невидимые команды").
Пример: В 2024 году исследователи МГУ и «Сколтеха» показали возможность атаки на "умную колонку" через ультразвук, управляя покупками и действиями в "умном доме".

5.2. Атаки через IoT и промышленный ИИ

ИИ встраивается в "умные" системы: логистику, энергетику, производство. ИИ-атаки на эти системы могут привести к реальному физическому ущербу:
  • ИИ может быть использован для подмены телеметрии и генерации ложных сигналов в системах SCADA.
  • Заражение моделей машинного обучения на заводах "на входе": если ИИ обучен на искажённых данных — он ошибается при управлении станками и процессами.
  • Злоумышленники могут использовать генеративный ИИ для создания "вредных" обновлений программного обеспечения или firmware на устройствах.
Пример: В 2025 году возможно появление первого в мире кейса «ИИ-направленной аварии» — если вредоносный ИИ получит доступ к цифровому двойнику производства и внесёт незаметные изменения.

5.3. Атаки через LLM-агентов и автономные ИИ-скрипты

Появление LLM-агентов (автономных ИИ, способных планировать и выполнять задачи) открывает новые возможности для атак:
  • ИИ-агенты могут самостоятельно искать уязвимости в коде и отправлять отчёты злоумышленникам.
  • Они способны вести переговоры с поддержкой, притворяясь клиентом, и получать информацию.
  • Интеграция с API позволяет ИИ в реальном времени управлять ботнетами, формировать фишинговые рассылки и атаковать целевые сервисы.
Многие компании и специалисты уже сейчас используют AutoGPT и AgentGPT в рамках пентестов, а в тени — и для атак.

5.4. Атаки на ИИ через "отравление" обучающих данных (data poisoning)

ИИ-системы, особенно в компаниях, обучаются на открытых или частично открытых данных. Если злоумышленник заранее "заражает" такие данные:
  • Модель начинает ошибаться — например, пропускать вредоносные файлы или «принимать» поддельные документы.
  • Возможна подмена предпочтений: в маркетинге, рекомендациях, фильтрации.
По прогнозу Gartner (2024), к 2026 году до 30% атак на ИИ будут строиться именно по модели "отравления данных".

5.5. Использование синтетических идентичностей

Генеративные модели позволяют создавать абсолютно новые личности: фейковые сотрудники, фейковые клиенты, даже фейковые чиновники. Эти «люди» могут:
  • Получать доступ к сервисам.
  • Формировать доверительные отношения с организациями.
  • Обманом подписывать документы или участвовать в голосованиях/опросах.
В 2024 году в РФ был выявлен случай, когда целая сеть «сотрудников» в LinkedIn оказалась ИИ-сгенерированной. Их использовали для сбора информации у потенциальных клиентов.

На данный момент можно точно сказать, что угрозы ИИ станут ещё более незаметными, масштабируемыми и автономными. Уже в 2025–2026 годах ключевыми задачами станет не только защита от атак, но и верификация подлинности цифровых личностей, данных и действий.

Заключение

Угрозы, исходящие от ИИ, становятся всё более разнообразными и сложными. Атаки, такие как фишинг, deepfake и автоматизация атак через OSINT, становятся основными методами, используемыми злоумышленниками. Однако, в отличие от прежних видов угроз, эти атаки:
  • Не требуют значительных ресурсов со стороны атакующих.
  • Персонализированы и массовы.
  • Вывели на новый уровень социальную инженерию благодаря Deepfake и голосовым подделкам.
Для борьбы с этими угрозами важно использовать комплексный подход, который включает в себя использование передовых технологий для обнаружения аномалий и обучения сотрудников, а также регулярное проведение имитационных атак для повышения осведомлённости.

Угрозы ближайшего будущего — атаки на IoT, LLM-агенты и синтетические идентичности — потребуют не только технологий, но и новых стандартов проверки данных. Компаниям уже сейчас стоит:
  • Тестировать уязвимости голосовых интерфейсов и промышленных ИИ.
  • Внедрять системы верификации цифровых личностей.
  • Мониторить «отравление» данных в собственных ML-моделях.
Так же необходимо помнить, что ИИ — это инструмент, который в умелых руках становится мощным оружием. Поэтому защита должна адаптироваться и эволюционировать в ответ на новые вызовы.


P.S.: Главное — быть готовыми к изменениям и не оставаться в прошлом, используя старые методы защиты против новых угроз.