ИИ, по словам аналитика Кайла Уилбера (Kyle Wilbur) из Forrester Research, — это как ядерный реактор: может освещать города, а может и устроить катастрофу. Он сравнивает его с ядерной технологией не только из-за мощности, но и из-за амбивалентности: малейшая ошибка или злоупотребление может привести к масштабной катастрофе, при этом технология в умелых руках — благо. Даже при всём этом, ИИ остаётся алгоритмом, а не разумом. Это стоит помнить, чтобы не впадать в панику — но и не впадать в беспечность.
Итог: ИИ не «думает», но в умелых (и неумелых) руках становится оружием.
ИИ-угрозы требуют системного ответа: технологий, процессов, обучения и готовности к имитационным атакам. Главное — не поддаваться иллюзии «невидимости» защиты. Если угроза стала умнее — защита должна эволюционировать.
Теперь, когда мы понимаем двойственную природу ИИ, разберем конкретные векторы атак, которые используют злоумышленники.
1. Новые векторы атак: ИИ на службе у злоумышленников
Под новыми векторами атак в данном контексте мы понимаем эволюцию старых методов, усиленных ИИ: они стали персонализированнее, масштабируемее и автономнее. Отличие — в точности, скорости и способности ИИ адаптироваться под контекст жертвы.1.1. Фишинг нового поколения с помощью LLM
Фишинг всегда был одной из самых эффективных техник социальной инженерии. Однако теперь мошенники вооружены не только орфографическим словарём, но и ChatGPT, Claude, Gemini и другими LLM, которые позволяют создавать:- Фальшивые письма и тексты, неотличимые от корпоративной переписки.
- Персонализированные обращения по открытым данным (OSINT) и ссылками на реальных коллег.
- Масштабируемые атаки: тысячи вариантов под конкретных людей.
Эти атаки отличаются от старого фишинга тем, что ИИ теперь может генерировать очень правдоподобные и персонализированные сообщения. Ранее фишинговые письма часто было легко распознать из-за грамматических ошибок и общего текста. Сегодня же письма выглядят почти как настоящие, что значительно повышает риск успешных атак.
Исследования и статистика
- BlackBerry Cybersecurity Threat Report (2024): 51% фишинговых писем в США в 2023 году были созданы или доработаны LLM.
- SlashNext State of Phishing Report (2023): рост LLM-усиленных фишинговых атак составил 1265% за 2023 год.
- Positive Technologies (2023–2024): 45% киберинцидентов — социальная инженерия, включая фишинг с ИИ. Если верить их же отчету «Киберугрозы Q1 2024» от апреля, то в 2024 году 30% атак на российские компании использовали LLM для создания фейковых вакансий с вредоносными вложениями.
- Group-IB (2024): рост фишинга на банки — +68%. Всё чаще письма создаются с помощью ChatGPT.
- Лаборатория Касперского (2024): каждое пятое фишинговое письмо в Рунете — результат работы LLM.
Примеры атак
-
Фейковые письма от Сбербанка и Госуслуг (январь 2024 - февраль 2024)
Мошенники отправляют жертвам письма или СМС, в которых сообщают о подозрительной попытке входа на портал, и просят позвонить по указанному номеру. Клиент, уверенный, что говорит со службой безопасности портала, выполняет их инструкции. -
Заявки в HR-отделы от кандидатов с вредоносными вложениями (март 2024)
Кибератаки на сотрудников HR-департаментов участились, их стало на 38% больше. Фишинг — самый распространенный способ атак на специалистов кадровых служб. Хакеры отправляют поддельные резюме с вредоносными вложениями. -
Голосовые deepfake-звонки от "руководителей" (2023)
Мошенники связываются в мессенджерах с сотрудниками компании от лица топ-менеджера, используя его фото и другую информацию из открытых источников, и пытаются выманить чувствительную информацию о компании или деньги.
Фишинг — не единственная угроза. Еще более опасными становятся deepfake-атаки, которые эксплуатируют наше доверие к визуальной и аудио информации.
1.2. Deepfake и подлог документов
Deepfake — синтез изображений, видео и голоса на основе ИИ. Этот метод особенно опасен тем, что эксплуатирует зрительное и слуховое доверие. И уже на 2023 год, согласно отчету Group-IB, количество deepfake-атак на бизнес выросло на 300%, причем 80% из них использовали поддельные голосовые записи (Group-IB, отчет «High-Tech Crime Trends 2023», декабрь 2023).В отличие от традиционных атак с фальшивыми документами, где просто использовались подделки, deepfake позволяет создать совершенно убедительные видео- и аудиофайлы, которые невозможно отличить от настоящих. Эти фальшивые записи можно использовать для манипулирования людьми и компаниями, заставляя их выполнять нежелательные действия, например, переводить деньги или раскрывать конфиденциальную информацию.
Примеры в России
- Подделка голоса CEO. Сотрудник перевёл 35 млн рублей (источник: Group-IB, июнь 2023).
- ИИ-звонки от имени «Сбербанка» — 500+ случаев за квартал (январь-март 2024).
- Deepfake в Zoom от имени топ-менеджера ВТБ. Перевод предотвратили (октябрь 2023).
- Голосовые атаки на клиентов Альфа-Банка. Клонирование голосов сотрудников (февраль 2024).
Подделка платёжек и доверенностей
ИИ способен создавать:- Реалистичные сканы доверенностей и заявлений на перевод.
- Поддельные PDF-счета, визуально неотличимые от оригиналов.
- Подмену реквизитов в вложениях без изменения метаданных.
Таким образом Deepfake + подлог создают новый уровень социальной инженерии. И если раньше кибератаки требовали значительных усилий, то сегодня ИИ автоматизирует весь процесс — от сбора данных до эксплуатации уязвимостей.
1.3. Автоматизация атак: ИИ берёт работу на себя
ИИ способен автоматизировать весь цикл кибератаки:- Сбор данных (OSINT): ИИ анализирует открытые данные, соцсети, утечки, форумы, сайты. Часто в этот анализ попадают украденные базы данных (от мелких сайтов, до медицинских учреждений и ваших анализов).
- Создание эксплойтов: Генерация кода на Python, Bash или PowerShell — прямо в чат-боте.
- Фишинговые рассылки: Подделка и персонализация писем, звонков, управление чат-ботами — всё автоматизировано.
- Постэксплуатация: Скрипты с ИИ управляют шифровальщиками, что позволяет воровать данные, обходя защиту.
Российские кейсы
- Positive Technologies (2024): Рост использования ИИ при атаке на средний бизнес в РФ — злоумышленники создают индивидуальные "воронки обмана".
- InfoWatch (2024): Злоумышленники использовали ИИ-бота, чтобы в автоматическом режиме убеждать сотрудников ввести логины от CRM в фейковую систему "для проверки".
2. Почему эти атаки проходят?
Всё просто – люди ошибаются, несмотря на знания. Почему?- Эффект правдоподобия: deepfake-звонок звучит, как директор.
- Эмоциональное давление: «Срочно переведи деньги!».
- Усталость: сотрудники перегружены и пропускают детали.
- Иллюзия защищённости: «У нас же есть антивирус».
- По данным SANS Institute (2023), 95% атак — из-за человеческого фактора.
- Исследование Proofpoint (2023) показало, что 70% сотрудников кликают на фишинговые ссылки, если письмо выглядит авторитетно (Proofpoint, отчет «Состояние фишинга», 2023). На 2024 год этот процент не сильно изменился.
3. Как защищаться от ИИ-угроз
Для эффективной защиты от атак с применением ИИ необходимо использовать новые технологии и методы, направленные на выявление аномальной активности и защиту данных.3.1. Технологии защиты
- Использование UEBA (User and Entity Behavior Analytics) и NDR (Network Detection and Response): Эти технологии позволяют выявлять аномалии в поведении пользователей и сетевой активности, что критически важно для обнаружения атак с применением ИИ. Они помогают распознавать необычные паттерны, которые могут быть признаком фишинга, использования deepfake или других атак.
- Подключение антифрод и ИИ-аналитика трафика: Современные антифрод-системы помогают обнаруживать мошеннические транзакции, а ИИ-аналитика позволяет анализировать трафик в реальном времени. Это позволяет обнаруживать фишинг и вредоносные действия, сгенерированные ИИ.
-
ИИ-детекторы deepfake: Алгоритмы, анализирующие артефакты в видео и аудио. По данным MITRE на 2023 год (исследование по детекции deepfake), системы детекции deepfake (например, Microsoft Video Authenticator) способны были выявлять до 90% подделок по микроартефактам в видео. А уже в 2024 году точность распознавания видеодипфейков варьируется от 73,5% до 97,6% в зависимости от сложности подделки. Лучше всех себя показала российская система от VisionLabs. Она способна была распознавать все основные типы дипфейков:
- замену лица (Face Swap),
- перенос выражения лица (Face Reenactment),
- синхронизацию губ (Lip-Sync),
- генерацию лиц (Face Synthesis),
- работает даже с видео низкого качества.
3.2. Обучение и тренировки
- Симуляции фишинга: Регулярные проверки сотрудников и их обучение на их же примерах.
- Red Team с ИИ: Тестовые атаки с использованием deepfake и автоматизированных сценариев. Поможет сотрудникам отличать подделки от настоящего.
Указанный выше софт является хорошим, но в России он сейчас не доступен и поэтому в условиях импортозамещения российские компании предлагают собственные решения для противодействия ИИ-угрозам.
4. Российская перспектива: импортозамещение и практика
Российские технологии в области кибербезопасности становятся всё более конкурентоспособными на фоне роста угроз с применением ИИ. Ключевые решения, ориентированные на защиту от ИИ-угроз:- SIEM и аналитика: MaxPatrol SIEM от Positive Technologies — российская альтернатива западным решениям для мониторинга безопасности. Это система для обработки и анализа событий безопасности, а также для формирования отчётов о угрозах и инцидентах.
- EDR/XDR: Решения от «Лаборатории Касперского» и СТАФ предоставляют защиту от угроз, используя поведенческую аналитику и мониторинг подозрительных действий в реальном времени.
- VPN и межсетевые экраны: Решения от Континент, DallasLock и Код Безопасности помогают обеспечивать безопасность каналов связи и блокировать нежелательные соединения.
- Операционные системы: Astra Linux и РЕД ОС — это российские операционные системы, обеспечивающие безопасность на уровне работы с данными и взаимодействия в сети.
5. Будущие тренды ИИ-атак: куда движется угроза
ИИ развивается экспоненциально, и злоумышленники не отстают. Уже сегодня можно обозначить несколько векторов, которые в ближайшие 1–3 года могут стать основными направлениями атак:5.1. Атаки на голосовых помощников и "умные" устройства
С распространением голосовых ассистентов (Алиса, Siri, Google Assistant, Marusya) открываются новые векторы атак:- Генерация аудиозапросов, имитирующих голос владельца устройства — для активации функций, совершающих действия от имени пользователя (например, отправка сообщений, транзакции, разблокировка IoT-устройств).
- Злоупотребление голосовыми интерфейсами в офисах: злоумышленник может использовать записанный или синтезированный голос для управления "умными" конференц-системами или блоками автоматизации.
- Атаки через акустические сигналы вне слышимого диапазона (так называемые "невидимые команды").
5.2. Атаки через IoT и промышленный ИИ
ИИ встраивается в "умные" системы: логистику, энергетику, производство. ИИ-атаки на эти системы могут привести к реальному физическому ущербу:- ИИ может быть использован для подмены телеметрии и генерации ложных сигналов в системах SCADA.
- Заражение моделей машинного обучения на заводах "на входе": если ИИ обучен на искажённых данных — он ошибается при управлении станками и процессами.
- Злоумышленники могут использовать генеративный ИИ для создания "вредных" обновлений программного обеспечения или firmware на устройствах.
5.3. Атаки через LLM-агентов и автономные ИИ-скрипты
Появление LLM-агентов (автономных ИИ, способных планировать и выполнять задачи) открывает новые возможности для атак:- ИИ-агенты могут самостоятельно искать уязвимости в коде и отправлять отчёты злоумышленникам.
- Они способны вести переговоры с поддержкой, притворяясь клиентом, и получать информацию.
- Интеграция с API позволяет ИИ в реальном времени управлять ботнетами, формировать фишинговые рассылки и атаковать целевые сервисы.
5.4. Атаки на ИИ через "отравление" обучающих данных (data poisoning)
ИИ-системы, особенно в компаниях, обучаются на открытых или частично открытых данных. Если злоумышленник заранее "заражает" такие данные:- Модель начинает ошибаться — например, пропускать вредоносные файлы или «принимать» поддельные документы.
- Возможна подмена предпочтений: в маркетинге, рекомендациях, фильтрации.
5.5. Использование синтетических идентичностей
Генеративные модели позволяют создавать абсолютно новые личности: фейковые сотрудники, фейковые клиенты, даже фейковые чиновники. Эти «люди» могут:- Получать доступ к сервисам.
- Формировать доверительные отношения с организациями.
- Обманом подписывать документы или участвовать в голосованиях/опросах.
На данный момент можно точно сказать, что угрозы ИИ станут ещё более незаметными, масштабируемыми и автономными. Уже в 2025–2026 годах ключевыми задачами станет не только защита от атак, но и верификация подлинности цифровых личностей, данных и действий.
Заключение
Угрозы, исходящие от ИИ, становятся всё более разнообразными и сложными. Атаки, такие как фишинг, deepfake и автоматизация атак через OSINT, становятся основными методами, используемыми злоумышленниками. Однако, в отличие от прежних видов угроз, эти атаки:- Не требуют значительных ресурсов со стороны атакующих.
- Персонализированы и массовы.
- Вывели на новый уровень социальную инженерию благодаря Deepfake и голосовым подделкам.
Угрозы ближайшего будущего — атаки на IoT, LLM-агенты и синтетические идентичности — потребуют не только технологий, но и новых стандартов проверки данных. Компаниям уже сейчас стоит:
- Тестировать уязвимости голосовых интерфейсов и промышленных ИИ.
- Внедрять системы верификации цифровых личностей.
- Мониторить «отравление» данных в собственных ML-моделях.
P.S.: Главное — быть готовыми к изменениям и не оставаться в прошлом, используя старые методы защиты против новых угроз.