Киберугрозы вступили в новую фазу: на смену хакерским группам приходят самообучающиеся алгоритмы, способные даже без участия человека находить уязвимости, создавать эксплойты и адаптироваться к самым серьезным защитным системам.
В последние пару лет были зафиксированы первые целенаправленные атаки с использованием автономного вредоносного ПО на базе генеративного ИИ, что заставляет корпорации и государства экстренно перестраивать стратегии защиты. Мы выяснили, как работают эти цифровые хищники, кто уже стал их жертвой, возможно ли им противостоять.
Что такое самораспространяющееся ПО
Самораспространяющееся вредоносное ПО на базе искусственного интеллекта представляет собой новый класс киберугроз, в котором функции автоматического распространения и заражения систем совмещены с когнитивными способностями, присущими ИИ. В отличие от традиционных вирусов, которые следуют жёстко заданным сценариям, такие программы способны анализировать среду, принимать тактические решения и создавать или модифицировать свой код для преодоления конкретных препятствий.
В их основе лежат специализированные языковые модели (LLM), обученные на гигантских массивах кода, технической документации и описаний уязвимостей. Такой вирус не просто исполняет скрипт. Он также определяет операционную систему, установленное ПО, сетевые политики. Кроме того, вирус генерирует полезную нагрузку: на ходу пишет фрагменты кода для эксплуатации найденных слабостей — если обнаружена уязвимость в корпоративном VPN-клиенте, ИИ-модуль не ищет готовый эксплойт в своей памяти, а генерирует его код с нуля или адаптирует под конкретную версию ПО, используя знания о типах уязвимостей (переполнение буфера, SQL-инъекция). Он может комбинировать несколько низкоуровневых уязвимостей для создания цепочки атаки. Он также принимает решения, то есть если один путь заблокирован, ищет другой, имитируя поведение опытного хакера. Если эксплойт не сработал (например, сработала система предотвращения вторжений), агент не прекращает попыток. Он анализирует ответ системы (сообщение об ошибке, сброс соединения), делает выводы и генерирует новую версию атаки. Он может переключиться с попытки получить root-доступ через уязвимость в ядре на кражу учётных данных из файла конфигурации или на атаку через соседнюю, менее защищённую систему в сети. Этот цикл «действие-анализ-корректировка» имитирует работу хакера-профессионала, но работает гораздо быстрее. Он может создавать уникальные фишинговые письма, голосовые сообщения или дипфейк-видео, каждый раз обучаясь и совершенствуясь благодаря реакции жертвы.
После закрепления в одной системе, агент ищет пути для горизонтального перемещения внутри сети. Он анализирует таблицы маршрутизации, ищет общие сетевые ресурсы, пробует подобрать пароли к другим машинам, используя украденные хэши или сгенерированные методом брутфорса варианты, основанные на корпоративной политике паролей. Для сохранения доступа он может автономно создавать и маскировать бэкдоры, регистрировать новые задачи в планировщике или модифицировать системные библиотеки, причём способы маскировки будут разными для Windows, Linux или сетевого оборудования.
Реальные кейсы

В прошлом году многие компании столкнулись с новым классов вирусов на практике. Крупнейшие игроки на рынке кибербезопасности — CrowdStrike, Palo Alto Networks, — опубликовали отчёты, фиксирующие первые волны атак с элементами автономного ИИ.
Под прицелом, в первую очередь, — критически важная инфраструктура (энергетика, транспорт, финансы), где все еще много устаревших систем, и сложные корпоративные сети с тысячами устройств. Опасности подвергается каждый, но цель таких вирусов — не ваш домашний ноутбук, а целые экосистемы, поэтому и ущерб исчисляется миллиардами.
Так мошенники в Китае с помощью дипфейков обманули государственную систему распознавания лиц более чем на 75 млн долларов. Для этого они купили фотографии незнакомых людей в высоком качестве и поддельные личные данные на чёрном рынке. Затем они обработали купленные кадры в дипфейк-приложениях, чтобы оживить загруженную картинку и сделать из неё видео. Так получилось создать впечатление будто люди со снимков кивают, моргают, двигаются.
Подобная история произошла и в США. Еще в 2022 году мошенники, используя модели искусственного интеллекта для точной имитации голоса человека, похитили у жертв около 11 млн долларов.
А еще несколько лет назад, когда такие случаи не были повсеместными, преступники похитили у британской энергетической компании более 240 тысяч долларов. С помощью голосового дипфейка мошенники в разговоре с менеджером выдали себя за директора материнской компании и попросили отправить на счет кругленькую сумму. Менеджер поверил. Также обманули и сотрудника банка в ОАЭ. В середине октября 2021 года стало известно, что мошенники похитили около 35 млн долларов из банка ОАЭ. Они имитировали голос главы банка.
Известен и другой случай, когда китайский мошенник использовал искусственный интеллект, чтобы выдать себя за друга бизнесмена и убедить его передать ему 610 тысяч долларов. Бизнесмен получил видеозвонок от человека, который выглядел и говорил как его близкий друг. Но на самом деле звонивший оказался преступником.
Летом 2024 года группа хакеров использовала инструмент, который автоматически находил и взламывал устаревшие IoT-устройства (камеры, роутеры) в сетях американских логистических компаний. Вирус не просто сканировал порты. Он анализировал ответы устройств, искал в базах данных (CVE) информацию об уязвимостях конкретных моделей и генерировал уникальный эксплойт прямо на месте, обходя сигнатуры стандартных антивирусов. Это превратило тысячи безобидных «умных» устройств в плацдарм для масштабной DDoS-атаки, парализовавшей работу нескольких портов.
Также известно, что группа хакеров Scattered Spider использовала большие языковые модели (LLM), такие как ChatGPT и его аналоги (WormGPT, FraudGPT), для создания высококачественных, персонализированных фишинговых писем. Целью были юридические фирмы в США и Великобритании, имеющие доступ к средствам клиентов. Вместо шаблонных писем ИИ генерировал уникальные тексты на основе информации о целевой фирме, найденной в открытых источниках (LinkedIn, пресс-релизы). Письма были безупречны с точки зрения грамматики, стиля и контекста, что резко повысило процент успешных заражений. На самом деле в даркнете активно продаются и используются специализированные ИИ-бооты вроде WormGPT или FraudGPT. Они созданы на основе утекших open-source моделей и дообучены на вредоносных данных. Хакеры используют их не как автономных агентов, а как «копилотов»: бот помогает писать сложные фрагменты кода для эксплойтов, анализировать результаты сканирования портов и предлагать возможные векторы атаки. Так, после того как обычный сканер находит в корпоративной сети уязвимый веб-сервис, оператор может попросить WormGPT «написать скрипт для эксплуатации SQL-инъекции в [конкретный компонент]». ИИ генерирует рабочий код, который хакер затем запускает.
Как страны создают «ИИ-щит»: гонка цифровых вооружений

Ответ на автономные угрозы тоже ложится на ИИ. Ведущие страны и блоки активно развивают системы «AI-powered Cyber Defense».
Например в США работают над проектом «IQ Shield». Агентство DARPA и Киберкомандование США тестируют системы, где ИИ-оператор в режиме 24/7 мониторит трафик государственных сетей, выявляя не просто аномалии, а паттерны поведения, характерные для другой ИИ. Это попытка предсказать действия автономного вируса, сыграв с ним в шахматы на опережение.
Также американская компания SentinelOne известна своей автономной платформой EDR (Endpoint Detection and Response). Их ключевая разработка — Purple AI — это ИИ-ассистент для аналитиков SOC. Purple AI умеет на естественном языке получать запросы вроде: «Найди все системы, на которых наблюдалась подозрительная активность генерации PowerShell-скриптов в последние 48 часов, и покажи цепочки атак». Он автоматически коррелирует события, проводит расследование и предлагает ответные меры. Это операционная автономия защиты, необходимая для противодействия скоростным ИИ-атакам.
Еще один американский специализированный стартап HiddenLayer фокусируется исключительно на безопасности самих машинно-обучающихся моделей (MLSec). Это критически важное направление, так как ИИ-атака может быть направлена не на сеть, а на подмену или отравление модели ИИ, используемой для защиты. Платформа непрерывно мониторит поведение ML-моделей в продакшене, выявляя аномалии в их работе (например, внезапное падение точности, нехарактерные выводы), которые могут быть признаком атаки подмены модели или отравления данных со стороны враждебного ИИ.
Евросоюз же разрабатывает инициативу «Aegis». В рамках стратегии по кибербезопасности создаётся единая платформа для обмена данными об ИИ-атаках между странами-членами. Акцент — на коллективном анализе и быстром создании «цифровых вакцин» — патчей и правил для систем защиты, которые можно развернуть по всему Союзу за часы.
Британская компания Darktrace ActiveAI Security Platform — пионер в использовании ИИ для кибербезопасности. Эта технология использует алгоритмы машинного обучения без учителя для изучения нормального поведения каждого пользователя и устройства в сети. Система не ищет известные сигнатуры, а выявляет микро-аномалии, которые могут указывать на действия адаптивного ИИ-вредителя (например, нехарактерная последовательность запросов к данным, аномальная скорость перемещения по сети). В 2024 году Darktrace анонсировала модуль, который фокусируется на обнаружении атак, использующих легитимные ИИ-инструменты (например, ChatGPT для генерации вредоносного кода).
Такие страны как Израиль и Сингапур, например, создают изолированные цифровые полигоны, где два ИИ — атакующий и защищающий — постоянно сражаются друг с другом, учатся и совершенствуют тактики, чтобы их разработки были на шаг впереди реальных угроз.
Это уже не просто антивирусные базы. Это системы активной киберобороны, где искусственный интеллект становится главным защитником цифровых границ.
Как компаниям защищаться: Zero Trust и AI-операторы

Бизнесу нельзя полагаться только на государственный щит. Новая парадигма безопасности строится на двух столпах:
-
Zero Trust (или нулевое доверие) как фундамент. Каждое устройство, каждый пользователь, каждый запрос к данным должен проходить строгую многофакторную аутентификацию и авторизацию. Даже если ИИ-вирус проникнет внутрь сети, модель Zero Trust ограничит его перемещения и доступ к критическим активам, не дав реализовать конечную цель.
-
AI-операторы безопасности (их также называют Security Copilots). Такие продукты, как Microsoft Security Copilot или Splunk AI+, становятся обязательными для SOC-аналитиков. Они агрегируют данные со всех систем безопасности компании, даже объясняют аналитику, что именно происходит, например: «Обнаружена аномальная активность на сервере бухгалтерии, похожая на действия автономного модуля». Далее такие системы предлагают конкретные действия по нейтрализации и даже автоматически применяют заранее согласованные меры. Это делает их эффективнее с каждой атакой.
Так защита превращается в непрерывную коллаборацию человека и ИИ против вредоносного ПО.
В последние годы автономные ИИ-вирусы больше не кажутся нам чем-то далеким и фантастическим. Уже сейчас они делают атаки гораздо масштабнее и опаснее. Единственная возможность противостоять этому — бороться с киберугрозами их же оружием. В новой цифровой реальности победит тот, чей искусственный интеллект сообразительнее и изобретательнее.
Поделитесь этим с друзьями!
Будьте первым, кто оставит комментарий
Пожалуйста, авторизируйтесь для возможности комментировать