Site icon Искусственный интеллект: просто о сложном
Суббота, 6 декабря, 2025

Злонамеренные LLM предоставляют неопытным хакерам доступ к продвинутым инструментам

Злонамеренные LLM предоставляют неопытным хакерам доступ к продвинутым инструментам

Неограниченные большие языковые модели (БЯМ), такие как WormGPT 4 и KawaiiGPT, расширяют свои возможности по генерации вредоносного кода, предоставляя функциональные сценарии для программ-вымогателей и горизонтального перемещения.

Исследователи из подразделения Palo Alto Networks Unit42 провели эксперимент с двумя языковыми моделями, которые становятся всё более популярными среди киберпреступников благодаря платным подпискам или бесплатным локальным экземплярам.

Модель WormGPT изначально появилась в 2023 году, но, по имеющимся данным, проект был закрыт в том же году. WormGPT 4 — это обновлённая версия бренда, появившаяся в сентябре. Она доступна за 50 долларов в месяц или 220 долларов за пожизненный доступ и представляет собой вариант ChatGPT без цензуры, специально обученный для работы в сфере киберпреступности.

Бесплатная альтернатива, созданная сообществом, — это KawaiiGPT, обнаруженный в июле этого года. Он может генерировать хорошо продуманные фишинговые сообщения и автоматизировать горизонтальное перемещение, создавая готовые к запуску скрипты.

 

Скрипт для блокировки WormGPT 4

Исследователи Unit 42 проверили способность вредоносной языковой модели создавать код для программ-вымогателей, которые шифруют все PDF-файлы на хосте Windows.

Инструмент сгенерировал скрипт PowerShell, который можно настроить на поиск файлов с определёнными расширениями по заданным путям и шифрование данных с помощью алгоритма AES-256.

Сгенерированный сценарий шифрования данных
Источник: Unit 42

 

По словам исследователей, сгенерированный код даже добавил возможность извлечения данных через Tor, что соответствует реальным эксплуатационным требованиям.

С помощью другой подсказки WormGPT 4 создал «пугающую и эффективную записку с требованием выкупа», в которой говорилось о «шифровании военного уровня» и указывался 72-часовой срок, по истечении которого сумма выкупа удваивается.

Сгенерированная записка с требованием выкупа
Источник: Unit 42

 

По словам исследователей, «WormGPT 4 обеспечивает надёжную лингвистическую манипуляцию для BEC-атак и фишинга», что позволяет даже злоумышленникам с низким уровнем квалификации проводить более сложные атаки, которые обычно осуществляются более опытными злоумышленниками.

 

Возможности KawaiiGPT

KawaiiGPT — ещё одна языковая модель, описанная в этом году. Исследователи из Unit 42 протестировали версию 2.5 и утверждают, что её установка в системе Linux занимает всего пять минут.

Фишинговое письмо, созданное с помощью KawaiiGPT
Источник: Unit 42

 

Исследователи проверили его возможности, дав ему задания на создание:

 

Функция эксфильтрации данных
Источник: Unit 42

 

Хотя KawaiiGPT не продемонстрировал создание реальной процедуры шифрования или функциональной программы-вымогателя, такой как WormGPT 4, исследователи предупреждают, что его способность выполнять команды может позволить злоумышленникам повысить привилегии, украсть данные, а также внедрить и запустить дополнительные вредоносные программы.

У обеих вредоносных LLM-моделей сотни подписчиков в специальных Telegram-каналах, где сообщество обменивается советами и рекомендациями.

«Анализ этих двух моделей подтверждает, что злоумышленники активно используют вредоносные языковые модели в своих целях», — предупреждает Unit 42, отмечая, что эти инструменты больше не представляют теоретической угрозы.

В обоих сценариях неопытные злоумышленники получают возможность проводить более сложные атаки в больших масштабах, что сокращает время, необходимое для изучения жертв или создания инструментов. Кроме того, модели создают отточенные, естественно звучащие фишинговые приманки, в которых нет характерных для традиционных мошеннических схем грамматических ошибок.

Если вы нашли ошибку, пожалуйста, выделите фрагмент текста и нажмите Ctrl+Enter.

Exit mobile version