Злонамеренные LLM предоставляют неопытным хакерам доступ к продвинутым инструментам

Неограниченные большие языковые модели (БЯМ), такие как WormGPT 4 и KawaiiGPT, расширяют свои возможности по генерации вредоносного кода, предоставляя функциональные сценарии для программ-вымогателей и горизонтального перемещения.
Исследователи из подразделения Palo Alto Networks Unit42 провели эксперимент с двумя языковыми моделями, которые становятся всё более популярными среди киберпреступников благодаря платным подпискам или бесплатным локальным экземплярам.
Модель WormGPT изначально появилась в 2023 году, но, по имеющимся данным, проект был закрыт в том же году. WormGPT 4 — это обновлённая версия бренда, появившаяся в сентябре. Она доступна за 50 долларов в месяц или 220 долларов за пожизненный доступ и представляет собой вариант ChatGPT без цензуры, специально обученный для работы в сфере киберпреступности.
Бесплатная альтернатива, созданная сообществом, — это KawaiiGPT, обнаруженный в июле этого года. Он может генерировать хорошо продуманные фишинговые сообщения и автоматизировать горизонтальное перемещение, создавая готовые к запуску скрипты.
Скрипт для блокировки WormGPT 4
Исследователи Unit 42 проверили способность вредоносной языковой модели создавать код для программ-вымогателей, которые шифруют все PDF-файлы на хосте Windows.
Инструмент сгенерировал скрипт PowerShell, который можно настроить на поиск файлов с определёнными расширениями по заданным путям и шифрование данных с помощью алгоритма AES-256.
По словам исследователей, сгенерированный код даже добавил возможность извлечения данных через Tor, что соответствует реальным эксплуатационным требованиям.
С помощью другой подсказки WormGPT 4 создал «пугающую и эффективную записку с требованием выкупа», в которой говорилось о «шифровании военного уровня» и указывался 72-часовой срок, по истечении которого сумма выкупа удваивается.
По словам исследователей, «WormGPT 4 обеспечивает надёжную лингвистическую манипуляцию для BEC-атак и фишинга», что позволяет даже злоумышленникам с низким уровнем квалификации проводить более сложные атаки, которые обычно осуществляются более опытными злоумышленниками.
Возможности KawaiiGPT
KawaiiGPT — ещё одна языковая модель, описанная в этом году. Исследователи из Unit 42 протестировали версию 2.5 и утверждают, что её установка в системе Linux занимает всего пять минут.
Исследователи проверили его возможности, дав ему задания на создание:
- генерация целевого фишингового сообщения с реалистичной подменой домена и ссылками для сбора учетных данных.
- скрипт на Python для горизонтального перемещения, который использует библиотеку paramiko SSH для подключения к хосту и удаленного выполнения команд с помощью exec_command()
- скрипт на Python, который рекурсивно ищет целевые файлы в файловой системе Windows с помощью os.walk, а затем использует библиотеку Python smtplib для упаковки и передачи данных на адрес, контролируемый злоумышленником.
- Создание записок с требованием выкупа с настраиваемыми инструкциями по оплате, сроками и типичными заявлениями о надежности шифрования
Хотя KawaiiGPT не продемонстрировал создание реальной процедуры шифрования или функциональной программы-вымогателя, такой как WormGPT 4, исследователи предупреждают, что его способность выполнять команды может позволить злоумышленникам повысить привилегии, украсть данные, а также внедрить и запустить дополнительные вредоносные программы.
У обеих вредоносных LLM-моделей сотни подписчиков в специальных Telegram-каналах, где сообщество обменивается советами и рекомендациями.
«Анализ этих двух моделей подтверждает, что злоумышленники активно используют вредоносные языковые модели в своих целях», — предупреждает Unit 42, отмечая, что эти инструменты больше не представляют теоретической угрозы.
В обоих сценариях неопытные злоумышленники получают возможность проводить более сложные атаки в больших масштабах, что сокращает время, необходимое для изучения жертв или создания инструментов. Кроме того, модели создают отточенные, естественно звучащие фишинговые приманки, в которых нет характерных для традиционных мошеннических схем грамматических ошибок.
Редактор: AndreyEx



