Логотип

Безопасность

Фейковые инструкции установки Claude Code распространяют инфостилеры через атаки InstallFix

Фейковые инструкции установки Claude Code распространяют инфостилеры через атаки InstallFix

Рост популярности AI-инструментов для разработки привёл к появлению новой волны кибератак. Злоумышленники начали активно использовать поддельные инструкции установки популярных утилит, чтобы заражать компьютеры пользователей вредоносным ПО. Одной из последних схем стала кампания InstallFix, в рамках которой распространяются фальшивые руководства по установке инструмента Claude Code — CLI-помощника для программирования на базе искусственного интеллекта. Пользователей убеждают выполнить
Платформы искусственного интеллекта могут использоваться для скрытой передачи вредоносных программ

Платформы искусственного интеллекта могут использоваться для скрытой передачи вредоносных программ

Помощники на основе искусственного интеллекта, такие как Grok и Microsoft Copilot, с возможностью просмотра веб-страниц и получения URL-адресов, могут быть использованы злоумышленниками для организации командно-контрольных операций (C2). Исследователи из компании Check Point, специализирующейся на кибербезопасности, обнаружили, что злоумышленники могут использовать сервисы на основе искусственного интеллекта для передачи данных между командным сервером и целевым устройством. Злоумышленники
Чему нас научила приманка, созданная искусственным интеллектом

Чему нас научила приманка, созданная искусственным интеллектом

«Вибрационное кодирование» — использование моделей искусственного интеллекта для написания кода — стало частью повседневной разработки для многих команд. Это может значительно сэкономить время, но также может привести к чрезмерному доверию к коду, сгенерированному ИИ, что создает уязвимости в системе безопасности. Опыт злоумышленника служит примером того, как код, сгенерированный ИИ, может повлиять на безопасность. Вот что произошло
ИИ ускоряет проведение кибератак. Готова ли ваша сеть?

ИИ ускоряет проведение кибератак. Готова ли ваша сеть?

В наши дни кибербезопасность находится под пристальным вниманием, особенно в связи с тем, что всё больше враждебных атак на основе искусственного интеллекта, таких как Scattered Spider, могут использовать различные методы, чтобы распространяться, ускорять своё воздействие и маскировать свои операции. Это означает, что для защиты современных сетей требуется более быстрое и комплексное реагирование. Наступательный ИИ начинает набирать
Злонамеренные LLM предоставляют неопытным хакерам доступ к продвинутым инструментам

Злонамеренные LLM предоставляют неопытным хакерам доступ к продвинутым инструментам

Неограниченные большие языковые модели (БЯМ), такие как WormGPT 4 и KawaiiGPT, расширяют свои возможности по генерации вредоносного кода, предоставляя функциональные сценарии для программ-вымогателей и горизонтального перемещения. Исследователи из подразделения Palo Alto Networks Unit42 провели эксперимент с двумя языковыми моделями, которые становятся всё более популярными среди киберпреступников благодаря платным подпискам или бесплатным локальным экземплярам. Модель WormGPT

Спасибо!

Теперь редакторы в курсе.

Прокрутить страницу до начала