Безопасность

Фейковые инструкции установки Claude Code распространяют инфостилеры через атаки InstallFix

Фейковые инструкции установки Claude Code распространяют инфостилеры через атаки InstallFix

Рост популярности AI-инструментов для разработки привёл к появлению новой волны кибератак. Злоумышленники начали активно использовать поддельные инструкции установки популярных утилит, чтобы заражать компьютеры пользователей вредоносным ПО. Одной из последних схем стала кампания InstallFix, в рамках которой распространяются фальшивые руководства по установке инструмента Claude Code — CLI-помощника для программирования на базе искусственного интеллекта. Пользователей убеждают выполнить

Платформы искусственного интеллекта могут использоваться для скрытой передачи вредоносных программ

Помощники на основе искусственного интеллекта, такие как Grok и Microsoft Copilot, с возможностью просмотра веб-страниц и получения URL-адресов, могут быть использованы злоумышленниками для организации командно-контрольных операций (C2). Исследователи из компании Check Point, специализирующейся на кибербезопасности, обнаружили, что злоумышленники могут использовать сервисы на основе искусственного интеллекта для передачи данных между командным сервером и целевым устройством. Злоумышленники

Чему нас научила приманка, созданная искусственным интеллектом

«Вибрационное кодирование» — использование моделей искусственного интеллекта для написания кода — стало частью повседневной разработки для многих команд. Это может значительно сэкономить время, но также может привести к чрезмерному доверию к коду, сгенерированному ИИ, что создает уязвимости в системе безопасности. Опыт злоумышленника служит примером того, как код, сгенерированный ИИ, может повлиять на безопасность. Вот что произошло

ИИ ускоряет проведение кибератак. Готова ли ваша сеть?

В наши дни кибербезопасность находится под пристальным вниманием, особенно в связи с тем, что всё больше враждебных атак на основе искусственного интеллекта, таких как Scattered Spider, могут использовать различные методы, чтобы распространяться, ускорять своё воздействие и маскировать свои операции. Это означает, что для защиты современных сетей требуется более быстрое и комплексное реагирование. Наступательный ИИ начинает набирать

Злонамеренные LLM предоставляют неопытным хакерам доступ к продвинутым инструментам

Неограниченные большие языковые модели (БЯМ), такие как WormGPT 4 и KawaiiGPT, расширяют свои возможности по генерации вредоносного кода, предоставляя функциональные сценарии для программ-вымогателей и горизонтального перемещения. Исследователи из подразделения Palo Alto Networks Unit42 провели эксперимент с двумя языковыми моделями, которые становятся всё более популярными среди киберпреступников благодаря платным подпискам или бесплатным локальным экземплярам. Модель WormGPT
Exit mobile version

Спасибо!

Теперь редакторы в курсе.