Логотип

кибербезопасность

Вирусный ИИ-помощник Moltbot вызывает опасения по поводу безопасности данных

Вирусный ИИ-помощник Moltbot вызывает опасения по поводу безопасности данных

Исследователи в области безопасности предупреждают о небезопасном использовании в корпоративных средах ИИ-помощника Moltbot (ранее Clawdbot), что может привести к утечке ключей API, токенов OAuth, истории переписки и учётных данных. Moltbot — это с открытым исходным кодом персональный ИИ-помощник с глубокой системной интеграцией, созданный Питером Штайнбергером. Он может работать локально на пользовательских устройствах и напрямую интегрироваться с пользовательскими
Чему нас научила приманка, созданная искусственным интеллектом

Чему нас научила приманка, созданная искусственным интеллектом

«Вибрационное кодирование» — использование моделей искусственного интеллекта для написания кода — стало частью повседневной разработки для многих команд. Это может значительно сэкономить время, но также может привести к чрезмерному доверию к коду, сгенерированному ИИ, что создает уязвимости в системе безопасности. Опыт злоумышленника служит примером того, как код, сгенерированный ИИ, может повлиять на безопасность. Вот что произошло
OpenAI внедряет в ChatGPT модель прогнозирования возраста, чтобы определять ваш возраст

OpenAI внедряет в ChatGPT модель прогнозирования возраста, чтобы определять ваш возраст

OpenAI внедряет в ChatGPT модель прогнозирования возраста, которая определяет ваш возраст и применяет возможные ограничения, связанные с безопасностью, чтобы предотвратить злоупотребления со стороны подростков. OpenAI больше не хочет, чтобы ChatGPT показывал контент для взрослых или потенциально незаконный и опасный контент пользователям ChatGPT, особенно если им меньше 18 лет и они не получили согласия родителей. Эта
ИИ-помощника Gemini обманом заставили раскрыть данные календаря Google

ИИ-помощника Gemini обманом заставили раскрыть данные календаря Google

Используя только инструкции на естественном языке, исследователи смогли обойти защиту Google Gemini от вредоносных запросов и создать вводящие в заблуждение события, которые привели к утечке личных данных из Календаря. Таким образом злоумышленник может получить доступ к конфиденциальным данным, указанным в описании события в Календаре. Gemini — это помощник на основе большой языковой модели (LLM) от
В 2026 году хакерам понадобится ИИ: Threat Intel о взломе Vibe и HackGPT

В 2026 году хакерам понадобится ИИ: Threat Intel о взломе Vibe и HackGPT

Прямо сейчас на форумах даркнета, каналах Telegram и подпольных рынках хакеры обсуждают искусственный интеллект — но не так, как ожидает большинство людей. Они не спорят о том, как работают модели. Они не восхищаются новейшими генеративными моделями ИИ для создания фильмов. Они не спорят о том, заменит ли ИИ людей. Вместо этого они рассматривают ИИ как нечто гораздо более мощное: как
Являются ли уязвимости, связанные с внедрением подсказок в Copilot, недостатками или ограничениями ИИ?

Являются ли уязвимости, связанные с внедрением подсказок в Copilot, недостатками или ограничениями ИИ?

Компания Microsoft опровергла заявления о том, что многочисленные проблемы, связанные с внедрением подсказок и «песочницей», выявленные инженером по безопасности в её ИИ-помощнике Copilot, представляют собой уязвимости в системе безопасности. Эта разработка подчёркивает растущий разрыв между тем, как поставщики и исследователи определяют риски в системах генеративного ИИ.   Уязвимости ИИ или известные ограничения? «В прошлом месяце
Дипфейки 2026 года сделают невозможным различение реальности

Дипфейки 2026 года сделают невозможным различение реальности

Появление дешевых, доступных и мощных инструментов искусственного интеллекта позволило манипулировать цифровым аудио, видео и графическим контентом способами, неизвестными на сегодняшний день. Это явление только началось, и некоторые исследователи предупреждают о его экспоненциальном увеличении возможностей, объема и потенциала для кибератак. Проще говоря, дипфейки 2026 года сделают невозможным отличить реальность от вымысла. Глубокие фейки были — наряду с программами-вымогателями
ИИ ускоряет проведение кибератак. Готова ли ваша сеть?

ИИ ускоряет проведение кибератак. Готова ли ваша сеть?

В наши дни кибербезопасность находится под пристальным вниманием, особенно в связи с тем, что всё больше враждебных атак на основе искусственного интеллекта, таких как Scattered Spider, могут использовать различные методы, чтобы распространяться, ускорять своё воздействие и маскировать свои операции. Это означает, что для защиты современных сетей требуется более быстрое и комплексное реагирование. Наступательный ИИ начинает набирать
OpenAI сообщает об утечке данных клиентов API в результате взлома поставщика Mixpanel

OpenAI сообщает об утечке данных клиентов API в результате взлома поставщика Mixpanel

OpenAI уведомляет некоторых клиентов ChatGPT API о том, что в результате взлома стороннего поставщика аналитических услуг Mixpanel была раскрыта ограниченная идентифицирующая информация. Mixpanel предлагает аналитику событий, которую OpenAI использует для отслеживания взаимодействия пользователей с интерфейсом API. По данным компании, занимающейся искусственным интеллектом, кибератака затронула «ограниченный объём аналитических данных, связанных с некоторыми пользователями API», и не
Avast предоставляет бесплатную защиту от мошенничества на основе искусственного интеллекта по всему миру

Avast предоставляет бесплатную защиту от мошенничества на основе искусственного интеллекта по всему миру

Стремясь сделать передовую защиту от мошенничества доступной для всех, компания Avast, лидер в области цифровой безопасности и конфиденциальности, входящая в состав Gen, представила Scam Guardian — новое решение на базе искусственного интеллекта, интегрированное в отмеченный наградами Avast Free Antivirus. Киберпреступники продолжают использовать искусственный интеллект для создания всё более убедительных мошеннических схем с пугающей скоростью. Новая бесплатная

Спасибо!

Теперь редакторы в курсе.

Прокрутить страницу до начала