кибербезопасность

Вирусный ИИ-помощник Moltbot вызывает опасения по поводу безопасности данных

Вирусный ИИ-помощник Moltbot вызывает опасения по поводу безопасности данных

Исследователи в области безопасности предупреждают о небезопасном использовании в корпоративных средах ИИ-помощника Moltbot (ранее Clawdbot), что может привести к утечке ключей API, токенов OAuth, истории переписки и учётных данных. Moltbot — это с открытым исходным кодом персональный ИИ-помощник с глубокой системной интеграцией, созданный Питером Штайнбергером. Он может работать локально на пользовательских устройствах и напрямую интегрироваться с пользовательскими

Чему нас научила приманка, созданная искусственным интеллектом

«Вибрационное кодирование» — использование моделей искусственного интеллекта для написания кода — стало частью повседневной разработки для многих команд. Это может значительно сэкономить время, но также может привести к чрезмерному доверию к коду, сгенерированному ИИ, что создает уязвимости в системе безопасности. Опыт злоумышленника служит примером того, как код, сгенерированный ИИ, может повлиять на безопасность. Вот что произошло

OpenAI внедряет в ChatGPT модель прогнозирования возраста, чтобы определять ваш возраст

OpenAI внедряет в ChatGPT модель прогнозирования возраста, которая определяет ваш возраст и применяет возможные ограничения, связанные с безопасностью, чтобы предотвратить злоупотребления со стороны подростков. OpenAI больше не хочет, чтобы ChatGPT показывал контент для взрослых или потенциально незаконный и опасный контент пользователям ChatGPT, особенно если им меньше 18 лет и они не получили согласия родителей. Эта

ИИ-помощника Gemini обманом заставили раскрыть данные календаря Google

Используя только инструкции на естественном языке, исследователи смогли обойти защиту Google Gemini от вредоносных запросов и создать вводящие в заблуждение события, которые привели к утечке личных данных из Календаря. Таким образом злоумышленник может получить доступ к конфиденциальным данным, указанным в описании события в Календаре. Gemini — это помощник на основе большой языковой модели (LLM) от

В 2026 году хакерам понадобится ИИ: Threat Intel о взломе Vibe и HackGPT

Прямо сейчас на форумах даркнета, каналах Telegram и подпольных рынках хакеры обсуждают искусственный интеллект — но не так, как ожидает большинство людей. Они не спорят о том, как работают модели. Они не восхищаются новейшими генеративными моделями ИИ для создания фильмов. Они не спорят о том, заменит ли ИИ людей. Вместо этого они рассматривают ИИ как нечто гораздо более мощное: как

Являются ли уязвимости, связанные с внедрением подсказок в Copilot, недостатками или ограничениями ИИ?

Компания Microsoft опровергла заявления о том, что многочисленные проблемы, связанные с внедрением подсказок и «песочницей», выявленные инженером по безопасности в её ИИ-помощнике Copilot, представляют собой уязвимости в системе безопасности. Эта разработка подчёркивает растущий разрыв между тем, как поставщики и исследователи определяют риски в системах генеративного ИИ.   Уязвимости ИИ или известные ограничения? «В прошлом месяце

Дипфейки 2026 года сделают невозможным различение реальности

Появление дешевых, доступных и мощных инструментов искусственного интеллекта позволило манипулировать цифровым аудио, видео и графическим контентом способами, неизвестными на сегодняшний день. Это явление только началось, и некоторые исследователи предупреждают о его экспоненциальном увеличении возможностей, объема и потенциала для кибератак. Проще говоря, дипфейки 2026 года сделают невозможным отличить реальность от вымысла. Глубокие фейки были — наряду с программами-вымогателями

ИИ ускоряет проведение кибератак. Готова ли ваша сеть?

В наши дни кибербезопасность находится под пристальным вниманием, особенно в связи с тем, что всё больше враждебных атак на основе искусственного интеллекта, таких как Scattered Spider, могут использовать различные методы, чтобы распространяться, ускорять своё воздействие и маскировать свои операции. Это означает, что для защиты современных сетей требуется более быстрое и комплексное реагирование. Наступательный ИИ начинает набирать

OpenAI сообщает об утечке данных клиентов API в результате взлома поставщика Mixpanel

OpenAI уведомляет некоторых клиентов ChatGPT API о том, что в результате взлома стороннего поставщика аналитических услуг Mixpanel была раскрыта ограниченная идентифицирующая информация. Mixpanel предлагает аналитику событий, которую OpenAI использует для отслеживания взаимодействия пользователей с интерфейсом API. По данным компании, занимающейся искусственным интеллектом, кибератака затронула «ограниченный объём аналитических данных, связанных с некоторыми пользователями API», и не

Avast предоставляет бесплатную защиту от мошенничества на основе искусственного интеллекта по всему миру

Стремясь сделать передовую защиту от мошенничества доступной для всех, компания Avast, лидер в области цифровой безопасности и конфиденциальности, входящая в состав Gen, представила Scam Guardian — новое решение на базе искусственного интеллекта, интегрированное в отмеченный наградами Avast Free Antivirus. Киберпреступники продолжают использовать искусственный интеллект для создания всё более убедительных мошеннических схем с пугающей скоростью. Новая бесплатная
Exit mobile version

Спасибо!

Теперь редакторы в курсе.