кибербезопасность
Вирусный ИИ-помощник Moltbot вызывает опасения по поводу безопасности данных
Исследователи в области безопасности предупреждают о небезопасном использовании в корпоративных средах ИИ-помощника Moltbot (ранее Clawdbot), что может привести к утечке ключей API, токенов OAuth, истории переписки и учётных данных. Moltbot — это с открытым исходным кодом персональный ИИ-помощник с глубокой системной интеграцией, созданный Питером Штайнбергером. Он может работать локально на пользовательских устройствах и напрямую интегрироваться с пользовательскими
Чему нас научила приманка, созданная искусственным интеллектом
«Вибрационное кодирование» — использование моделей искусственного интеллекта для написания кода — стало частью повседневной разработки для многих команд. Это может значительно сэкономить время, но также может привести к чрезмерному доверию к коду, сгенерированному ИИ, что создает уязвимости в системе безопасности. Опыт злоумышленника служит примером того, как код, сгенерированный ИИ, может повлиять на безопасность. Вот что произошло
OpenAI внедряет в ChatGPT модель прогнозирования возраста, чтобы определять ваш возраст
OpenAI внедряет в ChatGPT модель прогнозирования возраста, которая определяет ваш возраст и применяет возможные ограничения, связанные с безопасностью, чтобы предотвратить злоупотребления со стороны подростков. OpenAI больше не хочет, чтобы ChatGPT показывал контент для взрослых или потенциально незаконный и опасный контент пользователям ChatGPT, особенно если им меньше 18 лет и они не получили согласия родителей. Эта
ИИ-помощника Gemini обманом заставили раскрыть данные календаря Google
Используя только инструкции на естественном языке, исследователи смогли обойти защиту Google Gemini от вредоносных запросов и создать вводящие в заблуждение события, которые привели к утечке личных данных из Календаря. Таким образом злоумышленник может получить доступ к конфиденциальным данным, указанным в описании события в Календаре. Gemini — это помощник на основе большой языковой модели (LLM) от
Тэги: , искусственный интеллект, кибербезопасность, конфиденциальность Категории: AI, Gemini, Новости
В 2026 году хакерам понадобится ИИ: Threat Intel о взломе Vibe и HackGPT
Прямо сейчас на форумах даркнета, каналах Telegram и подпольных рынках хакеры обсуждают искусственный интеллект — но не так, как ожидает большинство людей. Они не спорят о том, как работают модели. Они не восхищаются новейшими генеративными моделями ИИ для создания фильмов. Они не спорят о том, заменит ли ИИ людей. Вместо этого они рассматривают ИИ как нечто гораздо более мощное: как
Тэги: , AI, ИИ, искусственный интеллект, кибербезопасность, киберпреступность Категории: AI, Новости
Являются ли уязвимости, связанные с внедрением подсказок в Copilot, недостатками или ограничениями ИИ?
Компания Microsoft опровергла заявления о том, что многочисленные проблемы, связанные с внедрением подсказок и «песочницей», выявленные инженером по безопасности в её ИИ-помощнике Copilot, представляют собой уязвимости в системе безопасности. Эта разработка подчёркивает растущий разрыв между тем, как поставщики и исследователи определяют риски в системах генеративного ИИ. Уязвимости ИИ или известные ограничения? «В прошлом месяце
Дипфейки 2026 года сделают невозможным различение реальности
Появление дешевых, доступных и мощных инструментов искусственного интеллекта позволило манипулировать цифровым аудио, видео и графическим контентом способами, неизвестными на сегодняшний день. Это явление только началось, и некоторые исследователи предупреждают о его экспоненциальном увеличении возможностей, объема и потенциала для кибератак. Проще говоря, дипфейки 2026 года сделают невозможным отличить реальность от вымысла. Глубокие фейки были — наряду с программами-вымогателями
ИИ ускоряет проведение кибератак. Готова ли ваша сеть?
В наши дни кибербезопасность находится под пристальным вниманием, особенно в связи с тем, что всё больше враждебных атак на основе искусственного интеллекта, таких как Scattered Spider, могут использовать различные методы, чтобы распространяться, ускорять своё воздействие и маскировать свои операции. Это означает, что для защиты современных сетей требуется более быстрое и комплексное реагирование. Наступательный ИИ начинает набирать
Тэги: , искусственный интеллект, кибербезопасность, киберпреступность Категории: Безопасность, Новости
OpenAI сообщает об утечке данных клиентов API в результате взлома поставщика Mixpanel
OpenAI уведомляет некоторых клиентов ChatGPT API о том, что в результате взлома стороннего поставщика аналитических услуг Mixpanel была раскрыта ограниченная идентифицирующая информация. Mixpanel предлагает аналитику событий, которую OpenAI использует для отслеживания взаимодействия пользователей с интерфейсом API. По данным компании, занимающейся искусственным интеллектом, кибератака затронула «ограниченный объём аналитических данных, связанных с некоторыми пользователями API», и не
Avast предоставляет бесплатную защиту от мошенничества на основе искусственного интеллекта по всему миру
Стремясь сделать передовую защиту от мошенничества доступной для всех, компания Avast, лидер в области цифровой безопасности и конфиденциальности, входящая в состав Gen, представила Scam Guardian — новое решение на базе искусственного интеллекта, интегрированное в отмеченный наградами Avast Free Antivirus. Киберпреступники продолжают использовать искусственный интеллект для создания всё более убедительных мошеннических схем с пугающей скоростью. Новая бесплатная