кибербезопасность
Claude Mythos: слишком мощный ИИ, который решили скрыть от публики
Компания Anthropic представила новый экспериментальный искусственный интеллект под названием Claude Mythos Preview — и сразу же приняла решение не делать его общедоступным. Причина оказалась неожиданной: модель продемонстрировала настолько высокий уровень возможностей в области кибербезопасности, что потенциально может представлять угрозу при свободном распространении. ИИ, который пугает даже разработчиков Claude Mythos стал результатом очередного скачка в
Утечка кода Claude Code используется для распространения вредоносного ПО через GitHub
Недавняя утечка исходного кода инструмента Claude Code от компании Anthropic привела к неожиданным последствиям в сфере кибербезопасности. Несмотря на то, что сама компания заявила об отсутствии утечки пользовательских данных, злоумышленники быстро воспользовались ситуацией, превратив её в инструмент для распространения вредоносного программного обеспечения. Что произошло В конце марта 2026 года Anthropic случайно опубликовала внутренний исходный
Женщина провела полгода в тюрьме из-за ошибки ИИ: опасная сторона распознавания лиц
Как ошибка алгоритма разрушила жизнь человека Технологии искусственного интеллекта всё чаще используются в правоохранительных органах — от анализа данных до распознавания лиц. Однако один недавний случай показал, насколько опасной может быть слепая вера в алгоритмы. В США женщина по имени Анджела Липпс оказалась за решёткой почти на шесть месяцев после того, как система распознавания лиц
Люди прячутся за анонимными аккаунтами, думая, что их невозможно раскрыть. Но у ИИ для них плохие новости
Интернет-анонимность больше не гарантирует безопасность Многие пользователи интернета уверены, что анонимные аккаунты в соцсетях или на форумах полностью скрывают их личность. Люди создают альтернативные профили, используют псевдонимы и считают, что за ними невозможно проследить. Однако развитие искусственного интеллекта и анализа данных постепенно разрушает этот миф. Современные алгоритмы способны сопоставлять огромные массивы информации и находить закономерности
Фейковые инструкции установки Claude Code распространяют инфостилеры через атаки InstallFix
Рост популярности AI-инструментов для разработки привёл к появлению новой волны кибератак. Злоумышленники начали активно использовать поддельные инструкции установки популярных утилит, чтобы заражать компьютеры пользователей вредоносным ПО. Одной из последних схем стала кампания InstallFix, в рамках которой распространяются фальшивые руководства по установке инструмента Claude Code — CLI-помощника для программирования на базе искусственного интеллекта. Пользователей убеждают выполнить
Тэги: , Claude, Claude Code, вредоносный код, искусственный интеллект, кибербезопасность Категории: AI, Claude, Безопасность, Новости
Три ИИ встретились лицом к лицу в «Военных играх». 95% из них применили ядерное оружие, и ни один из них никогда не сдавался
В «Военных играх» (Джон Бэдхэм, 1983) машина WOPR («Joshua») постоянно играла в имитацию ядерных войн для правительства США. Цель: извлечь уроки из этих симуляций, чтобы в случае ядерной войны США могли выиграть ее, используя эти знания. Это привело к легендарному заключительному уроку —»Странная игра. Единственный способ победить — это не играть в азартные игры»- и
Вирусный ИИ-помощник Moltbot вызывает опасения по поводу безопасности данных
Исследователи в области безопасности предупреждают о небезопасном использовании в корпоративных средах ИИ-помощника Moltbot (ранее Clawdbot), что может привести к утечке ключей API, токенов OAuth, истории переписки и учётных данных. Moltbot — это с открытым исходным кодом персональный ИИ-помощник с глубокой системной интеграцией, созданный Питером Штайнбергером. Он может работать локально на пользовательских устройствах и напрямую интегрироваться с пользовательскими
Чему нас научила приманка, созданная искусственным интеллектом
«Вибрационное кодирование» — использование моделей искусственного интеллекта для написания кода — стало частью повседневной разработки для многих команд. Это может значительно сэкономить время, но также может привести к чрезмерному доверию к коду, сгенерированному ИИ, что создает уязвимости в системе безопасности. Опыт злоумышленника служит примером того, как код, сгенерированный ИИ, может повлиять на безопасность. Вот что произошло
OpenAI внедряет в ChatGPT модель прогнозирования возраста, чтобы определять ваш возраст
OpenAI внедряет в ChatGPT модель прогнозирования возраста, которая определяет ваш возраст и применяет возможные ограничения, связанные с безопасностью, чтобы предотвратить злоупотребления со стороны подростков. OpenAI больше не хочет, чтобы ChatGPT показывал контент для взрослых или потенциально незаконный и опасный контент пользователям ChatGPT, особенно если им меньше 18 лет и они не получили согласия родителей. Эта
ИИ-помощника Gemini обманом заставили раскрыть данные календаря Google
Используя только инструкции на естественном языке, исследователи смогли обойти защиту Google Gemini от вредоносных запросов и создать вводящие в заблуждение события, которые привели к утечке личных данных из Календаря. Таким образом злоумышленник может получить доступ к конфиденциальным данным, указанным в описании события в Календаре. Gemini — это помощник на основе большой языковой модели (LLM) от
Тэги: , искусственный интеллект, кибербезопасность, конфиденциальность Категории: AI, Gemini, Новости