Логотип

Являются ли уязвимости, связанные с внедрением подсказок в Copilot, недостатками или ограничениями ИИ?

Являются ли уязвимости, связанные с внедрением подсказок в Copilot, недостатками или ограничениями ИИ?

Компания Microsoft опровергла заявления о том, что многочисленные проблемы, связанные с внедрением подсказок и «песочницей», выявленные инженером по безопасности в её ИИ-помощнике Copilot, представляют собой уязвимости в системе безопасности.

Эта разработка подчёркивает растущий разрыв между тем, как поставщики и исследователи определяют риски в системах генеративного ИИ.

 

Уязвимости ИИ или известные ограничения?

«В прошлом месяце я обнаружил 4 уязвимости в Microsoft Copilot. С тех пор они закрыли мои обращения, заявив, что они не подлежат устранению», — написал инженер по кибербезопасности Джон Рассел в LinkedIn.

В частности, проблемы, о которых сообщил Рассел и которые позже были признаны Microsoft не являющимися уязвимостями в системе безопасности, включают:

 

Из них особенно интересен способ обхода ограничения на загрузку файлов. Copilot обычно не позволяет загружать «рискованные» форматы файлов. Но пользователи могут просто закодировать их в текстовые строки base64 и обойти это ограничение.

«После отправки в виде обычного текстового файла содержимое проходит первичную проверку типа файла, может быть декодировано в рамках сеанса, а затем восстановленный файл анализируется — таким образом можно обойти ограничения политики загрузки», — объясняет Рассел.

В комментариях к посту инженера сообщество специалистов по безопасности быстро разгорелось дискуссией, в ходе которой высказывались самые разные мнения.

Радж Марате, опытный специалист по кибербезопасности, подтвердил достоверность выводов, сославшись на аналогичную проблему, которую, по его словам, он наблюдал в прошлом:

Читать  Китай опережает США по моделям с открытым исходным кодом ... в то время как американские пионеры открытых IAs переходят на закрытую модель

«В прошлом году я стал свидетелем демонстрации, в ходе которой в документ Word была внедрена команда и загружена в Copilot. Когда Copilot прочитал документ, он взбесился и заблокировал пользователя. Команда не была заметна или выделена белым цветом, но была искусно замаскирована в документе. Я пока не знаю, получил ли этот человек ответ от Microsoft по поводу своего открытия».

Однако другие задавались вопросом, следует ли вообще считать системное раскрытие подсказок уязвимостью.

«Проблема в том, что они относительно известны. По крайней мере, известны пути их использования», — заявил исследователь в области безопасности Кэмерон Крисуэлл.

«Как правило, их сложно устранить, не лишив при этом полезности. Всё это показывает, что большие языковые модели по-прежнему не могут [отделять] данные от инструкций.»

Крисвелл утверждает, что такое поведение отражает более широкое ограничение больших языковых моделей, которые с трудом различают предоставленные пользователем данные и инструкции. На практике это означает, что если можно внедрить скрытые инструкции, то они могут привести к таким проблемам, как искажение данных или непреднамеренное раскрытие информации.

Рассел, однако, возразил, что у конкурирующих ИИ-помощников, таких как Anthropic Claude, не возникло проблем с «отказом от всех этих методов, которые, как я выяснил, работают в Copilot», и объяснил это отсутствием достаточной проверки входных данных.

Системная подсказка — это скрытые инструкции, которые определяют поведение ИИ-движка и, при неправильной разработке, могут включать внутренние правила или логику, которые могут помочь злоумышленнику.

Проект OWASP GenAI выдвигает более детальный подход, классифицируя утечку системных подсказок как потенциальную угрозу только в том случае, если подсказки содержат конфиденциальные данные или используются в качестве средств контроля безопасности, а не рассматривая раскрытие подсказок как отдельную уязвимость:

Читать  Основатель DeepSeek зарабатывает миллионы на "китайской альтернативе Nvidia" ... но продолжает использовать нелегальные чипы Nvidia в Китае

«Вкратце: раскрытие системного запроса само по себе не представляет реальной угрозы. Угроза безопасности связана с базовыми элементами, будь то раскрытие конфиденциальной информации, обход системных ограничений, ненадлежащее разделение привилегий и т. д.».

Даже если точная формулировка не разглашается, злоумышленники, взаимодействующие с системой, почти наверняка смогут определить многие ограничения и правила форматирования, которые присутствуют в языке системных подсказок, в процессе использования приложения, отправки запросов модели и наблюдения за результатами.

 

Позиция Microsoft в отношении уязвимостей ИИ

Microsoft проверяет все сообщения об уязвимостях ИИ с помощью общедоступной панели ошибок

Представитель Microsoft сообщил BleepingComputer, что сообщения были проверены, но не соответствовали критериям компании в отношении уязвимостей:

«Мы ценим работу специалистов по безопасности, которые расследуют потенциальные проблемы и сообщают о них… Этот пользователь сообщил о нескольких случаях, которые, согласно нашим опубликованным критериям, не подпадают под действие нашего сервиса.

Существует несколько причин, по которым случай может не подпадать под определение уязвимости, в том числе случаи, когда не нарушается граница безопасности, воздействие ограничивается средой выполнения запроса пользователя или предоставляется другая низкопривилегированная информация, которая не считается уязвимостью.

В конечном счёте спор сводится к определениям и точкам зрения.

В то время как Рассел считает, что внедрение подсказок и работа в изолированной среде сопряжены со значительными рисками, Microsoft рассматривает их как ожидаемые ограничения, если только они не нарушают чёткие правила безопасности, например не обеспечивают несанкционированный доступ или утечку данных.

Этот пробел в определении рисков, связанных с ИИ, скорее всего, будет оставаться камнем преткновения по мере того, как эти инструменты будут всё шире применяться в корпоративной среде.

Редактор: AndreyEx

Рейтинг: 5 (1 голос)
Если статья понравилась, то поделитесь ей в социальных сетях:

Оставить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

четыре × четыре =

Это может быть вам интересно


Загрузка...

Спасибо!

Теперь редакторы в курсе.

Прокрутить страницу до начала