Логотип

Распространение принципа «нулевого доверия» на ИИ-агентов: принцип «никогда не доверяй, всегда проверяй» становится автономным

Распространение принципа «нулевого доверия» на ИИ-агентов: принцип «никогда не доверяй, всегда проверяй» становится автономным

По мере того как организации внедряют ИИ-помощников и автономных агентов для оптимизации рабочих процессов и повышения эффективности, они могут невольно расширять поверхность атаки. ИИ-агенты, встроенные в ИТ-операции, процессы обслуживания клиентов или внутренние инструменты на основе больших языковых моделей, действуют от нашего имени, принимают решения, получают доступ к конфиденциальным данным и выполняют автоматизированные действия с машинной скоростью.

В чём сложность? Большинство систем безопасности не рассчитаны на работу с новыми типами агентов. Мы годами совершенствовали модель «Никому не доверяй» для пользователей и приложений, но теперь нам нужно ответить на сложный вопрос: что произойдёт, если пользователь будет представлять собой самостоятельное программное обеспечение?

Ответ на этот вопрос начинается с нового подхода к принципу «Никому не доверяй», который применяется не только к людям и традиционным сервисам, но и к каждому ИИ-агенту, работающему в наших системах.

 

Распространение автономных агентов

На протяжении десятилетий идентификация была ориентирована на человека. Затем появились служебные учётные записи, контейнеры и API (идентификаторы машин), которые требовали собственного управления. Теперь мы сталкиваемся со следующей эволюцией: агентными идентификаторами.

Агенты с искусственным интеллектом ведут себя гибко, как люди, но при этом работают с масштабом и скоростью машин. В отличие от статического кода, они обучаются, адаптируются и принимают автономные решения. Это означает, что их поведение сложнее предсказать, а требования к доступу к ним меняются динамически.

Однако многие из этих агентов сегодня работают с жестко заданными учетными данными, имеют избыточные привилегии и не несут реальной ответственности. По сути, мы выдали стажеру значок администратора и сказали, чтобы он действовал быстро.

Если директора по информационной безопасности хотят безопасно и надёжно внедрить ИИ, эти агенты должны стать полноценными субъектами, управляемыми с ещё большей строгостью, чем любой сотрудник или приложение.

Читать  Чему ещё стоит научиться в мире с искусственным интеллектом?

 

«Никогда не доверяй, всегда проверяй»

Модель «Никому не доверяй» основана на простом принципе: никогда не доверяй, всегда проверяй. Она предполагает, что пользователи, машины и агенты могут быть взломаны, и требует, чтобы каждый запрос на доступ, независимо от источника, проходил аутентификацию, авторизацию и мониторинг.

Эта философия идеально подходит для автономных агентов. Вот как это выглядит на практике:

  • Доступ на основе идентификации: У каждого ИИ-агента должна быть уникальная проверяемая идентификация. Никаких общих учётных данных. Никаких анонимных служебных токенов. Каждое действие должно быть атрибутировано.
  • Минимальные привилегии по умолчанию: Агенты должны иметь только тот доступ, который необходим для выполнения их функций. Если агент предназначен для чтения данных о продажах, он не должен иметь возможность вносить записи в платёжные документы или получать доступ к HR-системам.
  • Динамическое контекстное применение: По мере развития агентов и изменения задач необходимо постоянно пересматривать их права доступа. Статические политики не сработают. Решения должны приниматься с учетом контекста в реальном времени, например того, к чему осуществляется доступ, кем и при каких условиях.
  • Непрерывный мониторинг и проверка: Автономность не означает отсутствие контроля. За агентами нужно следить так же, как за привилегированными пользователями. Необычное поведение, например доступ к новой системе, передача больших объемов данных или повышение привилегий, должно вызывать тревогу или необходимость вмешательства.

 

Риск чрезмерного влияния

Искусственный интеллект быстро внедряется для стимулирования инноваций, повышения эффективности и создания конкурентных преимуществ. Он не стремится причинить вред, но это не значит, что он не может этого сделать.

Представьте себе агента службы поддержки с широким доступом к внутренним системам. Он предназначен для автоматизации обработки заявок, но из-за внедрения кода или неправильной настройки он может сбрасывать пароли пользователей, удалять записи или отправлять конфиденциальные данные по электронной почте за пределы компании.

Это не теория, это происходит на самом деле. Агенты ИИ могут демонстрировать новое поведение, неправильно понимать инструкции или действовать за пределами ожидаемой области применения. Хуже того, злоумышленники знают об этом и активно исследуют интерфейсы ИИ в поисках способов их взлома.

Читать  Глава Intel по искусственному интеллекту уходит в отставку и присоединяется к OpenAI

Это то, что мы называем чрезмерной свободой действий: когда агентам ИИ предоставляется больше полномочий, чем следовало бы, и при этом отсутствуют ограничения, которые могли бы помешать им использовать эти полномочия.

 

Создание защитных барьеров без узких мест

Специалисты по безопасности сейчас балансируют на тонкой грани. С одной стороны, они хотят стимулировать инновации. С другой стороны, им нужно поддерживать дисциплину. Этот баланс особенно важен в случае с ИИ.

Решение заключается в создании масштабируемых защитных барьеров. Это означает:

  • Ограниченные токены и краткосрочные учётные данные: Вместо долгосрочных секретов используйте токены доступа с ограниченным сроком действия и чётко определёнными областями применения. В случае взлома они быстро теряют актуальность и наносят минимальный ущерб.
  • Многоуровневые модели доверия: Не все действия равнозначны. Рутинные задачи с низким уровнем риска можно свободно автоматизировать. Для операций с высоким уровнем риска, таких как удаление данных или перевод средств, требуется участие человека или многофакторная аутентификация.
  • Установите границы доступа: Не позволяйте агентам звонить куда бы то ни было. Обеспечьте соблюдение строгих правил доступа и границ уровня обслуживания, чтобы они не выходили за рамки своей компетенции.
  • Определите ответственных: у каждого агента должен быть внутренний куратор, который отвечает за его назначение, поведение и разрешения.

 

При наличии таких средств контроля безопасность становится инструментом для ИИ, а не препятствием.

 

Призыв к директорам по информационной безопасности: начните с идентификации

Мы вступаем в эпоху, когда «логины» больше не принадлежат исключительно людям. Агенты пишут код, анализируют риски, запрашивают данные и общаются с клиентами. Если мы будем относиться к ним как к чему-то второстепенному в нашей стратегии идентификации, мы будем создавать системы, основанные на слепом доверии, а именно этого и призвана избежать модель «Никому не доверяй».

Читать  Браузеры с искусственным интеллектом против платного доступа

Директора по информационной безопасности должны взять на себя ведущую роль. Для начала необходимо расширить концепцию нулевого доверия, включив в нее автономных агентов. Затем нужно инвестировать в архитектуру безопасности ИИ, ориентированную на идентификацию, инструменты мониторинга и управление доступом, которые могут работать с субъектами, не являющимися людьми. Если вы расширяете свою инфраструктуру ИИ, Token Security поможет обеспечить безопасность на этом этапе.

Безопасность — это не остановка ИИ. Это его безопасное, предсказуемое и подотчётное использование.

Редактор: admin

Рейтинг: 5 (1 голос)
Если статья понравилась, то поделитесь ей в социальных сетях:

Оставить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

2 + 14 =

Это может быть вам интересно


Загрузка...

Сообщить об опечатке

Текст, который будет отправлен нашим редакторам:

Прокрутить страницу до начала