Логотип

Управление идентификацией ИИ-агентов: новая система контроля безопасности для директоров по информационной безопасности

Управление идентификацией ИИ-агентов: новая система контроля безопасности для директоров по информационной безопасности

Руководители служб безопасности годами укрепляли систему контроля доступа для сотрудников и служебных учетных записей. Теперь эта модель демонстрирует свои ограничения.

В корпоративных средах стремительно распространяется новый тип идентификационных данных — автономные ИИ-агенты. Пользовательские версии GPT, сопроцессоры, агенты-кодеры, запускающие серверы MCP, и специализированные ИИ-агенты больше не используются только в экспериментальных целях. Они работают и расширяются в производственных средах, взаимодействуя с конфиденциальными системами и инфраструктурой, вызывая других агентов, а также принимая решения и внося изменения без непосредственного контроля со стороны человека.

Однако в большинстве организаций эти агенты практически не контролируются централизованно. Традиционные платформы управления идентификацией и доступом, управления привилегированным доступом и управления идентификацией и доступом не предназначены для автономных, децентрализованных и адаптивных агентов. В результате возникает растущий разрыв в управлении идентификацией, который создает реальные риски для безопасности и соблюдения нормативных требований, а также проблемы с эффективностью и результативностью.

 

Почему агенты с искусственным интеллектом разрушают существующие модели идентификации

Исторически сложилось так, что предприятия управляли двумя типами идентификационных данных: для людей и для машин. Идентификационные данные, предназначенные для предоставления доступа людям, централизованно управляются, распределяются по ролям и относительно предсказуемы. Идентификационные данные для машин и рабочих нагрузок масштабируются, но, как правило, являются детерминированными, повторяющимися и выполняют узкоспециализированные задачи.

Агенты с искусственным интеллектом не относятся ни к одной из этих категорий, но при этом подходят под обе.

Они ориентированы на достижение целей и выполнение ролей, способны адаптировать свое поведение в зависимости от намерений и контекста, а также объединять действия в цепочки в рамках нескольких систем. В то же время они работают непрерывно, с машинной скоростью и в машинном масштабе. Такая гибридная природа в корне меняет профиль рисков. Агенты с искусственным интеллектом перенимают действия, основанные на намерениях пользователей, сохраняя при этом охват и постоянство машинных идентификаторов.

Читать  Британские пенсионные фонды избавляются от своих акций в компаниях Силиконовой долины: они боятся пузыря искусственного интеллекта

Если относиться к ним как к обычным нечеловеческим сущностям, это приведет к возникновению «слепых зон». Чрезмерное предоставление привилегий становится нормой. Вопрос собственности становится неясным. Поведение отклоняется от изначальных намерений. Это не теоретические опасения. Это те же условия, которые в прошлом приводили к многочисленным нарушениям, связанным с идентификацией, а теперь усугубились из-за автономности и масштабов.

 

Скорость внедрения без обеспечения безопасности — главный фактор риска

Проблема заключается не только в том, что представляют собой ИИ-агенты, но и в том, как быстро они распространяются.

Компании, которые считают, что у них всего несколько ИИ-агентов, при ближайшем рассмотрении обнаруживают сотни или тысячи. Сотрудники создают собственные GPT. Разработчики запускают локальные серверы MCP. Бизнес-подразделения интегрируют инструменты искусственного интеллекта непосредственно в рабочие процессы. Очистка от лишнего происходит редко.

Службы безопасности не могут ответить на элементарные вопросы:

  • Сколько существует агентов искусственного интеллекта?
  • Кому они принадлежат?
  • К каким системам, сервисам и данным у них есть доступ?
  • Какие из них все еще активны?

 

Из-за отсутствия прозрачности идентификационные данные распространяются со скоростью света. И, как неоднократно доказывали злоумышленники, использовать неуправляемые учетные данные зачастую проще, чем эксплуатировать уязвимости в программном обеспечении.

 

Аргументы в пользу управления жизненным циклом идентификации агентов ИИ

Риски, связанные с идентификацией, накапливаются со временем. Именно поэтому организации используют процессы приема на работу, перевода и увольнения сотрудников, а также контроль жизненного цикла служебных учетных записей. Агенты с искусственным интеллектом работают по тем же принципам, но в сжатые сроки — за минуты, часы или дни.

ИИ-агенты создаются быстро, часто модифицируются и нередко бесследно исчезают. Доступ сохраняется. Право собственности исчезает. Ежеквартальные проверки доступа и периодическая сертификация не поспевают за развитием технологий.

Читать  ИИ меняет подход к контролю за соблюдением требований, и директора по информационной безопасности должны это учитывать

Управление жизненным циклом идентификационных данных ИИ-агентов устраняет этот пробел, рассматривая ИИ-агентов как полноценные идентификационные данные, управление которыми осуществляется непрерывно и практически в режиме реального времени с момента создания и до завершения использования.

Цель состоит не в том, чтобы замедлить внедрение, а в том, чтобы применить привычные принципы идентификации, такие как прозрачность, подотчётность, принцип наименьших привилегий и возможность аудита, к автономным системам.

 

Видимость превыше всего: разоблачение теневого искусственного интеллекта

Любая система контроля идентификационных данных начинается с обнаружения. Однако большинство агентов искусственного интеллекта никогда не проходят формальные процедуры инициализации или регистрации. Они работают на облачных платформах, в SaaS-инструментах, средах разработки и на локальных компьютерах, что делает их невидимыми для традиционных систем управления идентификацией и доступом.

С точки зрения концепции «Никому не доверяй» это фундаментальный провал. Идентичность, которую невозможно отследить, невозможно контролировать, проверять или аудировать. Агенты теневого ИИ становятся неконтролируемыми точками входа в конфиденциальные системы, часто с широкими правами доступа.

Эффективный поиск должен быть непрерывным и основываться на анализе поведения. Ежеквартальных проверок и статических инвентаризаций недостаточно, когда новые агенты могут появиться и исчезнуть за считаные минуты.

 

Вопросы владения и ответственности

Один из самых старых рисков, связанных с идентификацией личности, — это «бесхозная» учетная запись. Агенты с искусственным интеллектом значительно повышают вероятность возникновения таких случаев и их серьезность.

ИИ-агенты часто создаются для решения узких задач или реализации краткосрочных проектов. Когда сотрудники меняют должность, увольняются или просто устают от определенного ИИ-продукта, который не развивается, созданные ими агенты продолжают работать. Их учетные данные остаются действительными. Их права доступа остаются неизменными. Никто не несет за это ответственности.

Автономный агент без владельца может восприниматься как скомпрометированная личность. Управление жизненным циклом должно обеспечивать соблюдение основных требований к владению и обслуживанию, выявляя агентов, связанных с ушедшими пользователями или неактивными проектами, до того, как они станут обузой.

Читать  Amazon связывает ее с дубляжами, сделанными с помощью искусственного интеллекта

 

Принцип наименьших привилегий должен стать динамичным

Агенты с искусственным интеллектом почти всегда имеют слишком широкие привилегии — не из-за халатности, а из-за неуверенности и стремления к экспериментам. Поскольку их поведение может меняться, команды часто предоставляют им широкий доступ, чтобы не нарушать рабочие процессы.

Такой подход сопряжен с риском. Агент с избыточными привилегиями может перемещаться по системам быстрее, чем любой человек. В системах с высокой степенью взаимосвязанности один агент может стать отправной точкой для масштабной компрометации или горизонтального перемещения.

Принцип наименьших привилегий для агентов с искусственным интеллектом не может быть статичным. Он должен постоянно корректироваться в зависимости от наблюдаемого поведения. Неиспользуемые разрешения следует отзывать. Расширенный доступ должен быть временным и целевым. Без этого принцип наименьших привилегий так и останется декларацией, а не реальным контролем.

 

Возможность отслеживания — основа доверия

По мере перехода предприятий на многоагентные системы традиционные модели логирования перестают работать. Действия охватывают агентов, API и платформы. Без контекста коррелированной идентификации расследования, криминалистическая экспертиза и даже сбор доказательств соблюдения нормативных требований становятся медленными и неполными.

Возможность отслеживания — это не просто требование для проведения судебно-медицинской экспертизы. Регуляторы все чаще требуют от организаций разъяснений о том, как автоматизированные системы принимают решения, особенно если эти решения влияют на клиентов или регулируемые данные. Без аудита, ориентированного на идентификацию, эти требования выполнить невозможно.

 

Идентификация становится основой безопасности искусственного интеллекта

Агенты с искусственным интеллектом — это уже не новая технология. Они становятся частью операционной модели предприятия. По мере роста их автономности неуправляемая идентификация становится одним из крупнейших источников системного риска.

Управление жизненным циклом идентификационных данных ИИ-агентов — это прагматичный подход к решению проблемы. Рассматривая ИИ-агентов как отдельный класс идентификационных данных и осуществляя непрерывный контроль за ними, организации могут вернуть себе контроль, не препятствуя инновациям.

На предприятии, управляемом агентами, идентификация — это уже не просто механизм доступа. Она становится основой системы безопасности искусственного интеллекта.

Редактор: AndreyEx

Рейтинг: 5 (1 голос)
Если статья понравилась, то поделитесь ей в социальных сетях:

Оставить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

13 − тринадцать =

Это может быть вам интересно


Загрузка...

Спасибо!

Теперь редакторы в курсе.

Прокрутить страницу до начала