Логотип

Агентный ИИ — это проблема идентификации, и директора по информационной безопасности будут нести ответственность за результат

Агентный ИИ — это проблема идентификации, и директора по информационной безопасности будут нести ответственность за результат

Если вы сегодня занимаете должность директора по информационной безопасности, то агентский ИИ, скорее всего, покажется вам чем-то знакомым, но в то же время неприятным. Технология новая, но принцип работы — нет. Руководители компаний активно внедряют ИИ-агентов в организациях, а от служб безопасности ожидается, что они обеспечат безопасность без ущерба для скорости работы.

Такое напряжение уже возникало в связи с облачными технологиями, SaaS и DevOps. Каждый раз в центре внимания оказывались как риски, так и решения.

Агентный ИИ ничем не отличается. Это не проблема управления ИИ. Это проблема идентификации, и в конечном итоге ответственность за результат будет лежать на директорах по информационной безопасности.

В течение многих лет программы обеспечения безопасности разрабатывались с учетом особенностей человеческой личности. Сотрудники и подрядчики были централизованными объектами, их роли были определены, доступ проверялся, а увольнение было предсказуемым. Машинная идентификация нарушила эту модель, быстро распространившись по облакам, конвейерам и платформам SaaS. Управление запаздывало, но основные принципы оставались неизменными. Агенты с искусственным интеллектом полностью разрушают эти принципы.

Агенты с искусственным интеллектом представляют собой новый тип личности. Они действуют целенаправленно, как люди, но при этом обладают масштабом и настойчивостью машин. Они по умолчанию децентрализованы, их легко создать, и они способны работать в нескольких системах без непосредственного участия человека.

С точки зрения идентификации это самая сложная из возможных комбинаций. Эти агенты проходят аутентификацию, авторизацию и выполняют действия, но они не вписываются в существующие модели идентификации.

 

Обеспечение безопасности агентского ИИ: бесплатное руководство от Token Security

Агенты ИИ не просто следуют инструкциям, они действуют.

Узнайте, как Token Security помогает предприятиям переосмыслить контроль доступа в эпоху агентского ИИ, когда действия, намерения и ответственность должны быть согласованы.

Читать  Mistral запускает второе семейство моделей искусственного интеллекта для разработчиков: Devstral 2

Это важно, поскольку идентификация остаётся наиболее распространённой причиной утечек данных. Злоупотребление учётными данными. Накопление привилегий. Право собственности становится неясным. Автономный ИИ усиливает все эти риски одновременно.

Многим агентам предоставляется широкий доступ просто для того, чтобы они могли быстро работать. Лишь немногие проходят проверку. Ещё меньше агентов когда-либо выводятся из эксплуатации.

Некоторые из них продолжают работать ещё долгое время после того, как проекты или люди, которые их создали, прекратили своё существование. Для злоумышленников эти постоянно активные учётные записи с избыточными привилегиями являются идеальной мишенью. Просто взгляните на последнюю публикацию OWASP, в которой говорится об этом риске.

Традиционные инструменты IAM и PAM не рассчитаны на такие условия. Они предполагают, что пользователи — это люди или, в лучшем случае, предсказуемые рабочие нагрузки. Агенты ИИ не находятся в одном каталоге, не выполняют статические роли и не ограничиваются одной платформой.

Попытки защитить их с помощью устаревших, ориентированных на человека средств контроля приводят к появлению «слепых зон» и ложной уверенности. Полагаться на поставщиков ИИ-платформ в решении этой проблемы не менее рискованно. Точно так же, как поставщики облачных услуг не решили проблему облачной безопасности, платформы агентов не решат проблему рисков, связанных с корпоративной идентификацией.

Чтобы двигаться дальше, нужно не ограничивать инновации, а применять дисциплину, которую уже понимают директора по информационной безопасности: управление жизненным циклом. Безопасность идентификации сотрудников стала масштабируемой только после того, как организации стали рассматривать идентификацию как жизненный цикл — от регистрации до увольнения. Агенты с искусственным интеллектом требуют такого же подхода, адаптированного для обеспечения скорости и масштабируемости.

У каждого агента должна быть чёткая привязка к поставщику идентификационных данных. Его назначение должно быть ясным и измеримым. Его доступ должен соответствовать тому, что он на самом деле делает, а не тому, что было удобно при его создании. Необходимо постоянно отслеживать активность, чтобы можно было вовремя обнаружить изменение привилегий. А когда агенты простаивают, проекты завершаются или владельцы уходят, доступ должен автоматически отменяться. Без этих мер контроля внедрение ИИ в конечном счёте приведёт к краху из-за собственных рисков.

Читать  В 2026 году хакерам понадобится ИИ: Threat Intel о взломе Vibe и HackGPT

Один из важнейших выводов, который должны усвоить директора по информационной безопасности, заключается в том, что безопасность идентификации агентов — это, по сути, проблема корреляции данных. Нельзя оценить риски, связанные с агентом, просто взглянув на него.

Реальный риск определяется тем, чего может достичь агент. Это включает в себя облачные роли, которые он принимает, доступ к приложениям SaaS, которые он использует, данные, которые он может читать или изменять, а также последующие идентификационные данные, которые он использует.

Для обеспечения безопасности агентского ИИ необходимо сопоставлять идентификационные данные на платформах агентов, у поставщиков идентификационных данных, в инфраструктуре, приложениях и на уровнях данных.

Именно эта взаимосвязь позволяет директорам по информационной безопасности отвечать на важные вопросы во время аудита, проверок со стороны совета директоров и реагирования на инциденты. У кого был доступ? Зачем он им понадобился? Был ли он уместен? И должен ли он сохраняться до сих пор? Без этого контекста агенты ИИ остаются непрозрачными и неуправляемыми. Вот контрольный список для директоров по информационной безопасности, который поможет подготовиться к подобным вопросам.

Многие организации в настоящее время находятся на этапе реагирования, когда разрастание агентской сети обнаруживается уже после того, как оно затронуло производственную среду. Этот этап скоро закончится. Следующий этап — предотвращение.

Дисциплина идентификации должна применяться на более ранних этапах жизненного цикла, то есть при создании агентов. Разработчикам нужны ограничения, которые обеспечивают ясность в отношении намерений и сферы применения, а не широкие привилегии по умолчанию, которые просто позволяют системе работать. Если такой дисциплины нет, директора по информационной безопасности принимают на себя риски и в конечном итоге сталкиваются с последствиями.

Читать  Расходы на инфраструктуру искусственного интеллекта к 2029 году достигнут беспрецедентного роста

Агентный ИИ становится неотъемлемой частью работы предприятий. Вопрос не в том, будет ли он масштабироваться, а в том, будет ли он масштабироваться безопасно. Ответ на этот вопрос дадут директора по информационной безопасности. Если идентификация агентов останется неуправляемой, ИИ будет приводить к нарушениям, несоблюдению требований и негативной реакции руководства, что замедлит внедрение инноваций.

Если идентификация агентов осуществляется с помощью управления жизненным циклом и мониторинга, ИИ становится устойчивым, гибким и безопасным.

Успеха добьются не те организации, которые говорят «да» или «нет» агентскому ИИ. Успеха добьются те, кто уверенно говорит «да», потому что они с самого начала понимали, что обеспечение безопасности агентского ИИ — это прерогатива личности.

Если вы готовы уверенно подойти к вопросу безопасности агентского ИИ, Token может вам помочь.

Редактор: AndreyEx

Рейтинг: 5 (1 голос)
Если статья понравилась, то поделитесь ей в социальных сетях:

Оставить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

11 − 8 =

Это может быть вам интересно


Загрузка...

Спасибо!

Теперь редакторы в курсе.

Прокрутить страницу до начала