Логотип

ИИ меняет подход к контролю за соблюдением требований, и директора по информационной безопасности должны это учитывать

ИИ меняет подход к контролю за соблюдением требований, и директора по информационной безопасности должны это учитывать

На протяжении десятилетий системы обеспечения соответствия требованиям строились на предположении, которое сейчас кажется устаревшим: люди являются основными участниками бизнес-процессов. Люди инициируют транзакции, люди дают разрешение на доступ, люди интерпретируют исключения, и к людям можно обратиться за разъяснениями, если что-то пошло не так.

Эта предпосылка лежит в основе нормативных требований, таких как SOX, GDPR, PCI DSS и HIPAA, которые были разработаны с учётом человеческого фактора, намерений людей и контроля с их стороны.

Однако сейчас ИИ-агенты меняют операционную модель современных предприятий быстрее, чем программы по соблюдению нормативных требований успевают адаптироваться.

ИИ вышел за рамки «второго пилота» и инструментов для повышения производительности. Все чаще агенты встраиваются непосредственно в рабочие процессы, которые влияют на финансовую отчетность, обработку данных о клиентах, обработку информации о пациентах, платежные операции и даже на решения о подтверждении личности и предоставлении доступа.

Эти агенты не просто помогают, они действуют. Они обогащают записи, классифицируют конфиденциальные данные, устраняют исключения, запускают действия в ERP-системах, получают доступ к базам данных и инициируют рабочие процессы во внутренних системах с машинной скоростью.

Этот сдвиг порождает новую реальность в сфере соблюдения нормативных требований. Как только агенты ИИ начинают выполнять регламентированные действия, соблюдение нормативных требований становится неотделимым от обеспечения безопасности. И по мере того, как эта грань стирается, директора по информационной безопасности попадают в новую и неудобную для них категорию рисков, где они могут нести ответственность не только за нарушения, но и за несоблюдение нормативных требований, вызванное поведением ИИ.

 

Системы обеспечения соответствия требованиям были созданы для предсказуемых субъектов

SOX, GDPR, PCI DSS и HIPAA предполагают, что «субъектов» можно понять и ими можно управлять. У пользователя-человека есть должность, руководитель и чёткая цепочка ответственности. Системный процесс детерминирован и воспроизводим. Средства контроля можно периодически тестировать, ежеквартально проверять и считать стабильными до следующего аудита.

Агенты ИИ так не работают.

Они рассуждают вероятностно. Они адаптируются к контексту. Они меняют поведение в зависимости от подсказок, обновлений модели, источников поиска, плагинов и меняющихся входных данных. Управление, которое работает сегодня, может не сработать завтра, и не потому, что кто-то намеренно его изменил, а потому, что изменился путь принятия решений агентом.

Читать  Что такое MCP и почему он определит будущее программного обеспечения

Это фундаментальная проблема, связанная с соблюдением нормативных требований. Регулирующим органам неважно, что система «обычно» работает правильно. Им важно, можете ли вы постоянно подтверждать, что организация работает в рамках установленных границ контроля.

ИИ значительно усложняет эту задачу, и бремя ответственности всё больше ложится на директора по информационной безопасности.

 

Реальный риск: ИИ разрушает систему разделения, устанавливает границы доступа и снижает ответственность

Нарушения нормативных требований редко происходят из-за сбоя в системе контроля. Они происходят из-за того, что системы допускают цепочку действий, которые не должны были быть возможны. Агенты ИИ создают именно такой сценарий.

Чтобы сделать агентов полезными, многие организации предоставляют им широкие полномочия, общие учётные данные, неясные права собственности и токены доступа с длительным сроком действия. Это те самые ярлыки, от которых службы безопасности годами пытались избавиться, а теперь они снова появляются под лозунгом инноваций. Это противоречит основным требованиям к соответствию:

 

SOX: финансовый контроль и достоверность отчётности

Агенты с искусственным интеллектом могут составлять записи в журнале, сверять счета, устранять исключения и запускать процессы утверждения. Если у агента есть доступ к финансовым и ИТ-системам, разделение обязанностей может незаметно нарушиться. Хуже того, решения, принимаемые с помощью ИИ, зачастую невозможно объяснить так, чтобы это могли проверить аудиторы. Журналы показывают, что произошло, но не объясняют почему. Это влияет на то, может ли организация должным образом обеспечивать целостность финансовой отчетности.

 

GDPR: раскрытие и обработка персональных данных

Согласно GDPR, несанкционированный доступ к персональным данным, случайная обработка не по назначению или ненадлежащее хранение могут повлечь за собой правоприменительные действия, даже без классического нарушения. Агент искусственного интеллекта, который использует PII в запросе, экспортирует данные клиента во внешние инструменты или регистрирует конфиденциальные данные в незащищенных системах, может мгновенно создать инцидент соответствия требованиям.

 

PCI DSS: обработка платёжных данных и ограниченные среды

Соответствие стандарту PCI обеспечивается за счет строгой сегментации и контролируемого доступа к средам хранения данных держателей карт. Агенты ИИ, которые запрашивают платежные базы данных, обрабатывают записи о транзакциях или интегрируются с системами поддержки клиентов, могут случайно перенести данные карты в системы, не соответствующие требованиям, на выходные устройства или в журналы. Это может привести к нарушению требований PCI, даже если злоумышленник отсутствует.

 

HIPAA: обработка персональных данных и аудит

Закон HIPAA требует не только соблюдения конфиденциальности медицинской информации, но и ведения подробных журналов аудита доступа и раскрытия данных. Агенты ИИ, которые обобщают записи о пациентах, извлекают данные для анализа или автоматизируют процессы регистрации, могут работать с медицинской информацией способами, которые сложно отследить. Если организация не может доказать, что у нее есть надлежащие средства контроля доступа и мониторинга, это становится риском несоблюдения требований даже при отсутствии злого умысла.

Читать  По оценкам нового отчета, 50 000 увольнений в 2025 году напрямую связаны с ИИ. И это только в США

В каждой из этих систем организация несёт ответственность за то, что происходит с конфиденциальными данными и рабочими процессами. Когда в этих системах действуют агенты ИИ, ответственность никуда не исчезает. Она просто переходит к тому, кто контролирует идентификацию, доступ, ведение журналов и управление безопасностью.

Вот почему директора по информационной безопасности должны обратить внимание на эту проблему соответствия требованиям. Вот почему многие организации начинают рассматривать ИИ агентов как нечеловеческие сущности, которые требуют такого же управления, контроля доступа и мониторинга, как и привилегированные пользователи.

 

Почему директора по информационной безопасности могут нести ответственность

Исторически сложилось так, что за соблюдение нормативных требований отвечали финансовый отдел, юридический отдел, отдел по защите персональных данных и отдел аудита. Служба безопасности поддерживала эти программы, но не всегда считалась ответственным за контроль.

ИИ меняет подход к соблюдению нормативных требований, поскольку риски, которые он создает, напрямую связаны с областями, которыми уже управляют службы безопасности.

Как только ИИ-агенты начинают работать в рамках регламентированных рабочих процессов, вопросы соответствия требованиям быстро сменяются вопросами идентификации и доступа: от чьего имени (или чего) действует агент? Какими правами он обладает? Как хранятся и обновляются его учетные данные? Можно ли отслеживать его поведение в режиме реального времени и определять, когда оно начинает отклоняться от первоначального замысла агента?

Вот почему риски, связанные с соблюдением нормативных требований в сфере ИИ, больше не относятся исключительно к финансовым, юридическим или аудиторским вопросам. Они находятся в той же плоскости контроля, что и привилегированный доступ, управление изменениями и целостность системы.

Оперативные обновления, замена моделей, плагинов или исходных данных могут незаметно повлиять на работу агента, не вызвав при этом традиционных тревожных сигналов о несоблюдении требований. А когда что-то идёт не так, доказательства, необходимые для объяснения и защиты этих действий, зависят от ведения журналов аудита, предотвращения потери данных и возможности доказать, что конфиденциальная информация не попала в несанкционированные инструменты, репозитории или сторонние сервисы.

Читать  Google тестирует новый искусственный интеллект для обработки изображений, и это будет самая быстрая модель

Другими словами, в эпоху ИИ система не соответствует требованиям не потому, что кто-то забыл поставить галочку. Она не соответствует требованиям, потому что у агента было больше доступа, чем кто-либо предполагал. Потому что его поведение со временем незаметно изменилось. Потому что предполагалось, что средства контроля стабильны, а не проходят постоянную проверку. Потому что журналы аудита были неполными или не могли объяснить намерения. Потому что конфиденциальные данные оказались там, где их быть не должно.

И потому, что, когда руководство просят объяснить произошедшее, никто не может чётко сформулировать, почему агент принял именно такое решение.

Это классические нарушения в сфере управления безопасностью, замаскированные под соблюдение нормативных требований. По мере ужесточения требований регулирующих органов фраза «это сделал ИИ» быстро становится одним из наименее приемлемых объяснений, которые может предложить организация.

На практике директор по информационной безопасности становится руководителем, ответственным за то, чтобы агентам ИИ можно было доверять как цифровым субъектам в рамках регулируемых рабочих процессов. Это означает, что у них должно быть чёткое распределение обязанностей, доступ с минимальными привилегиями, отслеживаемое поведение и документированный контроль изменений. Без этих основ директорам по информационной безопасности придётся отвечать на неудобные вопросы аудиторов, советов директоров и регулирующих органов.

 

Вывод

Агенты с искусственным интеллектом становятся активными участниками систем, которые изначально не были рассчитаны на принятие решений нечеловеком. Это уже не просто проблема безопасности. Это вопрос соответствия требованиям.

Контроль SOX, защита GDPR, сегментация PCI и возможность аудита HIPAA — все это зависит от предсказуемого поведения и прослеживаемой подотчетности. ИИ приводит к отклонениям в поведении, непрозрачному принятию решений и соблазну предоставить широкие полномочия только для того, чтобы система работала.

В результате директора по информационной безопасности больше не занимаются только защитой инфраструктуры. Они всё чаще отвечают за то, чтобы регулируемые рабочие процессы оставались защищёнными при их выполнении цифровыми субъектами.

В эпоху ИИ-агентов вопрос будет не в том, что пошло не так. А в том, сможете ли вы доказать, что контролировали ситуацию, когда это произошло. И когда регулирующие органы начнут требовать подотчётности, директор по информационной безопасности будет одним из первых в списке.

Перед директорами по информационной безопасности, которые сталкиваются с этими изменениями, встает вопрос не о том, повлияет ли ИИ на соблюдение нормативных требований, а о том, как сохранить контроль, когда нечеловеческие субъекты выполняют регламентированные рабочие процессы.

Редактор: AndreyEx

Рейтинг: 5 (1 голос)
Если статья понравилась, то поделитесь ей в социальных сетях:

Оставить комментарий

Ваш адрес email не будет опубликован. Обязательные поля помечены *

три × 5 =

Это может быть вам интересно


Загрузка...

Спасибо!

Теперь редакторы в курсе.

Прокрутить страницу до начала