Тема агентов искусственного интеллекта сегодня доминирует в разговорах о корпоративных технологиях — она интересует как компании, только планирующие их внедрение, так и компании, уже внедряющих их в рабочие процессы. Хотя обещания агентного ИИ — более быстрые решения, более интеллектуальная автоматизация, меньшее количество ручного труда — весьма заманчивы, новый отчет SailPoint «AI Agents: The New Attack Surface» поднимает некоторые тревожные вопросы, сообщает портал AIwire.

Глобальный опрос ИТ-специалистов и руководителей, проведенный независимой компанией Dimensional Research по заказу SailPoint, показывает, что 80% организаций сталкивались с непреднамеренными действиями своих ИИ-агентов. К таким инцидентам относятся несанкционированный доступ к системе и неправильный обмен данными. В некоторых случаях агентами ИИ даже манипулировали, чтобы заставить их раскрыть учетные данные доступа.

Несмотря на риски, внедрение агентного ИИ стремительно растет. Согласно отчету, 82% респондентов уже используют агентов ИИ, а 98% планируют расширить их применение в течение следующего года. В связи с этим возникает важный вопрос: знают ли эти организации о рисках, связанных с агентным ИИ, и если да, то какие действия они предпринимают для снижения этих рисков?

Похоже, что отчет раскрывает парадокс: 96% ИТ-специалистов считают агентов ИИ растущим риском для безопасности, а 66% уверены, что угроза носит непосредственный характер. При этом только 44% организаций внедрили какие-либо политики управления этими агентами. Это означает, что агенты ИИ могут быть одной из самых рискованных переменных в стратегии безопасности предприятия.

Недостаточная реализация мер защиты может быть обусловлена несколькими факторами, в том числе быстрым развитием агентов ИИ, которое просто опережает планирование безопасности, и межфункциональными «слепыми зонами». Как отмечают в SailPoint, знания о поведении агентов ИИ часто сосредоточены в ИТ-отделе, в то время как команды по соблюдению нормативных требований, правовым вопросам и рискам могут быть не полностью информированы. Такое размежевание приводит к неполному управлению и отсутствию четкой ответственности за риск.

Одна из основных характеристик, которая делает агентов ИИ такими особенными, — это их автономность, и именно в этом заключается их потенциальная опасность. В отличие от традиционного ПО, агенты ИИ способны принимать решения и совершать действия без вмешательства человека. И если эта автономия не регулируется должным образом, даже самые благонамеренные агенты могут сбиться с курса.

«Агентный ИИ — это одновременно и мощная сила для инноваций, и потенциальный риск, — говорит Чандра Гнанасамбандам, EVP по продуктам и технический директор SailPoint. — Эти автономные агенты меняют способы выполнения работы, но при этом создают новую поверхность для атак. Они часто работают с широким доступом к важным системам и данным, но при этом имеют ограниченный контроль. Такое сочетание высоких привилегий и низкой видимости благоприятствует злоумышленникам».

По его словам, в условиях, когда организации расширяют использование агентов ИИ, они должны применять подход, основанный на идентификации, чтобы эти агенты управлялись так же строго, как и пользователи-люди, с выдачей разрешений в реальном времени, наименьшими привилегиями и полной видимостью их действий.

В отчете SailPoint также приводится несколько инсайтов относительно того, как агенты ИИ выходят из-под контроля, включая доступ к неавторизованным системам (39%), загрузку конфиденциальных данных (32%) и обмен ограниченной или неуместной информацией (33%). Подавляющее большинство (72%) респондентов отметили, что агенты ИИ представляют больший риск, чем традиционные машинные идентификаторы.

По данным опроса, одна из самых больших проблем, связанных с агентным ИИ, заключается в том, что ему требуется более широкий доступ к приложениям и данным по сравнению с обычным человеческим пользователем. Респонденты также выразили обеспокоенность тем, что агентами ИИ становится сложно управлять, в том числе из-за «ограниченной видимости и возможности совершения ими непредсказуемых действий».

В отличие от пользователей-людей, которые обычно проходят структурированный процесс утверждения с участием менеджеров или кураторов, агенты ИИ часто получают доступ непосредственно через ИТ-отдел, без особого межфункционального контроля. Доступ им, как правило, предоставляется быстрее и с меньшим количеством проверок, что приводит к неопределенности в отношении того, к каким данным эти агенты действительно имеют доступ.

Не способствует контролю и то, что гонка за внедрением и использованием возможностей агентов ИИ усиливает давление на организации, требуя от них быстрых действий. Они могут внедрять агентные функции без должных мер предосторожности.

SailPoint рекомендует управлять агентами ИИ так же, как и человеческими пользователями, признавая их уникальными типами личности на предприятии. Это означает, что агенты ИИ должны иметь надежные журналы аудита и четкий контроль доступа.

Кроме того, должна быть улучшена видимость для всех заинтересованных сторон, чтобы они могли понимать, как работают агенты ИИ и к каким данным они имеют доступ. И наконец, SailPoint рекомендует использовать решения для обеспечения безопасности, которые предлагают специфические средства контроля агентов ИИ.

В отчете SailPoint не содержится аргументов против агентов ИИ, но в нем содержится резкое предостережение для CISO, CIO и других ИТ-руководителей: без надлежащего контроля эти агенты могут открывать новые векторы угроз, с которым современные средства безопасности просто не в состоянии справиться.