По мере того, как предприятия переходят от предиктивного и генеративного к агентному искусственному интеллекту, ставки меняются. Агентный ИИ — программные системы, способные рассуждать, действовать и обучаться автономно — может оказаться в центре критически важных бизнес-операций. Для некоторых эта эволюция выявит новые уязвимости. Для других она создаст совершенно новый источник стратегического преимущества, пишут в корпоративном блоге Нэнси Горинг, старший директор IDC по исследованиям в области ИИ, и Нил Уорд-Даттон, вице-президент IDC по ИИ, автоматизации, данным и аналитике в Европе.

Два прогноза, сформулированные в отчете IDC «FutureScape: Worldwide Agentic Artificial Intelligence 2026 Predictions», четко отражают это расхождение.

В одном из них предупреждается, что к 2030 г. до 20% организаций из списка G1000 столкнутся с судебными исками, штрафами и увольнениями CIO из-за громких сбоев, связанных с неэффективным управлением агентами ИИ. Напротив, другой прогноз предполагает, что к 2031 г. 60% руководителей компаний G2000 будут использовать агентный ИИ для принятия стратегических решений, используя автономные системы для моделирования результатов и планирования работы на уровне совета директоров.

Эти прогнозы описывают противоположные потенциальные результаты одной и той же кривой внедрения: один обусловлен неконтролируемой автоматизацией, другой — дисциплинированным управлением и прозрачным дизайном.

Разрыв в управлении: где происходят сбои

Ранняя волна внедрений генеративного ИИ (GenAI) выявила закономерность, когда скорость иногда опережала защитные меры. Под давлением совета директоров и конкурентов CIO развертывали приложения GenAI до внедрения комплексных процессов, способных снизить вероятность неточных или неудовлетворительных результатов.

Ставки потенциально выше, когда речь идет о реализации агентного ИИ, особенно если он встраивается в критически важные рабочие процессы — от оптимизации логистики до финансовых согласований — до внедрения систем управления. Потенциально возможны:

  • Неконтролируемые каскадные решения. Когда агентам разрешается выполнять действия, следует учитывать, как эти действия могут распространяться через взаимосвязанные системы. Отсутствие контроля и прозрачности может привести к непредвиденным последствиям.
  • Непрозрачное поведение. Когда у команд нет инструментов для объяснения причин, по которым агент выполнил то или иное действие, руководители могут быть не в состоянии защитить результаты перед регулирующими органами или клиентами.
  • Фрагментированные протоколы эскалации. Когда человеческий надзор номинален, а управление разделено между отделами данных, ИТ и юридическими службами без единого пути эскалации, проблемы могут остаться незамеченными.

Последствия этих сценариев немедленные и потенциально драматичные, включая сбои в работе сервисов, нарушения конфиденциальности, иски акционеров и потерю доверия руководства.

Дело не в технологическом провале, а в организационной неподготовленности.

От контроля к уверенности

Напротив, организации, которые рассматривают управление как инфраструктуру, а не как страховку, обнаруживают, что контроль и уверенность растут вместе.

Один из прогнозов предсказывает ближайшее будущее, в котором генеральные директора будут использовать агентный ИИ не для операционной эффективности, а для стратегического понимания. Эти системы смогут моделировать слияния, имитировать сбои в цепочках поставок и прогнозировать последствия применения политики быстрее, чем команды людей успеют агрегировать данные. Для этого предприятиям необходимо будет заложить в основу своих программ ИИ три принципа проектирования:

  1. Прослеживаемость, заложенная в дизайн. Каждое автономное решение должно сопровождаться записью происхождения данных и оценкой достоверности, что позволит осуществлять надзор без снижения производительности.
  2. Интегрированное управление. Функции этики, управления рисками и соответствия нормативным требованиям ИИ должны быть унифицированы и интегрированы и применяться на протяжении всего жизненного цикла разработки и эксплуатации.
  3. Циклы подотчетности. Пороги принятия решений или жестко заданные события инициируют вмешательство человека до того, как результаты выйдут за установленные границы.

При соблюдении этих принципов проектирования управление не замедляет инновации или внедрение. Напротив, оно укрепляет доверие. Когда руководители доверяют системе, они могут развивать ИИ, в том числе в стратегических приложениях, таких как моделирование сценариев на уровне совета директоров, планирование капиталовложений и долгосрочная стратегия.

Преодоление разрыва

Исследование IDC показывает, что организации, преуспевающие в использовании агентного ИИ, разделяют общее мышление: они рассматривают управление и рост как неразделимые понятия. Посыл «FutureScape 2026» ясен: проблема не в том, что агенты ИИ действуют автономно, а в том, что слишком мало предприятий готовы к этому.

Следующая эра конкурентного преимущества будет принадлежать организациям, которые смогут управлять автономностью, а не ограничивать ее.