В последние несколько лет корпоративный мир вовлечен в ИИ-гонку. Каждая компания пытается двигаться быстрее, инвестировать больше и не отставать от темпов, заданных бигтехом, пишет на портале BigDataWire Феликс Ван де Маэле, основатель и генеральный директор Collibra.
Но скорость — не единственная проблема. Мы достигли точки, когда капиталовложения опережают уверенность организаций.
Новое исследование Collibra, проведенное в партнерстве с The Harris Poll, выявляет явное противоречие в основе корпоративного искусственного интеллекта: 84% лиц, принимающих решения в сфере технологий, говорят, что им необходимо увеличить расходы на ИИ в этом году, чтобы оставаться конкурентоспособными по отношению к крупным технологическим компаниям, однако 88% признают, что их организации по-прежнему не используют ИИ в полной мере.
Больше инвестиций, меньше уверенности.
Это разрыв в доверии к ИИ, фундаментальное несоответствие между желанием внедрить ИИ и способностью гарантировать его результаты. И это не только проблема совета директоров. Данные YouGov показывают, что, хотя более трети американцев сейчас используют ИИ еженедельно, только 5% говорят, что очень ему доверяют. Мы живем в мире, где ИИ используется, но ему пока не доверяют, и одних только затрат недостаточно, чтобы это исправить.
Для повышения производительности необходим контроль
Системы ИИ уже способны быстро и масштабно генерировать инсайты, рекомендации и решения. Проблема не в возможностях, а в контроле.
Наше исследование это ясно показывает. 89% руководителей говорят, что не могут полностью доверять ИИ-инсайтам, пока базовые данные не проверены и подтверждены.
Если данные, лежащие в основе ИИ, неполны, не проверены или оторваны от бизнес-контекста, результат становится ненадежным. А когда результатам нельзя доверять, их необходимо проверять. Этот контроль не происходит автоматически, он обеспечивается управлением.
Управление определяет данные, контекст и границы, в рамках которых работают системы ИИ, обеспечивая точность, безопасность и соответствие результатов. Без него ИИ не масштабирует решения, он масштабирует неопределенность.
Человек в цикле: задачи перемещаются, ответственность остается
Это отсутствие доверия имеет прямую цену.
Согласно нашему исследованию, более половины лиц, принимающих решения (55%), говорят, что им, по крайней мере иногда, приходится исправлять или оспаривать результаты, сгенерированные ИИ. Это не просто небольшое неудобство, это время руководителей, тратящееся на контроль качества вместо стратегии.
Это также подчеркивает различие, которое часто упускается из виду в дебатах об ИИ и рабочих местах: разница между выполнением задачи и ответственной работой. ИИ может выполнять повторяющиеся, ресурсоемкие задачи, но он не может брать на себя ответственность. Общественность уже это понимает. 68% респондентов говорят, что никогда бы не доверили системе ИИ действовать от их имени, не проверив предварительно каждое действие.
Когда руководитель использует ИИ для создания сложного отчета, технология обрабатывает задачу, которая раньше выполнялась вручную. Но если этот руководитель по-прежнему проверяет каждую строку на ошибки и искажения, бремя ответственности не перемещается. Машина выполнила работу. Ответственность осталась за человеком. Преодоление разрыва в доверии к ИИ означает выход из замкнутого круга, чтобы руководители могли перестать контролировать результаты и вернуться к принятию действительно важных решений.
Новый тревожный сигнал 2026 года
Разрыв в доверии к ИИ также меняет представление о компетентности. Наше исследование показало, что 64% лиц, принимающих решения, уже считают тревожным сигналом отсутствие у кандидатов знакомства с инструментами ИИ. Но такое знакомство быстро становится обязательным условием.
В дальнейшем настоящую тревогу будут вызывать руководители, которые не могут отличить результаты, которые выглядят правильно, от результатов, которые являются правильными. Знать, как запустить модель, — это одно. Понимать, являются ли данные, лежащие в ее основе, надежными, контролируемыми и проверенными, — это другое. Именно в этом направлении развивается грамотность в области ИИ, и организации, которые не внедрят эту способность в свою культуру, будут испытывать трудности с оценкой рисков или реализацией ценности систем, в которые они инвестируют.
Преодоление разрыва
Путь к окупаемости инвестиций в ИИ начинается не с увеличения бюджета. Он начинается с контроля. Результаты нашего исследования очевидны: инвестиции без доверия порождают дорогостоящую неопределенность. А доверие не возникает само по себе. Оно должно быть заложено в саму концепцию работы систем ИИ. Организации, которые вырвутся вперед в 2026 г., — это те, которые сочетают свои амбиции в области ИИ с надежными данными, эффективным управлением и способностью оценивать результаты работы ИИ.
Именно благодаря этому разрыв в доверии сократится. Именно поэтому системы ИИ перестанут тормозить развитие и начнут демонстрировать реальную эффективность. И именно тогда ИИ начнет становиться настоящим конкурентным преимуществом.






























