Согласно исследованию MIT Sloan Management Review и Boston Consulting Group, быстрые темпы развития генеративного искусственного интеллекта приводят к появлению «теневого ИИ», что затрудняет ответственное использование ИИ, сообщает портал ZDNet.

Каждый день появляются все новые платформы и инструменты ИИ, которые помогают разработчикам, специалистам по анализу данных и бизнес-аналитикам. Однако такой стремительный рост новой технологии также значительно опережает возможности систем ИИ в плане ответственности и подотчетности.

Таков вывод недавнего опроса 1240 руководителей компаний, опубликованного MIT SMR и BCG, в котором рассматривался ход реализации ответственных инициатив в области ИИ, а также внедрение как внутренних, так и внешних инструментов ИИ — того, что исследователи называют «теневым ИИ».

По мнению авторов исследования Элизабет Реньерис (Оксфордский институт этики ИИ), Дэвида Кирона (MIT SMR) и Стивена Миллса (BCG), обещания ИИ имеют свои последствия: например, генеративный ИИ создает непредсказуемые риски для организаций, не готовых к широкому спектру его применения.

Многие компании были застигнуты врасплох распространением теневого использования ИИ по всему предприятию, отмечают авторы отчета. Более того, быстрые темпы развития ИИ усложняют ответственное его использование и оказывают давление на ответственные программы ИИ с тем, чтобы они не отставали.

Исследователи предупреждают, что риски, возникающие в результате постоянно растущего теневого ИИ, также увеличиваются. Например, растущая зависимость компаний от увеличивающегося предложения сторонних инструментов ИИ, а также быстрое внедрение генеративного ИИ — алгоритмов (таких как ChatGPT, Dall-E 2 и Midjourney), которые используют обучающие данные для создания реалистичных или кажущихся фактическими текстов, изображений или аудио — подвергает их новым коммерческим, юридическим и репутационным рискам, которые трудно отследить.

Авторы отчета ссылаются на важность ответственного ИИ, который они определяют как «систему, включающую принципы, политики, инструменты и процессы для обеспечения того, чтобы системы ИИ разрабатывались и эксплуатировались на благо человека и общества, достигая при этом преобразующего воздействия на бизнес».

Еще одна сложность связана с тем, что ряд компаний «сокращают внутренние ресурсы, выделяемые на ответственный ИИ, в рамках более широкой тенденции увольнений в отрасли, — предупреждают исследователи. — Такое сокращение инвестиций в ответственный ИИ происходит, возможно, именно тогда, когда они наиболее необходимы».

Например, широкое применение сотрудниками чатбота ChatGPT застало многие организации врасплох и может иметь последствия для безопасности. Исследователи утверждают, что «справиться с внезапным, невообразимым количеством рисков, которые несут инструменты генеративного ИИ» мешает то, что механизмы ответственного использования ИИ не прописаны.

По данным исследования, 78% организаций сообщили о доступе, покупке, лицензировании или ином использовании сторонних инструментов ИИ, включая коммерческие API, предварительно обученные модели и данные. Более половины (53%) полагаются исключительно на сторонние инструменты ИИ и не имеют собственных технологий ИИ.

Ответственные программы ИИ «должны охватывать как инструменты ИИ собственной разработки, так и сторонние инструменты ИИ, — призывают авторы отчета. — Одни и те же этические принципы должны применяться независимо от того, откуда взялась система ИИ. В конечном итоге, если что-то пойдет не так, для человека, на которого оказывается негативное воздействие, не будет иметь значения, был ли инструмент создан или куплен».

Они предупреждают, что «не существует серебряной пули для снижения рисков стороннего ИИ или любого типа ИИ-рисков» и следует применять многосторонний подход к обеспечению ответственного ИИ в сегодняшней широко открытой среде.

Такой подход может включать следующее:

  • оценка практики ответственного ИИ поставщика;
  • формулировка в контракте, обязывающая придерживаться принципов ответственного ИИ;
  • предварительная сертификация и аудит поставщика (где это возможно);
  • внутренние проверки на уровне продукта (когда инструмент стороннего производителя интегрирован в продукт или услугу);
  • соблюдение соответствующих нормативных требований или отраслевых стандартов;
  • включение всеобъемлющего набора политик и процедур, таких как руководство по разработке этичного ИИ, системы оценки рисков, протоколы мониторинга и аудита.

Сделать такие действия необходимыми по мере расширения внедрения систем ИИ может призрак законодательных и правительственных мандатов, предупреждают исследователи.