О том, как приоритет ответственного ИИ настроит вашу компанию на успех и вызовет доверие у ваших клиентов, на портале InformationWeek рассказывает Стивен Каран, вице-президент по инсайтам и данным Capgemini Canada.

Искусственный интеллект — это будущее, но он уже занимает видное место в настоящем. Поскольку наука о данных становится все более сложной, а потребители продолжают требовать более персонализированного обслуживания клиентов, ИИ — это инструмент, который поможет предприятиям лучше понимать своих клиентов и аудиторию. Но потенциал ИИ может быть никогда не реализован, если мы не сможем найти решение этических проблем.

По мере развития этой технологии всех руководителей, стремящихся реализовать ИИ-стратегию, должен беспокоить один вопрос: как я могу этично и ответственно использовать ИИ в своей организации?

Для того чтобы внедрить и масштабировать возможности ИИ, которые приведут к положительному возврату инвестиций при минимизации рисков, снижении предвзятости и повышении скорости создания ценности, предприятиям следует придерживаться следующих четырех принципов:

1. Понимать цели, задачи и риски

Около семи лет назад Gartner выпустила так называемый «Гиперцикл развивающихся технологий», в котором были выделены технологии, которые, по ее прогнозам, изменят общество и бизнес в течение следующего десятилетия. Среди этих технологий был и ИИ.

После выхода этого отчета компании бросились наперегонки доказывать аналитикам и инвесторам, что они разбираются в ИИ, и многие из них начали внедрять стратегии ИИ в свои бизнес-модели. Однако иногда эти стратегии оказывались плохо реализованными и применялись в качестве дополнения к существующим аналитическим или цифровым целям. Это связано с тем, что организации не имели четкого понимания бизнес-проблемы, которую они хотели решить с помощью ИИ.

Реально внедряются только 10% моделей ИИ и машинного обучения, разработанных предприятиями. К столь низкой эффективности привело исторически сложившееся отсутствие взаимопонимания между организациями, имеющими проблему, и специалистами по анализу данных, которые могут использовать ИИ для решения этой проблемы. Однако с ростом зрелости в сфере данных организации начали интегрировать «переводчиков» данных в различные цепочки создания ценности — например, в маркетинг — для выявления и растолкования желаний бизнеса относительно требуемых результатов.

Вот почему первым принципом разработки стратегии этичного ИИ является понимание всех целей, задач и рисков, а затем создание децентрализованного подхода к ИИ в вашей организации.

2. Не навредить

Известно много публичных примеров вредного ИИ. Большие и малые организации нанесли ущерб своей репутации и получили недоверие клиентов из-за того, что они не смогли должным образом разработать свои ИИ-решения, исключив предвзятость.

Организации, планирующие создание моделей ИИ, должны принимать упреждающие меры, чтобы их решения не навредили. Способ сделать это: создать основу для предотвращения любого негативного воздействия на прогнозы алгоритмов.

Например, если компания стремится лучше понять настроения клиентов с помощью опросов, например, как недопредставленные сообщества относятся к их услугам, она может использовать науку о данных для анализа опросов клиентов и обнаружить, что часть анкет возвращается с ответами на языке, который алгоритм ИИ не может понять.

Чтобы решить эту проблему, специалисты по науке о данных могут пойти дальше и модифицировать алгоритм, чтобы учесть сложные языковые нюансы. Если бы эти нюансы были интерпретированы, а ИИ сочетался с более глубоким знанием языка, чтобы сделать эти выводы более жизнеспособными, организация смогла бы понять потребности недопредставленных сообществ, чтобы улучшить качество обслуживания клиентов.

3. Применять базовые данные, которые являются всеобъемлющими

Алгоритмы ИИ способны анализировать огромные массивы данных, поэтому предприятиям следует уделять первоочередное внимание разработке системы стандартов данных, используемых и поступающих в их модели ИИ. Для успешного внедрения ИИ необходим целостный, прозрачный и отслеживаемый набор данных.

Зачастую ИИ должен учитывать вмешательство человека. Сленг, аббревиатуры, кодовые слова и многое другое, что постоянно придумывается людьми — любое из этого способно поставить в тупик высокотехничный алгоритм ИИ. Модели ИИ, не способные обрабатывать эти человеческие нюансы, в конечном итоге не имеют целостного набора данных. Это подобно попытке вести машину без зеркал заднего вида: у вас есть большая часть необходимой информации, но отсутствуют ключевые «слепые зоны».

Организациям необходимо найти баланс между историческими данными и человеческим вмешательством, чтобы позволить своим моделям ИИ учиться этим сложным различиям. Если объединить структурированные данные с неструктурированными и обучить ИИ распознавать и те, и другие, можно получить более целостный набор данных и повысить точность прогнозов.

Если сделать еще один шаг вперед, то аудит наборов данных третьей стороной может стать дополнительным бонусом, избавляющим от предвзятости и несоответствий.

4. Избегать подхода «черного ящика» при разработке алгоритмов

Для того чтобы ИИ был этичным, необходима полная прозрачность. Для разработки стратегии ИИ, одновременно прозрачного, интерпретируемого и объяснимого, предприятия должны открыть «черный ящик» кода, чтобы понять, как каждый нод или гейт в алгоритме делает выводы и интерпретирует результаты.

Хотя это может показаться простым, для достижения этой цели требуется надежный технический базис, который может объяснить поведение моделей и алгоритмов путем анализа базового кода, чтобы показать различные генерируемые субпрогнозы.

Предприятия могут полагаться на системы с открытым исходным кодом для оценки моделей ИИ и МО по целому ряду параметров, включая:

  • анализ функций для оценки влияния применения новых функций на существующую модель;
  • анализ нодов для объяснения подмножества прогнозов;
  • локальный анализ для объяснения отдельных прогнозов и сопоставления функций, которые могут улучшить результаты;
  • глобальный анализ для нисходящего обзора общего поведения модели и основных характеристик.

ИИ — это сложная технология, которая таит в себе множество потенциальных ловушек, если организации не будут осторожны. Успешная модель ИИ — это модель, в которой этика является приоритетом с самого первого дня, а не в последнюю очередь. ИИ не является универсальным решением для разных отраслей и организаций, но есть один общий знаменатель, который должен пробивать себе дорогу, — это приверженность прозрачным и беспристрастным прогнозам.