Исполнительный вице-президент и директор по глобальному развитию цифровой лаборатории xLabs сервис-провайдера Virtusa Сентил Ревиндрен на портале InformationAge размышляет, как CIO приспособиться к тому, что алгоритмы начинают оказывать влияние на принятие людьми решений о выборе и покупке товаров.

В нашем мире наберется немало людей, которые считают, что их судьбы заранее предопределены и что свобода выбора — это иллюзия, однако входя в эпоху алгоритмизации, этот вопрос приобретает новое значение. Сегодня искусственный интеллект (ИИ) и алгоритмы выступают в роли посредников между брендами и потребителями и во многом влияют на выбор ими того или иного продукта или услуги. Потребители уже имеют некоторое представление о работе ИИ в виртуальном мире, к примеру, алгоритмы Google сами решают, какие результаты поиска показывать в верхней части страницы, тогда как ИИ Facebook уже может определять, какого рода новости интересуют клиента соцсети.

Однако эти алгоритмы начали переселятся из виртуального мира в физический, где работают в связке с устройствами наподобие интеллектуального помощника Amazon Alexa, которые способны влиять на формирование у потребителя определенного мнения о продуктах и брендах. ИИ-алгоритмы чрезвычайно удобны — они помогают ускорить принятие решений, умеют подсказывать, отвечать на вопросы, но в них таится опасность. Крупным банкам, предприятиям розничной торговли, телеком-компаниям, СМБ — всем им нужно научиться ориентироваться в цифровом мире, при этом один из самых больших уроков, который им нужно выучить, является понимание силы и методов применения алгоритмов.

Влияние алгоритма на потребителя

Проблема первоочередной важности для бизнеса: как выжить в мире, где все большее число решений принимается не потребителями, а алгоритмами. Взять тот же Amazon: алгоритмы в Alexa устроены таким образом, что при выдаче результатов по выбору товара они в лучшем случае предложат один или два варианта — руководствуясь или поведенческим анализом действий пользователя, или выбирая из самых популярных товаров. Такое ограничение выбора затрудняет конкурирующим брендам, особенно малоизвестным, возможность представить клиентам свои продукты, что в долгосрочной перспективе может привести к негативным рыночным последствиям.

Особенно ухудшится положение компаний, название которых стало именем нарицательным для некоторых видов продукта, например, производителя бумажных салфеток Kleenex или поставщика батареек Duracell. Эти примеры показывают, до какой степени алгоритмы могут воздействовать на опыт клиента. Фактически, он перешел в руки таких гигантов, как Google и Facebook, и теперь они могут — целенаправленно, или случайно — исключить из результатов выдачи любых поставщиков.

На самом деле даже небольшие изменения в структуре алгоритмов могут иметь далеко идущие последствия, начиная с ценообразования и заканчивая партнерской сетью. Смоделируем ситуацию: если когда-либо Amazon решит подправить свой алгоритм таким образом, что он будет выдавать какой-либо продукт по умолчанию, де-факто это значит, что конкурирующим поставщикам придется или пересмотреть свои цены, или предложить покупателям бонусы, например, в виде однодневной бесплатной доставки. Алгоритмы могут менять природу рынка, поэтому компаниям, жаждущим процветания, нужно понимать, как они влияют на динамику пользовательского опыта клиента.

Алгоритмы нужно контролировать

При развертывании алгоритмов нужен выверенный баланс между улучшением качества обслуживания клиентов и не превышением меры допустимого. Взять к примеру сотрудничество Baidu с KFC, которое выражается в предоставлении сети быстрого питания доступа к когнитивным сервисам. Ранее обе компании запустили робота-официанта в Шанхае. Он мог принимать заказы от посетителей, распознавая речь. Сейчас стартовал новый проект, цель которого — облегчить голодному посетителю задачу выбора блюд.

Технологии Baidu используются для того, чтобы сканировать лица посетителей KFC, оценивать их настроение, возраст. На основе всей этой информации нейросеть старается предложить блюда, которые могли бы понравиться конкретному посетителю. То есть цель проекта — обеспечить индивидуальный подход. Если клиент — частый гость KFC, то компьютерная система анализирует заказы человека во время предыдущих посещений и предлагает выбор блюд на основе его предпочтений. Система может предложить мужчине в возрасте 20+ лет на завтрак меню, в которое входят чикен-гамбургер, обжаренные куриные крылышки и сок. А вот 50-летней женщине та же система может предложить кашу и соевое молоко.

Однако алгоритм может ошибаться. Более того, его некачественная работа может оскорбить клиентов. Стоит вспомнить, что несколько лет назад Google попала под прицел критики из-за того, что один из ее алгоритмов идентифицировал чернокожих людей как горилл. Помимо запятнанной репутации компании существуют и другие риски. Нетрудно себе представить, какие риски поджидают страховую компанию, выдающую полисы исходя из данных о возрасте или поле человека, полученных путем сканирования лиц.

Не исключена ситуация, что страховщик внезапно может столкнуться с жалобами на дискриминацию по причине того, что алгоритм отказал в полисе людям, чей возраст больше или заработок меньше определенного ИИ уровня. Вспомним также случай, когда ИИ отправил купоны на приобретение детских товаров со скидкой ничего не подозревавшему о беременности дочери отцу. Другим показательным примером стала ситуация со страховой компанией Admiral, предлагавшей скидки на полисы страхования исходя из этнической принадлежности имен клиентов.

Алгоритмы не могут быть предоставлены сами себе — предприятиям нужно установить за ними постоянный контроль, чтобы оперативно устранять одиночные проблемы, которые могут создавать репутационные или юридические риски.

Песочница для тренировки ИИ

Так как контролировать алгоритмы? От этого не уйти — ИИ прочно входит в нашу повседневную жизнь и предприятиям нужно определиться, как вести бизнес в алгоритмоцентричной среде. Одним из лучших средств контроля может стать песочница, в которой можно моделировать изменения и фиксировать результаты. При этом важное значение имеет подготовка. Взаимодействуя с алгоритмами, особенно самообучающимися, не стоит упускать из виду, что даже небольшие неточности в их структуре (неполные или неточные данные, заложенная в код субъективность) могут привести к значительным последствиям.

Предприятия должны быть уверены в том, как каждое новое изменение в коде алгоритма повлияет на работу их сервисов. Несмотря на то, что ИИ-программы и алгоритмы могут улучшить качество обслуживания клиентов, они не заменят человеческий труд. Ключ к успешному цифровому предприятию лежит в плоскости объединения усилий людей и роботов, поэтому фирмы должны обладать экспертизой и ноу-хау, чтобы этот опыт получился бесшовным и эффективным.

Версия для печати (без изображений)