Предвзятый (biased) искусственный интеллект — реальная проблема. Соучредитель и генеральный директор Introhive Джоди Глидден рассказывает на портале InformationWeek, почему ИИ может действовать предвзято, каковы последствия и как решать эту проблему.

ИИ прокладывает новые пути во многих отраслях. Поскольку сфера применения этих уникальных и передовых программ чрезвычайно разнообразна, тот факт, что автоматизированные процессы ИИ могут быть предвзятыми, настораживает. Дело в том, что они могут быть запрограммированы под влиянием чьего-то предвзятого мнения или предрассудков.

В настоящее время бизнес довольно пассивно следит за тем, как развивается ИИ, и в какой-то момент может оказаться, что это была ошибка. Многие рыночные наблюдатели предлагают провести дополнительные исследования для создания свода этических норм ИИ. Он будет включать в себя ценности, принципы и методы, соблюдение которых будет гарантировать, что все процессы создания ИИ будут вестись с их соблюдением.

Известно, что у любой новой разработки есть период первоначальных открытий и прогресса, когда правила только устанавливаются. В этом нет ничего нового, но скорость, с которой развивается ИИ, ставит его вне этих рамок. Так что же такое предвзятость ИИ?

Предвзятость ИИ

Как мы хорошо знаем, люди могут быть предвзятыми. Это, пожалуй, совершенно неизбежно. К сожалению, предвзятость может проявляться, когда разработчики пишут код для определенных систем, и в некоторых случаях ИИ сделает ее более акцентированной. Хотя это может быть человеческая ошибка, ее также можно связать с недостатком или неполнотой используемых данных. Предрассудки могут попасть в алгоритмы по недосмотру и просто как следствие старых тенденций. В некоторых случаях команды могут допустить их, потому что их состав недостаточно разнообразен (team diversity). В качестве примера предвзятости можно привести инструмент рекрутинга Amazon.

В 2014 г. эта компания захотела автоматизировать процесс подбора персонала. Очевидно, что компании такого масштаба требовались часы на рассмотрение каждого резюме. Решением стало создание ИИ-программы, которая рассматривала резюме соискателей и выставляла им оценки. Несмотря на то, что она сократила список кандидатов, к следующему году Amazon поняла, что существует проблема, поскольку система не оценивала кандидатов-женщин наравне с мужчинами. Такое поведение было обусловлено историческими данными, которые Amazon предоставила системе за последние 10 лет. Поскольку ее штат на 60% состоял из мужчин, система ошибочно предположила, что компания отдает предпочтение мужчинам. Как только проблема была обнаружена, Amazon быстро вернулась к прежнему методу отбора кандидатов. Упомянутый выше пример иллюстрирует, как предвзятость может проникать в системы.

Так как же заложить основу для создания этичных систем ИИ?

Как будет выглядеть этика ИИ

Как и следовало ожидать, это всеобъемлющий вопрос. Чтобы наделить ИИ этикой и превратить в беспроблемную беспристрастную систему, нужно пройти несколько этапов:

  1. Проведение глубокого анализа данных. Как уже упоминалось, очень важно убедиться, что ИИ-решение использует правильные данные. Проверка должна проводиться независимым органом. В свою очередь, это создаст новую сферу деятельности специалистов, которые будут оттачивать свое мастерство;
  2. Инвестиции в создание системы, адаптированной для вашей отрасли. Мозговой штурм и разбор проблем этического характера, с которыми сталкивается ваша отрасль, позволит изучить полученные уроки, что позволит вашей ИИ-системе решить проблемы в реальном мире;
  3. Обучение на уроках, полученных в других отраслях. Некоторые отрасли должны были уже решать определенные этические вопросы. Медицина — одна из тех отраслей, где уже состоялись глубокие дискуссии относительно ИИ. Когда компании разной отраслевой принадлежности плодотворно обмениваются опытом, это всегда способствует инновациям;
  4. Проведение этических дискуссий и повышение осведомленности. Участие людей в дискуссиях по этике применения ИИ — лучший способ сделать так, чтобы они знали о существовании этой проблемы. Кроме того, повысить их осведомленность позволит проведение просветительских акций. Знание людей о своих предрассудках — это всегда плюс для всего человечества;
  5. Мониторинг результатов. С учетом примера Amazon, шаг номер один для обеспечения этичности ИИ — это мониторинг. Всегда просматривайте данные и результаты работы системы.

Хотя ввод этических норм — это здорово, необходимо создать соответствующий регулирующий орган, который будет следить за тем, чтобы ИИ не вышел из-под контроля.

Регулирование ИИ

Это не должно быть сюрпризом, но правительства, возможно, не в состоянии разобраться в этом вопросе. Рынку нужны профессионалы, которые могут консультировать и помогать принимать важные решения в области регулирования.

Эксперты в ИИ-сообществе согласны с тем, что необходимы советы по регулированию для решения масштабных проблем. К таким проблемам относятся дипфейки и распознавание лиц. В случае с дипфейками проблема заключается в том, что ложные заявления могут быть выпущены и распространены по всему миру, вызывая хаос. Если эксперты и правительства будут работать вместе, можно создавать эффективные органы, которые будут решать проблемы, связанные с распознаванием лиц, и следить за тем, чтобы ИИ не причинял вреда обществу, а наоборот улучшал мир.

ИИ пришел надолго. Но в настоящее время мы переживаем переломный момент. С каждым днем ИИ развивается все быстрее, его применение становится все более глубоким и распространяется на все большее количество отраслей. Наш долг — следить за тем, как ИИ применяется в жизни, сообщать о любых выявленных проблемах и искать конструктивные пути развития.