Отрицательная обратная связь сдерживает иррациональные восторги по поводу искусственного интеллекта, пишет старший вице-президент и руководитель практики компании Edelman AI Center of Expertise Гари Гроссман на портале InformationWeek.

Любая новая технология проходит через цикл шумихи (Hype Cycle). Сначала публикуются подчеркнуто позитивные отзывы, часто обещающие резкое изменение жизни. Потом следует негатив и спад ожиданий. Хотя ИИ берет свое начало в 1950-е и давно прошел через положенный цикл шумихи, в 2016-2018 гг. его снова много обсуждали.

На протяжении нескольких последних лет отдельные светила науки предупреждали о темной стороне ИИ и разрабатывали различные мрачные сценарии. Тем не менее, большинство публикаций было посвящено прекрасным вещам, которые можно делать с помощью данной технологии. СМИ сосредоточились на том, как ИИ трансформирует практически все отрасли, и рассказывали об огромных средствах, вкладываемых в стартапы, призванные возглавить производимую ИИ революцию. Ежегодный доклад AI Index 2018 показывает, что в 2016-2018 гг. настрой сообщений об ИИ был в 1,5 более позитивным, чем в предшествующие годы.

Сегодня широко распространено мнение, что ИИ вызовет трансформацию, превосходящую ту, которую породило появление Всемирной паутины. Исследование Edelman 2019 AI survey показало, что 91% технических руководителей и 84% представителей широкой общественности считают, что ИИ приведет к новой технической революции.

Отрицательная обратная связь меняет фазу цикла шумихи

Как бывает при внедрении любой технологии, на пути распространения ИИ возникают проблемы, которые получают освещение в СМИ. Тон публикаций становится более тревожным, даже мрачным. В них рассматриваются негативные последствия.

Все это имело место на протяжении последних месяцев. Речь идет о том, что ИИ создает класс бесполезных людей, что фальшивые видео с использованием чужого лица и голоса не позволяют отличить правду от лжи и разрушают доверие и что алгоритмам присущи погрешности. К этому добавляется то, что многие алгоритмы ИИ представляют собой «черные ящики». Трудно понять, какие операции они производят и как приходят к тем или иным выводам.

Обсуждение этих проблем вполне правомерно. Оно способствует спаду шумихи. Но в некоторых случаях озабоченность преувеличена или неуместна.

Сегодня большинство ведущих приложений ИИ базируются на сетях глубокого обучения, требующих больших наборов данных для обучения алгоритмов. Соответственно, ИИ хорош лишь настолько, насколько хороши скармливаемые ему данные. Первые разработки и развертывания выявили наличие предвзятости (biases). При обучении конкретной системы ИИ она усваивает ошибки в данных и субъективные мнения создателей алгоритмов. Система увековечивает или даже усиливает человеческие страхи и предубеждения, включая расовые, гендерные и культурные стереотипы, закрепляя их в инструментах, предназначенных для распознавания лиц, обслуживания клиентов, маркетинга, модерации контента, приема на работу и определения размера зарплаты. Скандал с компанией ProPublica привлек внимание к проблеме тенденциозности ПО, используемого для прогнозирования совершения новых преступлений теми, кто уже был однажды осужден. В статье, опубликованной недавно в журнале Fortune, указывается, что проблема заключается не в технологии, в состоянии общества. Ее авторы отмечают, что несмотря на кажущуюся объективность алгоритмы по своей природе отражают общественные нормы и предубеждения.

Поиск баланса при подходе к ИИ

Избавиться от предвзятости трудно, поскольку она органически присуща данным и человеку. Однако, возможно, есть способ изгнать ее из алгоритмов с помощью ИИ, как ни парадоксально это звучит. Газета Wall Street Journal сообщила, что компаниям, вероятно, станет легче бороться с предвзятостью в области ИИ благодаря появлению автоматизированных инструментов обеспечения объективности, которые способны бороться с проникновением субъективности в модели ИИ. Вооружившись этими инструментами, специалисты по данным смогут очистить данные, исправить алгоритмы или создать дополнительный уровень контроля со стороны человека.

Опасения вызывает также тот факт, что люди не понимают, как работают алгоритмы ИИ, не могут объяснить производимые ими операции. Особенно это относится к глубокому обучению нейронных сетей. В статье, опубликованной в MIT Technology Review, отмечается, что «по своей природе глубокое обучение является особенно темным черным ящиком» и что функции его алгоритмов непонятны даже тем, кто их создал. По мере роста возможностей таких алгоритмов принимаемые на их основе решения становятся все менее прозрачными и контролируемыми. Журнал Science и газета Guardian дошли до того, что назвали ИИ алхимией или магией.

В результате появились обращенные к компаниям призывы быть как можно более прозрачными и объяснять операции своих алгоритмов. IBM предложила разработать «Декларацию поставщиков о соответствии», которую будут публиковать компании, создающие системы ИИ для борьбы с предвзятостью и непрозрачностью. В этом документе предполагается описывать, «как сервис ИИ был создан, протестирован, обучен, развернут и проанализирован, как он должен действовать и как должен (и не должен) использоваться».

С тем, что предвзятость представляет проблему, согласны практически все. Но далеко не все убеждены, что столь же опасны сложные алгоритмы, являющиеся «черными ящиками». Соучредитель компании Wired Кевин Келли утверждает, что технология, а, следовательно, и ИИ являются проекцией человеческого мышления. Мышление служит основой моделирования нейронных сетей. То, что мы не можем до конца понять, как работает многоуровневая нейронная сеть, не должно удивлять, поскольку человек не в состоянии объяснить собственные мыслительные процессы. Тем не менее, мы не отвергаем свои умозаключения и не ставим под вопрос логику и интуицию, которые порой приводят к прорывам. Мы называем их озарением, просветлением, прозрением и гениальностью.

Это напоминает аргументацию Элизабет Холм, профессора университета Карнеги-Меллон. Она задалась вопросом, все ли «черные ящики» ИИ так плохи, и пришла к выводу, что безусловно нет, поскольку мышление человека представляет собой «черный ящик». Мы часто используем мыслительные процессы, которые сам думающий не обязательно может объяснить. Если попросить человека дать обоснование, продолжала Холм, это не устраняет предвзятость, стереотипы или принятие неудачных решений.

Беспокойство по поводу предвзятости и алгоритмов «черного ящика» совершенно правомерно, даже если оно преувеличено. Такое беспокойство устраняет излишнюю шумиху и помогает сосредоточить обсуждение на действительно важных отраслевых проблемах. В конце концов, шумиха сродни иррациональному восторгу. Она показывает, что система не соответствует объективной реальности и является неустойчивой. Согласно теории систем, негативная обратная связь восстанавливает равновесие. Дискуссии о предвзятости и алгоритмах «черного ящика» привели к более глубокому осмыслению проблемы и разработке решений.

Учитывая потенциально революционные последствия применения ИИ, которые будут больше, чем имела какая-либо другая технология, прекращение шумихи является способом притормозить в надежде, что это удержит нас от неконтролируемого вступления в неопределенное будущее.