Искусственный интеллект (ИИ) все больше влияет на человеческие жизни, а это значит, что он может вызывать проблемы социального и этического характера. Как их решать? Является ли более тесный симбиоз систем, которые состоят из людей и ИИ-систем, путем вперед? Эту тему на портале ComputerWeekly поднимает руководитель отдела стратегических взаимодействий Бюро стандартизации электросвязи Международного союза электросвязи (ITU Telecommunication Standardization Bureau) Фред Вернер.

Наука управления (management science) предлагает набор инструментов, которые могут сделать системы ИИ более надежными, считает Томас Диттерих, заслуженный профессор и директор по исследованию интеллектуальных систем Орегонского государственного университета. По его мнению, эту науку, которая позволяет принимающим решения людям достичь вершин в своих областях, можно задействовать и для обучения машин. Почему это важно? Потому что человеческая интуиция по-прежнему выигрывает у ИИ в принятии решений в кризисных ситуациях. Просто люди — особенно профессионалы в своих сферах деятельности — заслуживают большего доверия.

Исследования ученых Калифорнийского университета Тодда Лапорта, Джина Рохлина и Карлин Робертс показали, что определенные категории профессионалов, такие как авиадиспетчеры или операторы атомных электростанций, способны принимать ответственные решения даже в ситуации высокого риска. Эти специалисты развивают способность обнаруживать и анализировать свои ошибки и учиться на них, а также практикуют решение проблем с долей импровизации, говорит Диттерих.

Это объясняется их «озабоченностью неудачами». Они постоянно следят за аномалиями и промахами и рассматривают их как симптомы потенциального отказа в системе. Команда, в которую входят представители с широким спектром специализаций, обсуждает эти промахи, анализирует причины неправильных решений и т. д. Люди-профессионалы обладают гораздо более высоким уровнем «ситуационной осведомленности» и знают, когда следует прислушиваться к опыту друг друга.

Принципы ситуационной осведомленности полезны при размышлении о том, как создать полностью автономную и надежную систему ИИ или как разработать способы совместной работы человеческих экосистем и систем ИИ. Последние могут развивать опыт реакций на различного рода ситуации благодаря своей способности интегрировать данные из нескольких источников и постоянно переоценивать риски. Однако существующие системы ИИ хоть и обладают хорошей ситуационной осведомленностью, они менее эффективны в обнаружении аномалий, не способны объяснять их появление и находить импровизированные решения.

Прежде чем система ИИ сможет уверенно находить и объяснять близкие к промахам ситуации, необходимо провести дополнительные исследования. У нас есть системы, которые могут диагностировать известные сбои, но как диагностировать неизвестные сбои? Что будет, если системы ИИ научатся принимать участие в импровизированном решении проблем, которое каким-то образом может расширить пространство возможностей, выходя за рамки первоначальной проблемы, на решение которой была запрограммирована система?

Общая ментальная модель

Для тех областей, где системы ИИ и люди сотрудничают, необходима общая ментальная модель. ИИ не должен бомбардировать своих коллег-людей неактуальной информацией, он также должен понимать и уметь предсказывать поведение человеческих команд.

Один из способов научить машины объяснять аномалии или справляться со спонтанностью является знакомство с исполнительским искусством. Исследователи и музыканты из Университета Монаша в Мельбурне и Лондонского университета Голдсмита задались целью выяснить, сможет ли ИИ выступить в роли музыканта-импровизатора на фантомной джем-сессии.

Свободные, спонтанные импровизации часто считаются самым точным выражением творческого сотрудничества между музыкантами. Совместная джем-сессия требует не только музыкальных способностей, но и доверия, интуиции и сопереживания своим коллегам по группе. Всего в исследовании было задействовано несколько ИИ-систем. Первая из них, под названием «Попугай», повторяет все, что играется на сцене. Вторая автономно воспроизводит ноты независимо от человека-музыканта. Третья система также обладает полной автономией, но подсчитывает количество нот, сыгранных человеком-музыкантом, чтобы определить энергию музыки. Четвертая, самая сложная система, строит математическую модель музыки человека-исполнителя. Она внимательно слушает, что играют музыканты, и строит статистическую модель нот, их паттернов и даже хранит последовательности аккордов.

Помимо такого подхода к обучению ИИ Диттерих видит еще два перспективных метода, которые должны дать математические «гарантии» его надежности. Один из них — модель компетентности, которая может вычислять квантильные регрессии для прогнозирования поведения ИИ, используя метод «конформного прогнозирования» для внесения дополнительных поправок. Однако этот подход требует большого количества данных и по-прежнему не устраняет проблемы с неправильной интерпретацией ИИ. Другой путь — заставить автономные системы справляться со своими «неведомыми неизвестными» (unknown unknowns) с помощью обнаружения открытых категорий. Например, у самоуправляемого автомобиля, обученного на европейских дорогах, могут возникнуть проблемы с кенгуру в Австралии. Детектор аномалий, использующий немаркированные данные, может помочь системе ИИ более эффективно реагировать на неожиданности.

По мере внедрения ИИ во все большее число сфер человеческой жизни становится ясно, что, несмотря на кошмарный сценарий захвата власти машинами, единственный способ сделать его более надежным и эффективным — это создать более тесный, чем когда-либо, симбиоз между человеческими системами и системами ИИ. Только тогда мы сможем по-настоящему положиться на ИИ.