Машинное обучение (МО), искусственный интеллект (ИИ) — в последние несколько лет это одни из самых обсуждаемых тем в ИТ. Обе технологии работают в голосовых помощниках, чатботах, распознают лица в Facebook и Windows 10, помогают самоуправляемым автомобилям избегать препятствий и делают многое другое. Одними из первых потенциал МО оценили банки и страховые компании — эксперименты с ним они начали ещё задолго до того, как технология стала такой популярной. Это произошло тогда же, когда грянул банковский кризис, в 2008 г., но со временем выяснилось, что иногда алгоритмы МО работают на некорректных предпосылках.

Осознавая роль банков как критически важных инструментов рыночной экономики, финансовые регуляторы ввели для них и страховщиков дополнительные меры контроля за соблюдением нормативных требований по модельным рискам. Их также называют рисками неадекватности модели — под этим понимается применение ошибочной математической модели для оценки и управления финансовыми рисками. Причинами модельных рисков являются некомпетентность специалистов (риск персонала) при использовании сложных финансовых инструментов и недостатки автоматизированных программных приложений (технологический риск).

Именно со второй составляющей и возникли проблемы, пишет для портала InformationWeek директор по работе с клиентами DataRobot Колин Прист. Проведенная регуляторами проверка выявила, что некоторые ИТ-службы сознательно ограничивали сложность алгоритмов, прибегая к обобщённой линейной модели (Generalized Linear Model, GLM), называемой также обобщённой аддитивной моделью (Generalized Additive Model, GAM). Цель такого упрощения объяснялась стремлением банков повысить интерпретируемость результатов, которая формулируется в виде системы линейных уравнений. Другими словами, некоторые банки корректировали работу алгоритмов вручную, что подрывало доверие к ИИ и его значимость как передовой технологии.

В последние несколько лет точность работы МО и ИИ значительно возросла, тем не менее, банковский сектор и система страхования не могут в полной мере выдержать баланс между эффективностью «умного» ПО и его соответствием нормативным требованиям, делая акцент на последнем. Некоторые компании вообще отказываются от МО, полагая, что эта технология не отвечает их потребностям. Прист считает, что для того, чтобы выстроить с ИИ доверительные отношения, потребуются усилия компаний всех отраслей. Пока что единственными, кто занимается обучением штучного интеллекта и хорошо понимает модели МО, являются разрозненные группы ученых.

Как уже упоминалось, схема работы ИИ слишком сложна для понимания и пока что не готова покинуть стены исследовательских лабораторий. Всё, что остается интересующимся МО — довольствоваться сложными математическими уравнениями и малопонятным описанием принципов его работы. В сухом остатке это мало что проясняет: зачем, собственно, доверять ИИ бизнес-процессы, если не понятно, как он устроен, как принимает решения? Отвечая на эти вопросы, Прист рекомендует избрать более продуктивный способ понимания машинного интеллекта — сопоставить его с человеческим мышлением. Подобного мнения придерживается и соучредитель Udacity Себастьян Трон, говоря, что ИИ — это не обычное ПО и его не нужно воспринимать матрично: «ИИ — это почти гуманитарная дисциплина. Это реальная попытка понять человеческий интеллект и человеческое познание».

В качестве иллюстрации сходности мышления человека и машины Прист приводит цепочку рассуждений банковского служащего, выдающего кредиты. Чем он руководствуется, открывая кредитную линию? Что ему нужно знать о балансе предприятия при выдаче кредита? Как он взвешивает риски, принимая или отклоняя заявки на получение кредита? Принятые служащим решения можно сопоставить с алгоритмами, принимающими аналогичные решения. Ведь подобной семантике рассуждений хорошо соответствует метод МО под названием «эффект воздействия». Применив его, можно понять, что при выдаче кредита банковский служащий принимает во внимание три основных параметра: доход заявителя, баланс оборотных средств и цель кредита.

Логику служащего раскрывают дополнительные возможности МО: «коды причин» детализируют отчетность заявителя, «частичная зависимость» проводит оценку платежеспособности клиента (чем больше его доход, тем меньше риск банка). При доле наблюдательности можно сделать вывод: каждая мысль служащего банка аргументируется соответствующим алгоритмом или набором алгоритмов. Может быть проводить параллели между эффективностью человеческого мышления и МО пока что преждевременно, но нельзя не признать, что оно обладает несколькими способностями, делающими его уникальным:

проблема доверительности данных: традиционные статистические модели рассчитаны на раскрываемость и достоверность данных и процессов, лежащих в основе этих данных, тогда как МО устраняет эти ограничения — гибкие алгоритмы раскрывают лишь необходимую степень доверительности;

поддержка современных компьютеров и массивов данных: обычное ПО не приспособлено для абстрактных расчетов и использует линейную схему математических расчетов, тогда как МО самостоятельно оперирует формулами, определяя лучшие шаблоны и задействует собственные алгоритмы проверки данных;

прогнозирование будущего в отсутствие определенных данных: работа софта с реляционными базами данных невозможна без периодической очистки и перегруппирования единиц информации. В противовес МО концентрирует набор данных, который требуется для работы конкретного алгоритма, кроме того, оно способно определять, каких данных недостает другим алгоритмам и — при отсутствии таковых — подменять их на оптимальные. Такая подстановка требуется для прогнозирования различных результатов.

Прист полагает, что искусственное (или компьютерное) обучение прочно укрепилось в ИТ и больше нет смысла его игнорировать. Чтобы лучше понять ИИ, говорит он, нужно задавать ему те же вопросы, которыми обычно оперируют люди. Вне всяких сомнений, ИИ — это ответ на сокрушительную силу больших данных, которые захлестывают человечество из социальных сетей, смартфонов, IoT и других источников, и только он может обработать такие потоки информации. Более того, МО и ИИ — это средства, которые «перемалывают» не только имеющиеся источники сведений, но и слагают их с недостающими картинками пазла.

Осознавая заложенную в ИИ мощь, надзорные органы многих стран относятся к нему настороженно. Потребуется время, чтобы между ИИ и заинтересованными сторонами — пользователями, предприятиями — сложились доверительные отношения, но, по мнению Приста, в итоге от этого выиграют все.