Недоверие к системам искусственного интеллекта (ИИ) возникло после применения ряда неудачных решений, основанных на алгоритмах, сообщает портал ZDNet на примере Великобритании.

По-видимому, недавние технологические неудачи правительства Великобритании оставили неприятный осадок в сознании многих британских граждан. Как показали данные нового отчета аккредитованного при Британском компьютерном сообществе (British Computer Society, BCS) ИТ-института (Chartered Institute for IT), более половины взрослых британцев (53%) не доверяют организациям, которые применяют алгоритмы для принятия касающихся их решений. Опрос, проведенный с участием более чем 2000 респондентов, вышел после событий, всколыхнувших этим летом британское школьное сообщество. Отдельные представители последнего начали высказывать свое недовольство действиями Ofqual — британской службы контроля качества квалификаций, экзаменов и тестирования студентов после того, что она, как выяснилось, применяла для прогнозирования результатов A-level и GCSE (General Certificate of Secondary Education) несправедливый алгоритм. Эти события развернулись на фоне пандемии COVID-19, которая помешала проведению экзаменов.

Прогнозы алгоритма Ofqual основывались на предыдущих результатах успеваемости, при этом предпочтение отдавалось частным школам, что привело к значительному снижению результативности государственных школ. Правительство оперативно отреагировало на ситуацию и разрешило ученикам брать за основу прогнозные оценки, данные учителем, а не результаты, основанные на алгоритмах. Возможно, вмешательство правительства запоздало: только 7% респондентов, опрошенных BCS, заявило, что доверяет специальным алгоритмам, разработанным для сферы образования. Этот процент является самым низким и находится на одном уровне доверия к алгоритмам, используемым социальными службами и вооруженными силами. Он даже ниже, чем уровень доверия к алгоритмам социальных сетей для обслуживания контента и непосредственного пользовательского опыта (8%).

По словам руководителя отдела стратегии BCS Билла Митчелла, недавние события «серьезно» подорвали доверие людей к тому, каким образом алгоритмы применяются для принятия касающихся их решений, и что это будет иметь долгосрочные последствия. «Сознание людей начало свыкаться с мыслью, что алгоритмы вездесущи, — добавил Митчелл. — Алгоритмы окружают нас повсюду, люди понимают, что это так, и они спрашивают: „Почему я должен доверять вашему алгоритму?“. Это именно то, о чем люди должны спрашивать, тогда как остальные, участвующие в разработке и развертывании алгоритмов, должны быть готовы объяснить, почему данный алгоритм будет работать на благо людей, а не во вред им».

В феврале прошлого года комитет по стандартам в публичной сфере (Committee on Standards in Public Life) в своем докладе подчеркнул широкое распространение скрытых ИИ-систем в структуре предоставления важнейших государственных услуг Великобритании, что говорит об отсутствии открытости и прозрачности со стороны правительства в использовании этой технологии. Одна из главных проблем, обозначенных в докладе, заключается в том, что общество не знает, где в настоящее время правительство задействует ИИ. Этот вопрос особенно актуален в свете того, что государственные органы этой страны все чаще рассматривают возможность внедрения ИИ в высокоэффективные процессы принятия решений в сфере охраны правопорядка, образования, социальной помощи и здравоохранения.

Недоверие общественности к некоторым технологиям, используемым в государственных службах, не должно вызывать удивления. Алгоритмы применяются в областях, которые оказывают огромное влияние на жизнь граждан, поэтому их желание предотвратить разрушительные последствия предвзятости ИИ-систем не следует игнорировать. «То, что мы видели в школах, показывает, что общественность взяла ситуацию под контроль, но я не уверен, что мы хотим оказаться в ситуации, когда недовольство алгоритмами выплеснется на улицы», — сказал Митчелл. Он считает, что запуск любого алгоритма должен быть согласован с обществом, то есть должен быть выработан систематический способ взаимодействия с ним. Это позволит точно выяснить, на кого будет влиять технология, какие данные будут использоваться, кто будет отвечать за результаты и как исправить систему, если она даст сбой.

Другими словами, речь идет не только о том, чтобы граждане знали, когда ИИ-система принимает решения, но и о внедрении строгих стандартов в ходе создания самого алгоритма. «Допустим, мне нужно доказать, что моему алгоритму можно доверять. Это значит, что как профессионал я должен быть в состоянии привести вам — человеку, на которого влияет этот алгоритм,— доказательства, чтобы вы могли доверять мне, — сказал Митчелл. Внедрение этих стандартов на этапах проектирования и разработки ИИ-систем — сложная задача, поскольку существует множество уровней выбора, которые делают разные люди в разное время на протяжении жизненного цикла алгоритма. Эксперт утверждает, что для того, чтобы вернуть доверие общественности, профессия специалиста по данным должна стать настолько же уважаемой, как профессия врача или юриста.

Фактически последний отчет BCS показал, что больше всего гражданское население Британии в части генерируемых алгоритмами решений полагается на национальную службу здравоохранения (National Health Service, NHS). Около 17% респондентов заявили, что они доверяют автоматизированному принятию решений этой организацией, а среди опрошенных в возрасте от 18 до 24 лет уровень доверия еще выше — 30%. «Люди доверяют NHS, потому что они доверяют врачам и медсестрам. Они профессионалы, которые должны придерживаться отраслевых стандартов, и если они этого не делают, их увольняют, — утверждает Митчелл. — В этом плане ИТ-профессии отстает, но все же сейчас мы видим, что алгоритмы используются в невероятно сложных ситуациях».

Будет ли когда-либо общество доверять ученым, работающим с данными, как своему врачу? На первый взгляд это предположение может показаться ошибочным, но с учетом того, что ИИ с каждым днем проникает во все больше аспектов жизни людей, привлечение их к работе над алгоритмами должно стать приоритетом для науки о данных.