Глава Microsoft Сатья Наделла опубликовал свои мысли по поводу технологии искусственного интеллекта (ИИ) в американском онлайновом журнале Slate. Эксперты по ИИ в целом с ним согласны, но считают, что сформулированные им правила порождают ряд вопросов.

Наделла призывает пересмотреть отношение к ИИ и вместо того, чтобы фокусироваться на перспективах и опасностях, которые сулит эта технология, сосредоточиться на вопросах организации взаимодействия между машинами и людьми для расширения возможностей интеллекта: «Преимущества такой совместной работы часто теряются в ходе обсуждения того, чем хорош или плох искусственный интеллект».

Он сформулировал десять принципов и целей, которые следует учитывать при разработке ИИ, чтобы успокоить общественность относительно потенциального вреда этой технологии. Шесть правил касаются технологии искусственного интеллекта.

1. ИИ должен быть направлен на помощь человеку и уважение его независимости. Например, способные к сотрудничеству роботы должны выполнять опасные работы, такие как добыча ископаемых, которые могут поставить жизнь человека под угрозу.

2. Необходима прозрачность ИИ. Мы должны знать, как работает эта технология и по каким правилам. Информация о том, как ИИ выполняет анализ и воспринимает окружающий мир, должна быть публично доступной.

3. Нужно, чтобы ИИ повышал эффективность, но не задевал достоинство людей, учитывая культурные традиции и их разнообразие. Для этого требуется более глубокое, широкое и разнообразное участие населения в разработке ИИ-систем.

4. При проектировании ИИ очень важно предусмотреть защиту личной информации. Применение самых современных и изощренных средств защиты позволит предохранить персональную и групповую информацию и тем самым завоевать доверие людей.

5. Необходимо обеспечить контролируемость ИИ с точки зрения алгоритмов, чтобы человек смог предотвратить неумышленный вред. Другими словами, нужно учитывать ожидаемые и неожиданные действия.

6. ИИ должен предохранять от предвзятости. Задача состоит в том, чтобы эвристические правила не использовались для дискриминации.

Еще четыре правила касаются людей, точнее тех качеств, на которых должны фокусироваться будущие поколения.

7. Эмпатия. Понимание мыслей и чувств других людей, способность к взаимодействию и построению отношений будет критически важной в мире «человек-ИИ».

8. Образование. Чтобы создавать инновации, которые мы сейчас даже не можем вообразить, и управлять ими, необходимо повышать инвестиции в образование. Но развитие знаний и навыков, необходимых для реализации этой новой технологии в широком масштабе, является сложной социальной проблемой, для решения которой потребуется немало времени.

9. Креативность. Машины будут обогащать и повышать наши творческие способности.

10. Рассудительность и контролируемость. Мы, возможно, могли бы принять компьютерную диагностику или судебное решение, но нужно чтобы человек был готов нести ответственность за результаты.

Эксперты считают, что данные правила являются хорошим началом для продвижения идей ИИ в массы, но некоторые из них легче сформулировать, чем выполнить. Например, если один ИИ-алгоритм является прозрачным, а другой более производительным, как часто бывает в машинном обучении, вряд ли компания, работающая на конкурентном рынке, предпочтет прозрачный.

Сформулировать правила и цели недостаточно, утверждают эксперты. Следующим шагом должно стать создание стимулов для достижения поставленных целей, а это очень сложная задача.