Поскольку искусственный интеллект становится общеупотребительным инструментом и алгоритмы формируют базис для бизнес-решений, компаниям требуются руководящие принципы для своего прогресса.

Выступая на недавнем Всемирном экономическом форуме, глава IBM Джинни Рометти остановилась на вопросе об ответственности, возникающей при внедрении мощных технологий, включая определение условий их применения. Она поделилась тремя используемыми IBM базовыми принципами, которые она рекомендует компаниям, развертывающим системы ИИ. Они состоят в следующем.

Цели. По словам Рометти, ИИ-системы IBM будут ориентированы на дополнение, а не на замену ума человека. Эти системы должны быть «на службе человечеству» и «расширять возможности людей».

Прозрачность. Рометти видит необходимость прозрачности во всем, что касается использования этих систем. Она сказала, что ее компания придерживается принципа детализации целей, для которых она разрабатывает и развертывает ИИ.

Навыки. Она подтвердила, что компания намерена помогать своим работникам в приобретении необходимых навыков для использования этой технологии, и это позволит сохранить их рабочие места.

Сущность рекомендаций Рометти воплощена в принципы, выдвинутые Association for Computing Machinery US Public Policy Council, хотя они сформулированы немного в других терминах. Ниже приводятся «Принципы алгоритмической прозрачности и ответственности», предложенные ассоциацией.

1. Осведомленность. Владельцы аналитических систем, их проектировщики, производители, пользователи и другие заинтересованные лица должны быть осведомлены о возможных отклонениях в работе таких систем в связи с их проектированием, реализацией и использованием и о потенциальном ущербе этих отклонений для людей и общества.

2. Контакты и компенсации. Регулирующие органы должны побуждать организации внедрять механизмы, позволяющие опрашивать людей и организации, которые могли пострадать от решений, принятых на базе алгоритмов, и возмещать им ущерб.

3. Ответственность. Организации должны нести ответственность за решения, принятые на базе используемых ими алгоритмов, даже если невозможно объяснить в деталях, как эти алгоритмы дали соответствующие результаты.

4. Объяснение. Учреждения, использующие алгоритмическое принятие решений, должны давать объяснения по процедурам, которые были преобразованы в алгоритмы, а также по принятым конкретным решениям. Это особенно важно в контексте государственной политики.

5. Происхождение данных. Описание того, каким путем были собраны данные для обучения ИИ, является делом конструкторов алгоритмов. Оно также должно сопровождаться исследованием потенциальных погрешностей, связанных с человеческим фактором и алгоритмическим процессом сбора данных.

Максимум возможностей для корректировок будет давать публичная критическая проверка данных. Однако заботы о приватности и защите коммерческих тайн, а также вероятность того, что вскрытые аналитикой факты позволят злонамеренным лицам прибегнуть к обману системы, могут оправдать ограничение доступа узким кругом аттестованных и авторизованных лиц.

6. Возможности для аудита. Модели, алгоритмы, данные и решения должны записываться для проведения аудита в тех случаях, когда есть подозрения на негативные эффекты.

7. Обоснование и тестирование. Организации должны использовать строгие методы для обоснования своих моделей и документировать эти методы и результаты. Они должны проводить регулярные тесты для оценки моделей и выяснения того, не создает ли модель селективный вред. Желательно, чтобы учреждения делали результаты таких тестов публичными.

По словам Стюарта Шапиро, председателя U.S. Public Policy Council of the Association for Computing Machinery, сформулированное программное заявление выросло из широких дискуссий по вопросу алгоритмической ответственности. Фундаментальный вклад в эти дискуссии внесли рабочие группы, состоявшие из приглашенных представителей академических кругов, индустрии и неправительственных организаций (НПО).

Теперь, когда программное заявление уже изложено, сказал Шапиро, ассоциация «надеется привлечь к нему внимание всех организаций, будь то госсектор или бизнес, которые оперируют этими видами систем», в качестве руководства «в разработке политик для управления этими типами систем».

Планируется «донести это программное заявление до людей и организаций, для которых оно может оказаться информативным и полезным». В их число могут войти аппарат Конгресса, разные типы НПО или отраслевые группы.

Есть надежда, что информированное партнерство между некоммерческими организациями и бизнесом будет направлять развитие ИИ и других передовых технологий на путь служения человечеству.

Версия для печати