В мире опять растет беспокойство по поводу приближения эры сильного (общего) искусственного интеллекта. 23 ноября Reuters сообщило, что стремительное изгнание Сэма Альтмана с поста гендиректора OpenAI (разработчик ChatGPT) произошло из-за новой опасной разработки компании и слишком большой любви Альтмана к коммерциализации решений, риски применения которых еще до конца не исследованы.

Как следует на самом деле воспринимать и как применять искусственный интеллект на практике, чтобы снизить возможные риски? Каких правил придерживаться при его обучении?

Ошеломляющий прорыв и увольнение Сэма Альтмана

Стало известно, что неожиданному и мгновенному увольнению 17 ноября Сэма Альтмана предшествовало письмо разработчиков, адресованное совету директоров OpenAI. Смысл в том, что компания совершила очередной прорыв в разработке сильного искусственного интеллекта. Новый алгоритм Q star может решать математические задачи, хоть и на уровне начальной школы, а значит, принимать самостоятельные однозначные решения. Технология угрожает человечеству и её нельзя коммерциализировать.

Есть, правда и другая версия. До исхода Альтмана об алгоритме Q star никто не слышал. Нельзя исключать, что все мы просто стали свидетелями талантливо и по всем правилам драматургии разыгранной пиар-презентации нового алгоритма. Тем более, что Сэм Альтман уже снова вернулся в OpenAI.

Так или иначе, теоретические последствия применения сильного ИИ нужно прорабатывать уже сейчас.

Этические вопросы в сфере искусственного интеллекта

Технологии искусственного интеллекта активно применяют во всех сферах жизни. Например, в бизнесе и государстве есть тренд на цифровых помощников: рекомендательные системы для поддержки принятия решений. Благодаря технологиям обработки естественного языка (NLP) такая система может распознавать документы и анализировать их содержание. Так, изучив договор купли продажи и доверенность, система принимает решение — можно ли провести сделку. На основе анализа текста технического может подобрать наиболее походящий технологический продукт. Технология берет на себя рутину и упрощает действия людей.

Но можно ли полностью делегировать автоматизированным системам важные решения? Может ли ИИ подменить человеческий выбор?

Смысловые галлюцинации: почему ИИ не следует принимать решений за человека

Главная опасность в том, что алгоритмы не обладают сознанием, эмпатией и моральными принципами. Они могут обрабатывать огромные массивы данных и находить скрытые закономерности, но не понимают контекста и последствий своих рекомендаций в человеческом контексте.

Рекомендательная система может предложить человеку фильм исходя из его предыдущих просмотров и рейтингов. Но она не учитывает настроение и личные обстоятельства пользователя в данный момент. Что уместно в одной ситуации, может быть совершенно неприемлемо в другой.

Иногда нейросеть попросту галлюцинирует: выдумывает факты и их интерпретацию, предлагая на этой основе правдоподобные выводы и обобщения, не имеющие никого отношения к действительности. К чему могут привести подобные рекомендации?

ИИ не совершенен

Буквально на днях Росздравнадзор запретил применять в России ИИ-оборудование для постановки медицинских диагнозов и начал проверку в отношении одного из разработчиков.

ИИ — черный ящик, когда невозможно до конца проследить логику, по которой нейросеть принимает решения. Алгоритмы подвержены ошибкам и искажениям. Причинами могут быть систематические смещения в данных, на которых обучалась нейросеть, ограниченность модели, неспособность обобщать новые данные и способность «забывать» старые. Кроме того, ИИ может унаследовать предрассудки от своих разработчиков. Подобные предубеждения критичны для анализа данных, связанных с людьми: в процессе судебных решений, отбора кандидатов, прогнозирования развития болезни и т. д.

Поэтому, например, в сегменте оцифровки документов, где широко применяют ИИ, часто используют методику двухэтапного распознавания: обработанные ИИ значения затем верифицируют люди — для гарантии точности и качества.

Человеческий детеныш, который рожден помогать

Важно понимать, что ИИ — это технология, созданная людьми. Как и в случае с атомной бомбой, ответственность за последствия применения этого инструмента несут люди. Нельзя перекладывать моральный выбор на машину, а человеческое сознание, этика и ответственность не могут быть автоматизированы.

ИИ лучше всего использовать как цифрового помощника: он может расширять кругозор, помогать принимать решения на основе данных, анализировать большие массивы информации. Конечный выбор, в том числе моральный, должен оставаться прерогативой людей.

Что делать, чтобы ИИ стал безопасным?

ИИ может служить эффективным инструментом для оптимизации разных аспектов повседневной деятельности, но полностью полагаться на него не стоит. Человеческий контроль и экспертиза по-прежнему важны для корректного обучения и интерпретации действий системы.

Риски применения ИИ необходимо прорабатывать в комплексе:

  • Повышать прозрачность алгоритмов, чтобы можно было проследить причины ошибок. Делать ставку не только на коммерческие, но и Open Source-разработки.
  • Предъявлять строгие требования к подготовке наборов данных для обучения алгоритмов, исключать предубеждения. В разметке данных должны участвовать люди.
  • Совершенствовать этические и правовые нормы для определения ответственности в случае ущерба от ошибок ИИ.
  • Сохранять за человеком контроль над критически важными решениями.

Вывод: главное в отношениях человека с ИИ — не оглупеть

В детской фантастической книжке «Гум-Гам» Евгения Велтистова обитатели планеты, где было вечное утро, перестали развиваться, ничего не знали, ничего толком не умели, им запрещалось задавать вопросы «Почему?». Они скучали и постоянно искали, во что поиграть. Все их потребности решала машина Автук — автоматический универсальный конструктор. Чтобы получить совершенно любой предмет или игрушку — достаточно было просто попросить или нажать кнопку. Автомат мог сделать что угодно прямо из воздуха. Когда Автук сломался — никто не знал, как его починить, никто не знал, как он работал.

Кажется, чтобы избежать подобной участи и не впадать в зависимость от технологий, людям просто надо перестать слепо следовать за ними. Перестать воспринимать происходящее как должное. Необходимо самим заниматься обучением ИИ, готовить для этого данные, ставить задачи и контролировать их исполнение.

Руслан Алигаджиев, генеральный директор “Биорг” (ИТ-кластер фонда “Сколково”)