Термин «искусственный интеллект» порождает непонимание и помогает его создателям избежать ответственности, пишет на портале ITPro Today колумнист Bloomberg Парми Олсон.

Никто не продает будущее так мастерски, как технологическая индустрия. По словам ее представителей, все мы будем жить в «метавселенной», строить свою финансовую инфраструктуру на «web3» и управлять своей жизнью с помощью «искусственного интеллекта». Все эти три термина являются миражами, на которых сгребаются миллиарды долларов, несмотря на то, что реальность совсем иная.

ИИ, в частности, ассоциируется с мыслящими машинами. Но ни одна машина не может думать, и ни одно ПО не является по-настоящему интеллектуальным. Одна только эта ассоциация может быть одним из самых успешных маркетинговых посылов всех времен.

OpenAI только что анонсировала GPT-4, крупное обновление технологии, лежащей в основе ChatGPT. Система выглядит еще более человекоподобно, чем ее предшественница, что, естественно, усиливает представления о ее интеллекте. Но GPT-4 и другие подобные ей большие языковые модели просто зеркалируют текстовые базы данных, масштабы которых — около триллиона слов для предыдущей модели — трудно представить. С помощью армии людей, перепрограммирующих их с помощью исправлений, модели собирают слова вместе на основе вероятности. Это не интеллект.

Эти системы обучены генерировать текст, который звучит правдоподобно, однако их рекламируют как новые оракулы знаний, которые можно подключать к поисковым системам. Это безрассудно, поскольку GPT-4 продолжает допускать ошибки, а ведь всего несколько недель назад Microsoft и Google провели позорные демонстрации, в которых их новые поисковые системы глючили на фактах.

Все это не способствует улучшению ситуации: такие термины, как «нейронные сети» и «глубокое обучение», только укрепляют идею о том, что эти программы похожи на человека. Нейронные сети ни в коей мере не являются копиями человеческого мозга; они лишь в малой степени вдохновлены его работой. Многолетние попытки воспроизвести человеческий мозг с его примерно 85 млрд. нейронов потерпели неудачу. Ближе всего ученые подошли к эмуляции мозга червя с 302 нейронами.

Нам нужен другой лексикон, который не плодит магические представления о компьютерных системах и не освобождает людей, разрабатывающих эти системы, от ответственности. Какова лучшая альтернатива? Благоразумные технологи уже много лет пытаются заменить «ИИ» на «системы машинного обучения», но это словосочетание не так хорошо ложится на язык.

Стефано Квинтарелли, бывший итальянский политик и технолог, предложил другую альтернативу под названием «Системные подходы к алгоритмам обучения и машинным выводам» («Systemic Approaches to Learning Algorithms and Machine Inferences», SALAMI), чтобы подчеркнуть нелепость вопросов, которые люди задают об ИИ. Является ли «салями» разумной? Сможет ли когда-нибудь «салями» преобладать над человеком?

Самая же безнадежная попытка семантической альтернативы, вероятно, самая точная: просто «программное обеспечение».

«Но, — спросите вы, — что плохого в использовании небольшого метафорического упрощения для описания технологии, которая кажется такой магической?».

Ответ заключается в том, что приписывание машинам интеллекта дает им незаслуженную независимость от людей и снимает с их создателей ответственность за их воздействие. Если мы считаем ChatGPT «умным», то мы менее склонны пытаться привлечь к ответственности за неточности и предубеждения его создателя — стартап OpenAI LP из Сан-Франциско. Это также создает фаталистическое настроение среди людей, которые страдают от пагубного влияния технологии. Это не «ИИ» отнимет у вас работу или создаст плагиат ваших творений — это сделают другие люди.

Эта проблема становится все более актуальной сейчас, когда компании от Snap до Morgan Stanley спешат подключать чатботы и внедрить в свои системы генераторы текстов и изображений. Подстегиваемая новой гонкой вооружений с Google, компания Microsoft внедряет технологию языковой модели OpenAI, пока еще практически не протестированную, в свои самые популярные бизнес-приложения, включая Word, Outlook и Excel. «Copilot в корне изменит то, как люди работают с ИИ и как ИИ работает с людьми», — говорит Microsoft о своей новой функции.

Но клиентов обещание работать с интеллектуальными машинами лишь водит в заблуждение. «ИИ — это один из тех ярлыков, которые выражают скорее утопическую надежду, чем реальность, подобно тому, как появление термина „умное оружие“ во время первой войны в Персидском заливе подразумевало бескровное видение абсолютно точного прицеливания, которое до сих пор невозможно», — говорит Стивен Пул, автор книги «Unspeak», об опасной силе слов и ярлыков.

Маргарет Митчелл, ученый-компьютерщик, уволенная Google после публикации статьи, в которой критиковались предубеждения в больших языковых моделях, в последние годы неохотно называет свою работу основанной на «ИИ». «Раньше... люди вроде меня говорили, что мы работаем над „машинным обучением“. Это отличный способ заставить людей опустить глаза», — призналась она на недавней конференции.

Ее бывший коллега по Google и основатель Distributed Artificial Intelligence Research Institute Тимнит Гебру рассказала, что она тоже начала говорить «ИИ» только в 2013 г.: «Так стало нужно говорить».

«Это ужасно, но я тоже так делаю, — добавила Митчелл. — Я называю все, к чему прикасаюсь, „ИИ“, потому что тогда люди будут слушать то, что я говорю».

К сожалению, слово «ИИ» настолько прочно вошло в наш лексикон, что от него почти невозможно избавиться, а обязательные кавычки трудно запомнить. Как минимум, мы должны напоминать себе о том, насколько такие системы зависят от менеджеров-людей, которые должны нести ответственность за их побочные эффекты.

Пул говорит, что предпочитает называть чатботы вроде ChatGPT и генераторы изображений вроде Midjourney «гигантскими машинами плагиата», поскольку они в основном рекомбинируют прозу и картинки, изначально созданные людьми. «Но я не уверен, что это название приживется», — сокрушается он.

Нас действительно заклинило с этим «ИИ».