Если ИИ использует лишь небольшая группа компаний, маловероятно, что он будет внедряться достаточно широко, считает советник Microsoft по стратегической политике Дейв Хайнер.

Наибольшей угрозой для развития искусственного интеллекта (ИИ) являются недостаточные темпы его внедрения во все сферы человеческой деятельности, считает Дейв Хайнер, советник Microsoft по стратегической политике. «Везде, где полезно использование интеллекта, то есть практически повсюду, может быть полезен и ИИ, — заявил он на состоявшейся в ноябре в Сиднее конференции Microsoft Summit. — Но такая перспектива пока что не просматривается. Если ИИ используется всего четырьмя-пятью компаниями, трудно ожидать его достаточно широкого внедрения».

Хайнер также отметил, что искусственный интеллект (хотя сам он предпочитает термин «вычислительный интеллект») призван усиливать умственные способности человека в таких отраслях, как, например, образование, здравоохранение и госуправление, а не делать людей ненужными.

Придерживаясь аналогичного взгляда, генеральный управляющий подразделения Microsoft AI Стив Клейтон сказал, что компания убеждает бизнес-лидеров «сменить настрой на снижение трудозатрат и автоматизацию настроем на творчество и созидание».

«Если вы откроете какую-нибудь поисковую систему и введете термин „искусственный интеллект“, то вы наверняка натолкнетесь на картинки роботов, гуманоидов и вещей, связанных с автоматизацией, и мне кажется, что нынешние разговоры об ИИ ведутся в том духе, что он будет повелевать обществом», — отметил он на Microsoft Summit.

Между тем, как считает Джулия Уайт, корпоративный вице-президент Microsoft Azure, аргумент «ИИ заменит человека» неявно предполагает, что люди не являются «обучающимися, развивающимися и адаптирующимися живыми существами».

«До сих пор технология дополняла наши возможности, и у нас нет оснований думать, что ее следующее поколение будет иным. Ведь если сегодня я могу пользоваться смартфоном и ПК, это вовсе не значит, что я, как человек, уже ничего не значу. Наоборот, мои способности выросли. Я могу взаимодействовать с более широким кругом людей. Я могу действовать эффективнее. Я могу получать больше результатов, — сказала она. — Вспомним, как 30 лет назад люди обсуждали вопросы типа „Что произойдет, если я смогу вести свои финансовые дела онлайновым способом и мне не нужно будет встречаться с бухгалтером или банковским работником?“. Финансовые работники смогут делать более важные вещи, а не заниматься бумажной работой, и сегодня они действительно занимаются более полезными делами».

При нынешних глобально генерируемых объемах данных возможность использовать эти данные на благо общества слишком велика, чтобы ее можно было игнорировать, полагает Клейтон.

«Эти данные поступают от большого разнообразия устройств, которые работают в нашем мире, будь то ПК, „умные“ звуковые колонки, а самое главное всевозможные датчики, имеющиеся на производстве, на сельскохозяйственных фермах или в больницах. Сегодня эти IoT-датчики подключены к Интернету и генерируют гигантские объемы данных, причем этот фактор сочетается с рядом осуществленных в последние два-три года реальных прорывов в сфере мощных алгоритмов, в частности, в области машинного обучения и области, которую называют глубокими нейронными сетями. Мы имеем возможность загружать огромные объемы данных для крупномасштабных вычислений, начиная обучать компьютеры способности видеть, слышать, распознавать и понимать мир таким же образом, как это умеют люди», — сказал он, добавив, что сегодня, по мнению Microsoft, интеллектуально используется менее полпроцента доступных нам данных.

Однако компании, поддерживающие ИИ, должны прежде всего обеспечить, чтобы потребители полностью доверяли этой технологии, считает Хайнер.

«Мы нуждаемся в этом доверии, потому что ИИ-системы зависят от данных. Если мы хотим использовать ИИ, чтобы принимать лучшие решения в отношении людей, например, определять, кто имеет риск инфаркта или кому нужно предоставить определенный орган для трансплантации, нам нужно иметь данные о людях, — сказал он. — Если люди не верят, что их данные будут использованы для благих целей, они не станут ими делиться. Если люди не доверяют результатам ИИ-системы, они не станут пользоваться ИИ. Нам непременно нужно усердно поработать над рядом социальных вопросов, возникающих в связи с ИИ, типа надежности систем, приватности данных, непредвзятости результатов и прозрачности функционирования этих систем, а также реально уметь объяснить, как они работают».

Недавно Австралийская комиссия по защите конкуренции и потребителей (ACCC) заявила, что применение ИИ упростит возможности для картельных сговоров и сдерживания рыночной конкуренции, причем без явного нарушения каких-либо законов о конкуренции. Внедрение глубинного обучения и ИИ может привести к тому, что компании не будут знать, как и почему машина пришла к тому или иному заключению, сказал председатель ACCC Род Симс, добавив, что в Австралии компания не сможет избежать ответственности, оправдавшись фразой «это сделал мой робот».

«Указывают, что алгоритм максимизации прибыли приведет к олигополистической ценовой игре и, будучи чисто логическим и слабо зависимым от человеческого воображения, закрепит эту ситуацию», — отметил он.

ACCC предпринимает меры по потенциальным антиконкурентным рискам, связанным с ИИ, вводя новые описания злоупотреблений доминированием на рынке, дополняющие закон Competition and Consumer Act 2010, которые, по словам Симса, направлены, например, на то, чтобы запретить компании с господствующим положением на рынке использовать алгоритм машинного обучения, который ей помогает диктовать потребительские цены, максимизирующие ее прибыль, и выдавливать этим способом конкурентов.

Ранее в ноябре федеральные парламентарии Бриджет Макензи и Эд Хьюзик заявили, что австралийцам из разных слоев общества нужна серьезная дискуссия о потенциальных последствиях использования ИИ и границах, которые следует установить, чтобы ИИ развивался и использовался на благо людей.

Сенатор Макензи, являющаяся председателем комитета по иностранным делам, обороне и торговому законодательству, считает: если такие выдающиеся умы, как Стивен Хокинг и Илон Маск, предупреждают, что «дьявольские силы ИИ» при отсутствии должного мониторинга и регулирования могут уничтожить человечество, нам не следует беспечно отмахиваться от этих предостережений.

«Нежелательно, чтобы ИИ использовался для решения наших многочисленных социальных проблем, которые упорно не сдвигаются с места и тревожат общество, то есть уже застарели. Соответствующие дискуссии должны проводиться заблаговременно и иметь рациональные и разумные основания, — заявила Макензи. — Мы не призываем бояться технологии или сторониться нового. Мы говорим про разумную настороженность и реальное понимание потенциала этой технологии. Который состоит в том, это будет не просто робот, слушающий ваши команды — это будет робот, способный сам думать».

«Какое количество технологически оборудованной инфраструктуры вы сможете надеть на свое тело, чтобы стать роботом?» — пошутила она.

Теневой министр цифровой экономики Эд Хьюзик полагает, что у Австралии есть возможность стать во главе соответствующих инициатив, добавив что первые дискуссии об ИИ не обязательно фокусировать на регулировании.

«Давайте обсудим границы, которые нам необходимо поставить. Ясно, что людям нужна творческая свобода в разработках и использовании ИИ в направлении, которое может принести наибольшие блага для человечества, но не споткнемся ли мы о невидимую растяжку? Мне кажется, в реальности мы недостаточно вникаем в эти вещи, — сказал он. — Я думаю, что наша страна должна это сделать дипломатическим приоритетом, работая со сходно мыслящими нациями, чтобы на мировом уровне начать думать о том, что делать дальше. Если Всемирный экономический форум заявит, что это вопрос для размышлений, и при этом не станет поспешно принимать регуляторные меры, то нам здесь следует серьезно призадуматься».

Другие, как например швейцарский нейробиолог и основатель компании Starmind Паскаль Кауфман, считают, что «настоящий ИИ» пока в принципе не существует, потому что компании уподобляют человеческий мозг компьютеру. Однако мозг обрабатывает информацию, извлекает знания или использует память не так, как компьютер. Не так давно он заявил, что ИИ будет оставаться застойной областью технологии, «пока не будет взломан код мозга».

На сегодняшний день ИИ часто сводится лишь к «человеческому интеллекту программистов, сконденсированному в исходном коде», и пока мы не поймем естественный интеллект через нейробиологию, мы не сможем создать его искусственную разновидность, уверен Кауфман.

Версия для печати