Fujitsu и Huawei вступают в гонку по разработке собственных чипов для решения задач, связанных с ИИ.

Как рассказал на конференции China Internet Conference 2017 руководитель Huawei Юй Чэндун, пока что китайская компания не собирается выпускать собственные ИИ-устройства, вместо этого она решила предоставить аппаратную платформу, которой смогут воспользоваться сторонние производители электроники. Кроме того, вендор собрал более 27 тыс. разработчиков для работы над созданием «умной» экосистемы Huawei.

Китайская компания уже многие годы занимается разработкой мобильных процессоров Kyrin. Разработка собственных чипов позволяет ей не зависеть от основных поставщиков чипов для смартфонов и планшетов — Qualcomm и Mediatek. В ближайшее время Huawei закончит создание платформы Kirin 970, которая будет установлена во флагманском смартфоне компании Mate 10. Данный процессор получит специальные функции защиты платежных данных, поскольку компания намерена заняться и процессингом платежей. Кроме того, такие модули позволят использовать смартфон в качестве ключей для машин Audi, BMW и Porsche.

Тем временем Fujitsu, которая выпускает SPARC-процессоры для суперкомпьютеров и серверов, также решила потягаться с конкурентами, но уже в области разработок для ИИ. На днях вендор сообщил о создании сопроцессора DLU (Deep Learning Unit), состоящего из шестнадцати DPE (deep learning processing elements), каждый из которых, в свою очередь, содержит восемь SIMD, специально ориентированных на интенсивные нагрузки. DLU включает в себя HBM2 и 6-мерное соединение Tofu, что обеспечивает возможность масштабирования до десятков тысяч узлов, как это происходит в PrimeHPC.

Deep Learning Unit с шестью вычислительными модулями, к примеру, будет содержать 96 DPE. Fujitsu заявила, что сможет достичь требуемой точности с 8- или 16-разрядными данными, которые сейчас доступны лишь для FP32-вычислений. При этом компания рассчитывает, что ее DLU покажет 10-кратное превосходство в производительности по сравнению с конкурирующими решениями. Выход новых процессоров запланирован на 2018 г.

Создание DLU является частью проекта Human Centric AI Zinrai, который оптимизирует использование внутренней памяти графических процессоров (GPU) с целью поддержать увеличивающиеся масштабы нейронных сетей, используемых для повышения точности машинного обучения. Кроме того, компания планирует использовать эту технологию вместе с ранее представленной технологией для обработки данных в рамках глубинного обучения методом параллелизации графических процессоров.

Создание собственных чипов поможет Huawei и Fujitsu ослабить доминирование таких американских вендоров, как Intel, Google, Nvidia и AMD, которые стремятся удовлетворить растущий спрос на ИИ-решения и глубинное обучение во многих сферах, начиная с анализа данных и заканчивая беспилотными автомобилями. Microsoft, Google, IBM и другие компании выделили разработку ИИ-продуктов в отдельные департаменты, занятые решением сугубо прикладных задач.

Одним из первых вендоров, который распознал возможности, которые несет ИИ, стал Intel. Так, в августе прошлого года для создавая принципиально новых ускорителей вычислений компания приобрела Nervana. Имя этой компании дало название аппаратной платформе Intel для машинного обучения, включающей процессоры Xeon, ускорители Xeon Phi и FPGA компании Altera (поглощенной Intel в 2015 г.). В основе платформы Nervana лежат чипы Lake Crest и Knights Crest, которые подобно графическим процессорами и Xeon Phi состоят из большого числа вычислительных ядер, но фундаментально отличаются от обоих по используемой ISA и формату данных.

Если GPU и подобные устройства оперируют скалярными либо векторными величинами, то архитектура Lake Crest и Knights Crest пользуется тензорами — объектами, которые описывают преобразования элементов одного линейного пространства в другое и могут быть представлены как многомерные массивы чисел. Тензорная архитектура позволит новым ASIC с первого дня получить 10-кратное преимущество над ускорителями общего назначения. Первые ревизии Lake Crest будут получены уже в первой половине 2017 г.

На базе этого чипа Intel планирует выпустить дискретный ускоритель, оснащенный памятью HBM2 и проприетарной высокоскоростной шиной для коммуникации между узлами. Впоследствии появится гибридный продукт Knights Crest, включающий CPU Xeon, на котором можно будет непосредственно загружать ОС. Пользуясь новой архитектурой, Intel планирует к 2020 г. снизить расход времени на обучение нейросетей в 100 раз по сравнению с текущими стандартами.

Понимая весомость ИИ для отрасли, Intel нацелила на его применение один из свои основных продуктов — серверные процессоры Xeon. Недавно компания представила чипы Xeon Scalable. Производитель позиционирует их как решения для вычислительных центров и инфраструктуры сетей. Как утверждается, по сравнению с предшествующим поколением новые процессоры обеспечивают прирост производительности систем в 1,65 раза, а в приложениях ИИ — в 2,2 раза.

Не отстает от Intel и Nvidia. В прошлом году компания выпустила DGX-1 — систему, разработанную специально для задач глубинного обучения. В ее основе лежит новое поколение графических процессоров, которые обеспечивают скорость обработки данных, сравнимую с 250 серверами x86-архитектуры. Помимо этого Nvidia совместно с Bosch, являющейся крупнейшим поставщиком компонентов для автомобилей, разрабатывает ИИ для самоуправляемых автомобилей. Основой для компьютера Drive PX, создаваемого партнерами, служит однокристальная система Nvidia Xavier. Компьютер будут обладать способностями к обучению, а его ПО будет обновляться в процессе эксплуатации по беспроводному подключению, добавляя новые возможности. Nvidia также основала специальный институт глубинного обучения, где планирует ежегодно обучать 100 тыс. разработчиков систем ИИ.

Учитывая нестабильную динамику продаж графических процессоров, а тем более настольных, разработкой ИИ-решений занимается и главный конкурент Nvidia — AMD. В конце прошлого года вендор анонсировал ускоритель Radeon Instinct, который предназначен для поддержки широкого спектра решений в сфере машинного обучения.

Вместе с новыми аппаратными предложениями AMD также выпустила MIOpen — бесплатную библиотеку для графических ускорителей с открытым исходным кодом, которая поможет создавать высокопроизводительные версии ИИ, а также новые, оптимизированные системы глубокого обучения на базе ПО AMD ROC. AMD также инвестирует в разработку технологий интерконнекта, которые позволят обеспечить необходимую производительность для задач ИИ.

Согласно прогнозам IDC, к 2020 году 80% всех приложений будут содержать алгоритмы на основе ИИ. По данным доклада исследователей PwC, с помощью ИИ мировой ВВП к 2030 г. вырастет на 15,7 трлн. долл. и достигнет 90 трлн. долл. Прирост в 6,6 трлн. долл. будет связан с автоматизацией процессов производства. Понимая значение ИИ, Китай уже обнародовал национальный план, в соответствии с которым к 2020 г. стоимость ключевых для ИИ отраслей должна превысить 22,15 млрд. долл., а к 2025-му — 59,07 млрд. долл.

Этот план провозглашен в условиях, когда США намерены усилить контроль над инвестициями, опасаясь, что другие страны, включая Китай, смогут получить доступ к технологиям, имеющим стратегическое военное значение. Национальный план развития ИИ в США был принят в октябре прошлого года. Чтобы реализовать свой замысел, Китаю необходимо устранить нехватку высокопроизводительных процессоров и оборудования, ПО и квалифицированного персонала. Планом предусмотрено укрепление связей между частными компаниями, исследовательскими учреждениями и военными. Также отмечена возрастающая руководящая роль государства, которое будет направлять разработку, используя механизмы регулирования рынка.