Искусственный интеллект становится неотъемлемой функцией большинства распределенных компьютерных архитектур. Соответственно, аппаратные ускорители ИИ превратились в объект конкурентной борьбы прежде всего между производителями полупроводников NVIDIA, AMD и Intel, пишет ведущий аналитик компании Wikibon Джеймс Кобиелус на портале InformationWeek.

За последние месяцы производители аппаратных ускорителей ИИ активизировали свои усилия. Одним из главных событий стал выпуск Intel оптимизированного для ИИ нового поколения GPU Ponte Vecchio, первого в семействе Xe, которое ускорит также игры и высокопроизводительные вычисления.

Доминирование GPU-акселераторов в облаках

На рынке аппаратных ускорителей ИИ NVIDIA опережает других благодаря лидерству в области GPU и постоянному улучшению своих процессоров — их производительности, эффективности, стоимости и т. д. Хотя компания сталкивается с растущей конкуренцией как на рынке GPU, так и в других сегментах ускорителей ИИ (прежде всего это касается мобильных устройств, Интернета вещей и других периферийных вычислений), она сохранила свои позиции в войнах производителей чипов для ИИ и теперь готова к дальнейшему росту.

В ближайшие годы NVIDIA останется ведущим поставщиком микросхем, оптимизированных для широкого спектра задач, решаемых с помощью ИИ, от обучения до логического вывода, и развертываемых в облаках, корпоративных ЦОДах и на периферии. Несколько важнейших тенденций помогут компании сохранить доминирование на этом рынке.

Во-первых, облака останутся центром притяжения для ИИ. Согласно недавнему прогнозу фирмы McKinsey, до 2025 г. основную массу составят аппаратные ускорители, поддерживающие решение задач ИИ в ЦОДах и на серверах. На протяжении нескольких лет преобладающей задачей ИИ в облаках будет обучение на моделях. Правда постепенно начнет расти количество приложений для логического вывода, и эти задачи станут переноситься на мобильные, встроенные и другие периферийные устройства.

GPU NVIDIA зарекомендовали себя в качестве основной платформы обучения на базе облаков. В ближайшие 10 лет никакая другая технология аппаратного ускорения не сможет заменить GPU в этом качестве. Тем не менее, рост ИИ будет происходить главным образом в сегменте периферийных систем логического вывода. McKinsey прогнозирует, что до 2025 г. только в ЦОДах на аппаратуру для вывода придется вдвое больше затрат, чем на аппаратуру для обучения (9-10 млрд. долл. против 4-5 млрд.), а в области периферийных устройств втрое больше.

Во-вторых, NVIDIA пойдет на пользу то, что доминирование GPU в облаках обеспечит этой технологии долговременное использование в периферийных вычислениях. GPU остаются наиболее распространенной аппаратной технологией для решения задач ИИ в облаках с большим отрывом от прочих технологий. По оценке службы Liftr Cloud Insights компании DoubleHorn, в мае 2019 г. четыре главных облачных провайдера развернули GPU NVIDIA в 97,4% экземпляров IaaS со специализированными ускорителями. Маловероятно, что до середины десятилетия конкурирующие GPU производства AMD и Intel смогут серьезно потеснить продукты NVIDIA.

Компания использует свои лидирующие позиции в облаках для расширения присутствия в сфере периферийных вычислений. Это подтверждается установлением ею важных партнерских отношений с целью использования оснащенных GPU серверов для решения задач ИИ в отраслевых, гибридных и виртуализированных решениях для вычислительных сред облако-периферия. Даже после того, как конкурирующие технологии микросхем для ИИ, такие как CPU, FPGA и процессоры нейронных сетей, завоюют свою долю рынка периферийных устройств, GPU по-прежнему будут использоваться благодаря ключевой роли, которую они играют в средах облако-периферия, например, для автономных транспортных средств и отраслевых цепочек поставок.

Наконец, последнее в списке, но не по значению. Ставшие отраслевым стандартом впечатляющие показатели аппаратных ускорителей NVIDIA для ИИ дадут ей конкурентное преимущество по всем направлениям. Примечательно, что технология компании, как показывает свежий релиз теста MLPerf, ставит новые рекорды производительности как при обучении, так и при выводе. MLPerf стал стандартом де-факто для тестирования обучения ИИ, а после выхода теста MLPerf Inference 0.5 также и для логического вывода.

Недавно продемонстрированные продуктами NVIDIA наивысшие результаты в широком спектре тестов MLPerf на логический вывод ни в коем случае не являются трюком и с учетом их явного лидерства в тестах MLPerf на обучение не стали большим сюрпризом. Их быстрое распространение и отзывы клиентов подтверждают, что вся линейка аппаратуры и ПО NVIDIA для ИИ демонстрируют высочайшую производительность в любых задачах ИИ и при любых способах развертывания. Выдающиеся результаты тестирования являются еще одним подтверждением ориентации NVIDIA на недорогие высокопроизводительные платформы ИИ.

Первые места продуктов NVIDIA в тестах MLPerf во всех категориях (ЦОД и периферия, обучение и вывод) позволяют предположить, что компания скорее всего увеличит или по крайней мере сохранит лидирующие позиции на рынке продуктов для ЦОДов и серверов и добьется значительных успехов в решениях для периферии несмотря на наличие в этом сегменте десятков конкурентов, больших и маленьких, широко известных и начинающих.

Рынок подготовки логического вывода на периферии широко открыт

Тем не менее, достичь почти монопольного положения, которым NVIDIA обладает на рынке GPU для облаков, применительно к периферийным приложениям логического вывода будет почти неразрешимой задачей.

На этом рынке не будет доминировать ни один производитель аппаратуры или ПО. Сфера применения GPU, вероятно, ограничится облачными и серверными приложениями ИИ. В то же время другие технологии (CPU, ASIC, FPGA и различные процессоры нейронных сетей) будут увеличивать свои преимущества по сравнению с GPU по производительности, стоимости и энергоэффективности при обслуживании периферийных приложений.

Действительно, в операциях логического вывода на периферии сейчас доминируют CPU, а GPU NVIDIA плохо подходят для подготовки вывода на мобильных устройствах, в Интернете вещей и в других сценариях массового спроса. McKinsey прогнозирует, что в 2025 г. спрос на использование ИИ для вывода на 50% будут удовлетворять CPU, на 40% — ASIC. Оставшиеся 10% придутся на GPU и другие архитектуры.

Если взять только периферийную аппаратуру для вывода с помощью ИИ, то NVIDIA сталкивается с конкуренцией со стороны десятков производителей, которые либо поставляют, либо разрабатывают аппаратные ускорители вывода для ИИ. Непосредственными конкурентами NVIDIA, поддерживающими различные технологии микросхем вывода для ИИ, являются провайдеры-гиперскейлеры Amazon Web Services, Microsoft, Google, Alibaba и IBM, провайдеры облаков потребительского класса Apple, Facebook и Baidu, производители полупроводников Intel, AMD, ARM, Samsung, Xilinx и LG, а также огромное число китайских стартапов.

Хотя GPU NVIDIA продемонстрировали впечатляющую производительность в различных задачах для ИИ, потенциальное использование данной технологии на периферии ограничивается ее более высокой стоимостью и меньшей энергоэффективностью по сравнению со многими альтернативами.

Тем не менее, компания вступает в борьбу хорошо вооруженной. Значительным событием на рынке ускорителей вывода стал анонс модуля NVIDIA Jetson Xavier NX, который будет доступен в марте. Данный модуль обеспечивает на периферии производительность вывода системами ИИ на уровне сервера, имеет небольшие размеры, дешев, потребляет мало энергии и может развертываться в различных вариантах. Такие особенности сделают новую аппаратную платформу пригодной для ускорения вывода системами ИИ как на периферии, так и в ЦОДах.

При освоении периферии NVIDIA будет использовать в качестве главных конкурентных преимуществ свою библиотеку CUDA, API и вспомогательное ПО. Все это повсеместно применяется при разработке и использовании ИИ, и NVIDIA почти наверняка реализует подход «смоделируй однажды, развертывай везде» к этому набору инструментов работы с данными применительно ко всем своим микросхемам. Не удивительно, что Intel придерживается аналогичной стратегии, используя свой новый OneAPI, чтобы упростить программирование различных ускорителей ИИ, включая GPU, CPU и FPGA.

Вступая в борьбу за ускорение логического вывода на периферии, NVIDIA столкнется с уменьшением отдачи любых попыток отступить на основной для нее рынок обучения ИИ на моделях в облачной среде. Хотя сейчас она задает тон в этом сегменте, ее конкурентное преимущество будет сокращаться, поскольку AMD и Intel продолжают совершенствовать свои GPU для ИИ, высокопроизводительных вычислений, игр и других рынков.

Поскольку рынок движется в направлении использования различных технологий ускорения ИИ, конкуренция, вероятно, переместится в область инструментов науки о данных, соответствующих парадигме «смоделируй однажды, развертывай везде». Широко распространенные уровни абстракции, такие как Open Neural Network Exchange и Open Neural Network Specification, позволяют автоматически обобщить модель машинного обучения, созданную с помощью одного инструмента разработки клиентской части, для эффективного осуществления логического вывода с использованием разнородных ускорителей ИИ.

Все сказанное указывает на скорый переход в такой мир, где разработчики ИИ будут придавать меньше значения фирменным кросс-процессорным API, предоставляемым отдельными производителями оборудования, такими как NVIDIA или Intel. GPU и другие аппаратные бекэнд-платформы будут скрыты от разработчиков, поскольку экосистемы использующих множество технологий ускорителей ИИ распространятся от облаков до периферии.