Нейронные сети, алгоритмы машинного обучения и другие технологии, описываемые собирательным термином «искусственный интеллект» (ИИ), в настоящее время полагаются на графические ускорители. Именно GPU из всех существовавших решений оказались наиболее пригодными к обработке подобных данных. Однако изначально они разрабатывались вовсе не для таких задач и поэтому не являются идеальным вариантом для обработки ИИ-данных. Собственно, также как и чипы общего назначения, применяемые в настольных компьютерах или серверах.

На недавнем форуме Intel AI Day компания анонсировала продукты для ускорения высокопараллельных ИИ-вычислений. Отметим, что технологии, связанные с глубоким обучением, Intel приобрела вместе с покупкой компании Nervana, название которой стало названием платформы. Разработки Nervana довольно скоро должны появиться в процессорах Intel.

Тестовые версии Lake Crest будут выпущены в I половине 2017 г. На базе этого чипа Intel планирует выпустить дискретный ускоритель, оснащенный памятью HBM2 и проприетарной высокоскоростной шиной для коммуникации между узлами. Впоследствии появится гибридный продукт Knights Crest, включающий CPU Xeon, на котором можно будет непосредственно загружать ОС.

Чипы Lake Crest и Knights Crest состоят из большого числа вычислительных ядер, но фундаментально отличаются от GPU. Если GPU и подобные устройства оперируют скалярными либо векторными величинами, то архитектура Lake Crest и Knights Crest пользуется тензорами — объектами, которые описывают преобразования элементов одного линейного пространства в другое и могут быть представлены как многомерные массивы чисел. Тензорная архитектура позволит новым ASIC получить 10-кратное преимущество над ускорителями общего назначения.

Используя тензорную архитектуру, Intel планирует к 2020 г. снизить расход времени на обучение нейросетей по сравнению с текущими стандартами в 100 раз. Среди ближайших этапов стратегии — выход в 2017 г. нового поколения процессоров Xeon Phi, известных как Knights Mill. Ожидается, что они в четыре раза превзойдут своих предшественников по скорости глубокого обучения нейронных сетей. Уже начались поставки предварительного варианта Intel Xeon (Skylake) некоторым поставщика облачных услуг. К новшествам, появившимся в этих процессорах, относится расширение команд AVX-512, позволяющее увеличить скорость глубокого обучения нейронных сетей.

Intel также представила программируемые вентильные матрицы (FPGA) — чипсеты, которые можно перепрограммировать для выполнения узкопрофильных задач. Компания намерена использовать FPGA в серверах, самоуправляемых автомобилях, роботах и беспилотных летательных аппаратах. В следующем году Intel начнёт поставки специальной версии FPGA под названием Deep Learning Inference Accelerator, который должен составить конкуренцию Tensor Processing Unit от Google. Ко всему прочему, Intel объявила о создании специальной академии Nervana AI Academy, которая объединит научное сообщество, специалистов и стартапы, работающие в сфере ИИ. Эта академия будет регулярно проводить встречи, а также онлайн-семинары.