Компании IBM, ARM и Advanced Micro Devices в числе прочих ИТ-вендоров собираются сообща создать единую взаимосвязанную матрицу для дата-центров, которая позволит микропроцессорам и графическим ускорителям различных производителей обмениваться данными, не требуя для этого сложного программирования.

Если верить официальным представителям компаний-участниц проекта, новая шина с когерентным кэшем для ускорителей (Cache Coherent Interconnect for Accelerators, CCIX) повысит эффективность работы серверов и сделает их более пригодными к выполнению таких перспективных для дата-центров рабочих заданий, как аналитика больших данных, машинное обучение, беспроводные сети 4G и 5G, аналитика видеоданных и виртуализация сетевых функций (NFV).

В проекте также участвуют такие вендоры, как Huawei Technologies, Mellanox Technologies, Qualcomm и производитель программируемых вентильных матриц (FPGA) компания Xilinx, заявившая, что в новый план развития ее 16-нанометровых FPGA-чипов UltraScale+ будут входить модели с интегрированной высокоскоростной памятью (High-Bandwidth Memory, HBM) и поддержкой CCIX.

Матрица CCIX позволит различным микросхемам, графическим ускорителям и сетевым микрочипам — от процессоров и графических микросхем до FPGA-матриц — обеспечить беспрепятственный обмен данными между системами, построенными на базе этих компонентов. Новые виды рабочих нагрузок требуют все более быстрой и эффективной обработки данных, поэтому производители систем подключают к ЦПУ (как к чипам x86 производства Intel и AMD, так и к микропроцессорам POWER от IBM и однокристальным системам на базе архитектуры ARM) дополнительные вычислительные мощности в виде FPGA-матриц, графических процессоров (GPU) и цифровых сигнальных процессоров (DSP), чтобы быстрее, эффективнее и дешевле решать различные задачи.

Спецификация на единую взаимосвязанную сеть, позволяющую обмениваться данными процессорам с несовместимой функциональной архитектурой, должна ускорить реализацию этих возможностей.

«CCIX повышает производительность и способность к межсетевому взаимодействию внутри существующей сетевой инфраструктуры — фактически, она создает условия для появления следующего поколения стандартных сетевых интерфейсов между процессорами и графическими ускорителями, — сделал заявление Гилад Шайнер, вице-президент по маркетингу компании Mellanox. — При условии ожидаемого повсеместного принятия стандарта CCIX внутри экосистемы, в дата-центрах теперь можно будет оптимизировать объемы использования данных и таким образом достичь мирового уровня эффективности и масштабируемости при выполнении приложений».

Лакшми Мандьям, директор подразделения серверных систем и экосистем компании ARM, сообщила в своем заявлении, что «недифференцированный подход к рабочим нагрузкам в архитектуре дата-центров не обеспечивает должной производительности и эффективности. CCIX создает возможности для более оптимизированных решений путем упрощения разработки ПО и запуска приложений, работа которых улучшается благодаря специализированным режимам обработки данных и разгрузке аппаратного обеспечения, в результате чего пользователи смогут добиться более высокой производительности и извлечь больше пользы из дата-центров».

Идея с CCIX придется очень кстати в условиях, когда ЦПУ сами по себе уже не в состоянии ускорить работу приложений, считает Карл Фройнд, старший аналитик фирмы Moor Insights and Strategy.

«Задача предстоит не из легких, — пишет Фройнд в одной из рубрик журнала Forbes. — Построить интерфейс с когерентным кэшем между двумя—четырьмя однотипными микросхемами вроде ЦПУ — уже непростое дело. А построить такой интерфейс, который позволяет обмениваться данными между разнородными экземплярами ЦПУ, FPGA, GPU и сетевыми микросхемами, будет стоить титанических усилий. Однако если им это все же удастся, потенциальная выгода будет просто огромной: можно будет ускорять вычислительные и сетевые функции любого процессора по выбору, поддерживая при этом производительность на гораздо более высоком уровне, чем это возможно сейчас с использованием шины PCI, на которой основывается работа современных систем».

Он пишет, что несмотря на то, что шина PCI появилась более десяти лет назад, она не была предназначена для удовлетворения требований высокой скорости и малой задержки сигнала, необходимых при взаимодействии процессоров. Появилась потребность в шине или матрице с распределенной высокоскоростной памятью, в рамках которой все процессоры и ускорители «ведут себя как объекты первого класса».

Вендоры уже проделали определенную работу по улучшению взаимодействия между процессорами и ускорителями. В прошлом году Intel с этой целью приобрела за 16,7 млрд. долл. производителя FPGA-матриц Altera и, вероятно, будет работать над созданием соответствующей архитектуры. Более того, IBM использует свою технологию интерфейса с когерентным кэшем между ускорителем и процессором (Cache-Coherent Accelerator Processor Interconnect, CAPI) для улучшения связи между своими микропроцессорами Power8 и FPGA-матрицами производства Xilinx, а разработанная компанией Nvidia шина NVLink используется для повышения скорости связи между процессорами IBM с архитектурой POWER и графическими процессорами Nvidia.

Тем не менее, по мнению Фройнда, проблема в том, что технологии вроде CAPI и тех, над которыми работает Intel, привязаны к конкретному вендору. Нужен более коллективный подход.

«IBM OpenPOWER, Advanced Micro Devices x86, ARM-партнеры AMD, Qualcomm и Huawei — все эти компании могут заняться проблемой в одиночку, а могут и объединить усилия, — пишет он. — Из-за отказа от сотрудничества они могут сильно сдать свои позиции в пользу Intel и столкнуться с угрозой дробления рынка, что будет непростительно для данной отрасли».