Получивший поддержку AWS и других маститых ИТ-компаний, формат ONNX для оперативной совместимости фреймворков искусственного интеллекта готов к работе.

Как сообщили Microsoft, Facebook и Amazon Web Services, партнеры по Open Source-проекту формата Open Neural Network Exchange (ONNX), обеспечивающего интероперабельность фреймворков искусственного интеллекта (ИИ), этот формат уже можно начинать использовать. Выход его версии 1.0 является крупной вехой в развитии софтверной экосистемы ИИ, с которым последняя сможет стать более доступной для разработчиков и предприятий, заинтересованных в развертывании собственных систем.

Изначально создававшийся в кооперации Microsoft и Facebook, формат ONNX разрешает проблемы отличий между разными ИИ-фреймворками, открывая разработчикам быстрый доступ к использованию того из них, который наиболее соответствует их прикладным требованиям, и избавляя их от трудоемких интеграционных задач оптимизации фреймворков.

Впервые представленный в сентябре, ONNX сегодня, спустя считанные месяцы, уже готов помогать компаниям в ускорении их ИИ-разработок. «После первичного анонса мы внесли в ONNX много обновлений и улучшений, в том числе с учетом реакции сообщества, чтобы формат работал для многих ИИ-приложений, включая машинное зрение», — сообщил главный менеджер программы Microsoft Прасант Пулаварти. По его словам, в дополнение к глубокому обучению ONNX также включает профиль ONNX-ML, поддерживающий классическое машинное обучение.

Он добавил, что Facebook и AWS готовятся обеспечить поддержку ONNX для фреймворков Caffe2, PyTorch и MXNET.

На данный момент ONNX лучше всего подходит для ИИ-систем, интерпретирующих визуальную информацию. Но, как заявляют в Facebook, это скоро изменится. «Для будущих версий мы работаем вместе с партнерами и сообществом ONNX над расширением формата на сценарии, выходящие за рамки зрения, включая более динамические модели, связанные с такими областями, как моделирование языка», — написали в корпоративном блоге Facebook Research технический менеджер программы Сара Берд и софтверный инженер Дмитро Джулгаков.

Виды на ONNX имеют не только сервис-провайдеры облачных вычислений. Формат также заинтересовал компании, занимающиеся аппаратурой. «О поддержке ONNX для своих аппаратных платформ заявили многие хардверные партнеры, включая Qualcomm, Huawei и Intel, и благодаря этому пользователям станет легче запускать свои модели на разных аппаратных платформах», — отметил Суквон Ким, старший менеджер по продуктам AWS Deep Learning.

AMD, ARM и IBM тоже принадлежат к числу крупных ИТ-компаний, присоединившихся к поддержке ONNX после его дебюта в сентябре. А 4 декабря Nvidia объявила о совместимости ONNX со своим TensorRT, компонентом комплекта сервисов Nvidia GPU Cloud (NGC) для разработчиков. TensorRT является системой поддержки инференса глубокого обучения, применяемой при оптимизации и развертывании нейронных сетей.

IBM и Nvidia, опекающие ONNX, на днях привлекли внимание презентацией системы IBM Power System AC922 для рабочих нагрузок ИИ и глубокого обучения. Она укомплектована новым процессором Power9, графическими процессорами Nvidia и высокопроизводительной подсистемой межсоединений, отвечающей современным требованиям для ресурсоемких и нуждающихся в быстродействии рабочих нагрузок ИИ.

Подсистема соединяет PCI-Express 4.0, архитектуру OpenCAPI и новейшую технологию межсоединений NVLink от Nvidia, ускоряющие перемещение данных между графическими и центральными процессорами. IBM заявляет, что эта комбинация может переносить данные в 9,5 раз быстрее, чем x86-системы на базе PCIe 3.0 с серверными процессорами Intel Xeon.

Версия для печати