NVIDIA представила графический процессор NVIDIA A100 80GB для супервычислительной платформы NVIDIA HGX AI, с вдвое большей памятью, чем у предшественника, обеспечивая исследователям и инженерам беспрецедентную скорость работы и производительность, которая позволит совершать новые открытия в области искусственного интеллекта и науки.

Новый процессор A100 с технологией HBM2e обладает удвоенным объемом высокоскоростной памяти до 80 Гб по сравнению с A100 40GB и обеспечивает полосу пропускания более 2 терабайт в секунду. Это позволяет быстро передавать данные на A100, самый быстрый в мире GPU для центров обработки данных, и еще больше ускорять приложения и использовать еще более крупные модели и наборы данных.

«Для достижения высоких результатов в исследованиях высокопроизводительных вычислений и искусственного интеллекта необходимо создавать самые большие модели, но для этого требуется больше объема памяти и пропускной способности, чем когда бы то ни было, — сказал Брайан Катанзаро (Bryan Catanzaro), вице-президент NVIDIA по прикладным исследованиям в области глубокого обучения. — Графический процессор A100 80GB обеспечивает вдвое больший объем памяти, чем его предшественник, который был представлен всего полгода назад, и преодолевает барьер в 2 ТБ/с, позволяя исследователям решать самые важные мировые задачи науки и больших данных».

GPU NVIDIA A100 80GB доступен в системах NVIDIA DGXTM A100 и NVIDIA DGX StationTM A100, которые также анонсированы сегодня и появятся в продаже уже в этом квартале.

Ведущие поставщики систем Atos, Dell Technologies, Fujitsu, GIGABYTE, Hewlett Packard Enterprise, Inspur, Lenovo, Quanta и Supermicro начнут поставки систем, построенных на интегрированных базовых платах HGX A100 в конфигурациях с четырьмя или восемью GPU A100 80 ГБ, в первом полугодии 2021 года.

80 Гб модель, обладающая широкими возможностями A100 40GB, идеально подходит для широкого спектра приложений с высокими требованиями к памяти.

Для обучения ИИ в моделях рекомендательных систем, таких, как DLRM, есть огромные таблицы, представляющие миллиарды пользователей и миллиарды продуктов. A100 80GB обеспечивает ускорение до 3-х раз, поэтому компании могут быстро переобучать эти модели для создания более точных рекомендаций.

A100 80GB также позволяет обучать самые большие модели с большим количеством параметров, подходящих для одного сервера на базе HGX, такого как GPT-2, модель обработки естественного языка со сверхчеловеческой способностью генерировать текст. Это устраняет необходимость в параллельных архитектурах данных или моделей, которые могут занимать много времени при создании и медленно работать на множестве узлов.

Благодаря технологии MIG (multi-instance GPU) процессор A100 можно разделить на инстансы, до семи, каждый с 10 Гб памяти. Это обеспечивает безопасную аппаратную изоляцию и максимально увеличивает использование GPU для множества небольших рабочих задач. Для инференса моделей автоматического распознавания речи, таких как RNN-T, один инстанс MIG A100 80GB может работать с пакетами гораздо большего размера, обеспечивая в 1,25 раза более высокую скорость инференса в работе.

В тесте аналитики больших данных для розничной торговли в терабайтном диапазоне A100 80GB повышает производительность до двух раз, что делает его идеальной платформой для быстрого получения аналитических данных по самым большим наборам данных. Компании могут принимать ключевые решения в реальном времени по мере динамического обновления данных.

A100 80GB может обеспечить огромное ускорение и в научных приложениях, таких, как прогнозирование погоды и квантовая химия. Quantum Espresso, приложение имитации материалов, увеличило пропускную способность почти в два раза с одним узлом A100 80 Гб.

«Высокая пропускная способность и большая емкость памяти критически важны для достижения высокой производительности в суперкомпьютерных приложениях, — говорит Сатоши Мацуока (Satoshi Matsuoka), директор Центра вычислительных наук RIKEN. — NVIDIA A100 с 80 Гб памяти HBM2e, обеспечивающей высочайшую пропускную способность в 2 Тб в секунду, поможет значительно повысить производительность приложений».

A100 80GB включает в себя множество потрясающих функций архитектуры NVIDIA Ampere:

  • тензорные ядра третьего поколения: до 20 раз выше скорость в ИИ по сравнению с предыдущим поколением Volta с новым форматом TF32, а также в 2.5 раза выше в вычислениях FP64 для HPC, в 20 раз выше в вычислениях INT8 для инференса и поддержка формата BF16;
  • больше и быстрее память HBM2e: удвоение пропускной способности памяти и впервые в индустрии полоса пропускания свыше 2 Тб/с;
  • технология MIG: удвоение памяти на изолированный инстанс, до семи MIG-систем с 10 Гб памяти каждая;
  • структурная разреженность: ускорение до 2 раз в инференсе разреженных моделей;
  • NVLink и NVSwitch третьего поколения: удвоение полосы пропускания между GPU по сравнению с предыдущей технологией связи ускоряет передачу данных на GPU для ресурсоемких задач до 600 Гб/с.

Графический процессор A100 80 Гб — это ключевой элемент супервычислительной платформы NVIDIA HGX AI, которая объединяет всю мощь графических процессоров NVIDIA, технологий NVIDIA NVLink, NVIDIA InfiniBand и полностью оптимизированного программного стека NVIDIA AI и HPC для высочайшей производительности приложений. Это позволяет исследователям и ученым сочетать высокопроизводительные вычисления, аналитику данных и глубокое обучение для продвижения научного прогресса.