Компания DSCon, дистрибьютор сетевых продуктов и решений Infiniband израильской фирмы Mellanox Technologies, в начале декабря объявила о начале поставок в Россию комплексного решения для построения высокоскоростной инфраструктуры интерконнектов на базе новейшей технологии 56Gb FDR InfiniBand. Она предлагает российским заказчикам, применяющим суперкомпьютерные кластеры, 36-портовые граничные коммутаторы Mellanox SX6025/SX6036, модульный коммутатор Mellanox SX6536 “директорского” класса на 648 портов, адаптеры Mellanox ConnectX-3 VPI для шины PCI Express Gen3, а также кабели производства Mellanox.

Технология InfiniBand сейчас является стандартом де-факто для построения суперкомпьютерных кластеров и применяется в большинстве суперкомпьютеров из списка Top 500, а также в некоторых системах хранения корпоративного класса и серверах баз данных (например, EMC Isilon, IBM XIV/DB2 PureScale, Oracle ExaData/Exalogic). В России инфраструктура интерконнектов на базе оборудования InfiniBand фирмы Mellanox Technologies используются в суперкомпьютерах МГУ, новосибирского и томского университетов и “Газпрома”.

Стандарт 56Gb FDR InfiniBand, принятый в июне прошлого года ассоциацией InfiniBand, обеспечивает скорость линии 14 Гбит/с или порта 56 Гбит/с (у предыдущего поколения InfiniBand QDR эти показатели быстродействия равны 10 и 40 Гбит/с соответственно). Однако для того, чтобы вычислительные узлы суперкомпьютерного кластера могли использовать всю полосу пропускания, предоставляемую 56Gb FDR InfiniBand, необходимо, чтобы в них были установлены платы ввода-вывода стандарта PCI Express Gen3, который только начинает внедряться в серверной индустрии, поскольку PCI Express второго поколения обеспечивает скорость передачи данных не более 27 Гбит/с. В частности, поддержка PCI Express Gen3 реализована в новом серверном чипсете Intel Sandy Bridge.

Версия для печати (без изображений)