Хотя ИТ являются одной из самых передовых отраслей, большинство ИТ-руководителей довольно консервативны. Выделенные СХД появились еще в начале 1990-х, но потребовалось почти четверть века, чтобы большинство организаций перешло на ставшую уже классической схему «серверы — SAN — СХД». Многие продолжали «сидеть» на серверах даже тогда, когда хранение данных в СХД превзошло их по надежности, а ИТ-бюджеты «сытых» 2000-х были вполне достаточными для переоснащения.

Бурный рост выделенных СХД пришелся на времена, когда главными носителями информации были обычные HDD. Скорость доступа к информации на таких дисках была гораздо ниже, чем обеспечивали SAN. Поэтому СХД гармонично вписались в ИТ-инфраструктуру. А практически неограниченная емкость позволила хранить резко выросшие объемы информации.

Появление гиперконвергентных систем

Но любые технологии со временем устаревают и уступают место более совершенным. Хотя положение классических СХД кажется сегодня незыблемым, ситуация меняется очень быстро. Это происходит под влиянием трех основных факторов:

  • появление большого числа производителей гиперконвергентных решений, ведущих себя на рынке очень агрессивно;
  • расширение использования твердотельных накопителей и рост емкости дисков;
  • физическое и моральное устаревание большого парка СХД предыдущих поколений, требующих замены.

Итак, с некоторым отставанием от СХД на рынок стали выходить гиперконвергентные решения. Хотя кластерные серверные системы известны достаточно давно и использовались крупными сервис-провайдерами (например, Google), на ИТ-рынке они были малоизвестны. Поэтому неудивительно, что некоторые из гиперконвергентных стартапов (например, Nutanix), были организованы бывшими сотрудниками Google, Facebook и Amazon. А основатели других были дальновидными выходцами из ИТ-вендоров (например, основатель Simplivity работал в ЕМС). Эти люди уже в 2000-х видели все недостатки разделенных ИТ-систем и работали над гиперконвергентными решениями, объединяющими серверы, СХД и SAN «в одной коробке». Третьи решения были разработаны в недрах самих производителей СХД. Например, ЕМС сначала выпустила конвергентные устройства — VBlock (СХД и серверы там физически разделены, но управляются как единое целое), а затем и гиперконвергентные — VxRail.

Как обычно, рынок встретил новые технологии настороженно. Все уже привыкли хранить информацию в СХД, а обрабатывать ее на серверах. В классическую ИТ-инфраструктуру были сделаны огромные инвестиции — как со стороны вендоров, так и со стороны заказчиков. Поэтому в первые годы продажи гиперконвергентных устройств были не слишком большими, несмотря на значительные маркетинговые вливания.

Ограничения выделенных СХД

С расширением использования Flash-накопителей увеличились требования к производительности SAN. И оказалось, что между процессором, где информация обрабатывается, и SSD, где она хранится, слишком много посредников. А одна-две полки с Flash-накопителями может «забить» контроллеры массива, что критически сказывается на его производительности. Для ускорения доступа к данным даже стали использовать «костыли» в виде кэш-памяти СХД, расположенной непосредственно на серверах. Но это является лишь полумерой, а постоянный рост быстродействия Flash-накопителей вскоре сделает посредничество в виде SAN вообще неприемлемым.

Во II квартале этого года Intel выпустит на рынок накопители Optane на основе технологии 3D Xpoint. Производительность этих дисков на порядки (до 1000 раз) выше, чем у текущих NAND Flash-накопителей. А через несколько лет HPE обещает вывести на рынок решение The Machine, использующую еще более быстрые мемристоры. Эта энергонезависимая память заменит не только диски, но и модули DDRAM. Понятно, что такая быстрая память должна находиться рядом с процессором, на одной с ним шине. И где тут место для SAN?

Кроме того, выделенные СХД развивались в те времена, когда HDD обладали небольшой емкостью и скоростью, поэтому их требовалось много. 15К диски вмещали всего несколько сотен гигабайт, а медленные накопители — 1-2 Тб. Сейчас ситуация изменилась. Для хранения доступны Enterprise HDD на 8-10 Тб, отпала надобность в быстрых дисках из-за широкого распространения автоматического тиринга (когда активные данные хранятся на быстрых SSD, а остальные перемещаются на дешевые SATA-диски), а емкость SSD уже сейчас может составлять 15 Тб для 2,5’’ форм-фактора (Samsung PM1633a) и продолжает стремительно расти. Кроме того, мощные современные процессоры и отработанные технологии сжатия и дедупликации позволяют гиперконвергентным устройствам многократно уменьшить объем сохраняемой информации. Поэтому уже сейчас один 2U-сервер с полной дисковой набивкой может хранить сотни терабайт информации, обрабатываемой на нем же.

Также все владельцы СХД сталкиваются с ситуацией, когда система морально и физически устарела, сервис для нее уже не купить или он стоит очень дорого. Приходится единовременно тратить от нескольких десятков тысяч до нескольких миллионов долларов на новую СХД, переносить на нее приложения (зачастую требуется их полная остановка), обновлять SAN, переобучать персонал и т. д.

Преимущества новых технологий

С гиперконвергентными устройствами всех вышеуказанных проблем нет. Информация обычно хранится и обрабатывается на одном и том же сервере. Поскольку это программно-определяемое решение, то морально оно не устаревает и пятилетняя нода (узел кластера) будет работать на самой последней версии ПО. Начать можно с трех нод и далее добавлять их по мере необходимости. Через пять и более лет старые ноды можно изъять из кластера, предварительно переместив приложения на новые серверы. Все это делается прозрачно, без остановки сервисов. Из старых серверов можно создать отдельный кластер и использовать его для тестовых целей, хранения архивов и второстепенной информации. В любом случае, гиперконвергентный кластер обладает высокой отказоустойчивостью и может терять любые компоненты без остановки сервисов. А учитывая, что такие решения обычно базируются на стандартных серверах, после окончания гарантии и вывода из продуктива запчасти можно покупать по самым низким ценам.

Еще противники гиперконвергенции говорят, что если в кластере закончилось дисковое пространство, а производительность далеко не исчерпана, все равно приходится закупать новые ноды для расширения емкости. Это давно не так. Ведущие вендоры имеют эффективные сайзеры и множество версий серверов под любую задачу. Есть мощные многоюнитовые ноды под тяжелые вычисления и Big Data, есть ноды хранения, набитые дешевыми дисками, есть маленькие ноды, занимающие половину юнита, для СМБ и филиалов, а также промежуточные решения. Причем у лучших вендоров все эти ноды могут работать в едином кластере, и заказчик всегда может выбрать оптимальное «железо» под каждую конкретную задачу. А в случае необходимости приложение всегда можно прозрачно перенести на более подходящий узел. Также есть возможность приобрести отдельно ПО и поставить его на серверы, входящие в список совместимости вендора.

Российский рынок гиперконвергентных решений

В настоящий момент в мире существует более десятка производителей гиперконвергентных решений. Но в России присутствуют только самые крупные, имеющие возможность инвестировать в развитие нашего рынка. Подробное описание каждого решения — это тема не одной отдельной статьи, поэтому давайте кратко рассмотрим, что сейчас доступно российским пользователям (в алфавитном порядке).

Cisco выпустила свое гиперконвергентное решение HyperFlex в 2016 году. Оно базируется на хорошо известных серверах Cisco UCS, коммутаторах Nexus и ПО от компании SpringPath. Понятно, что такое решение наилучшим образом подойдет постоянным клиентам Cisco, чья ИТ-инфраструктура основана на решениях данного вендора.

Для Dell EMC основным гиперконвергентным решением является линейка VxRail/VxRack (для СМБ/корпоративных клиентов), базирующаяся на ПО VMware Virtual SAN и серверной платформе PowerEdge. Также поставляется линейка XC, основанная на ПО от компании Nutanix и поддерживающая все основные гипервизоры. Первое решение предназначено для клиентов VMware, а второе — для всех остальных.

HDS вышла на рынок с платформой UCP HC V240. Решение базируется на серверах Hitachi, собственном ПО и поддерживает несколько гипервизоров.

HPЕ до недавнего времени предлагала решение Hyper Converged, базирующееся на программно-определяемой СХД StoreVirtual. Очевидно, оно не слишком устраивало вендора, так как в начале этого года HPE купила стартап SimpliVity. В ближайшее время вендор обещает выпустить линейку HPE SimpliVity на серверах ProLiant и интегрировать его с другими своими решениями.

Huawei вышла на рынок HCI в 2014г. с системой FusionCube. Она построена на базе блейдовой корзины E9000 и оснащена распределенной системой хранения FusionStorage. Решение предназначено для крупных инсталляций, так как кластер занимает минимум 12 юнитов.

Lenovo на рынке гиперконвергенции представлена серией Converged HX. Решение базируется на серверах Lenovo и ПО от Nutanix.

Nutanix выпускает гиперконвергентные системы на собственном ПО и серверах Supermicro. Также решение доступно по ОЕМ-соглашению через каналы Dell EMC и Lenovo. Поддерживает все основные гипервизоры, а также имеет свой бесплатный гипервизор Acropolis.

VMware имеет свой программный гиперконвергентный продукт — vSAN. Он подойдет заказчику, у которого уже есть серверы и он не хочет покупать дополнительное «железо», а желает расширить функционал существующего. При этом пользователь ограничен списком рекомендуемого совместимого оборудования, а гипервизор может быть только от VMware.

Как видите, выбрать подходящее решение в России не так уж и сложно. Зачастую заказчики привязаны к конкретному вендору и гиперконвергентную систему выберут тоже от него. Те, кто свободен в выборе, могут сравнить несколько наиболее подходящих по возможностям и цене решений, взять оборудование на тестирование (например, в нашей компании) и запустить на нем рабочие приложения.

Пока мало компаний, которые готовы сразу делать проект уровня дата-центра на гиперконвергентном оборудовании. Поэтому заказчики сначала ставят несколько нод под серверную виртуализацию и VDI. Потом, по мере устаревания классического оборудования, переносят на кластер почту, базы данных и другие рабочие приложения. Некоторые модели настолько мощны, что их уже берут под обработку больших данных. И если на начальном этапе гиперконвергентные решения использовали только компании СМБ, то сейчас они есть и у крупнейших государственных и коммерческих организаций. Аналитики предполагают, что гиперконвергентные решения будут вытеснять классические системы и в будущем займут основную долю ИТ-рынка.

Автор статьи — эксперт по гиперконвергентным решениям, компания OCS.

ПОДГОТОВЛЕНО PC WEEK EXPERT

Другие спецпроекты

Версия для печати