Программно-определяемое хранение (SDS) — это стратегия выхода на рынок, которая разделяет оборудование и программное обеспечение для хранения. Относительное отсутствие успеха SDS, за исключением нескольких узконаправленных случаев использования, подчеркивает тот факт, что получение преимуществ здесь не обходится без рисков и затрат как для поставщиков, так и для заказчиков. В данной статье я расскажу о преимуществах программно-определяемого хранения.

Гибкость — перемещение данных между массивами или центрами обработки данных является трудоемким, ресурсоемким и подверженным ошибкам процессом. Перемещение битов из одного места в другое — реальная работа, а также причина, по которой данные обычно остаются там, где они были впервые сохранены, даже если это больше не является экономически эффективным. Однако на рынке хранения данных существуют решения, которые позволяют перемещать информацию между DRAM, Flash и жесткими дисками в режиме реального времени без участия человека, чтобы оптимизировать соотношение цена/производительность и не использовать сеть SAN.

Масштабируемость — для решений SDS, представляющих собой виртуальный программно-определяемый массив, это утверждение не является справедливым, потому что в них используется то же самое программное обеспечение, которое работает на классических массивах поставщиков. Однако для решений SDS с горизонтальным масштабированием это в основном верное утверждение, но основанное на многих гипотезах, среди которых наиболее значимыми являются:

  • у SDS с горизонтальным масштабированием затраты на приобретение и владение ниже, чем у массивов хранения;
  • производительность будет линейно масштабироваться и обеспечивать стабильную работу с большим количеством узлов;
  • смешивание асимметричных конфигураций и узлов различных поколений в одном кластере не вызовет проблем. Это почти неизбежно, если организация реализует стратегию своевременного обновления из-за короткого срока службы серверов, жестких дисков и твердотельных накопителей;
  • вертикально масштабируемые массивы не могут удовлетворить потребности организации в производительности и емкости;
  • поставщики SDS без высокой прибыли от продаж оборудования могут эффективно организовывать техническую поддержку и финансировать исследования и разработки на достаточно высоком уровне, чтобы поддерживать широкие матрицы совместимости и повышать конкурентоспособность продукции.

Производительность — иметь больше производительности звучит великолепно, однако без понимания точки отсчета это не имеет смысла. Кроме того, если реальная потребность организации превысила прогнозируемый уровень на 30% или более в течение планируемого срока эксплуатации решения хранения данных, это не имеет значения. А если поддержание постоянной производительности требует частой и детальной настройки, более высокие затраты на владение «помогут» легко распрощаться со средствами, которые были сэкономлены на приобретении.

Больше отказоустойчивости  поскольку в горизонтально масштабируемых архитектурах обычно больше компонентов, чем в вертикально масштабируемых массивах с сопоставимой производительностью и емкостью, им требуется больше отказоустойчивости, чтобы соответствовать возможной доступности массивов. Однако за этим простым и логичным наблюдением появляются более фундаментальные и важные.

Если говорить более конкретно:

  • отказы HDD и SSD составляют основную часть аппаратных отказов в вертикально или горизонтально масштабируемом массиве. Следовательно, именно MTBF жестких дисков и твердотельных накопителей, количество сбоев, которые можно допустить, при этом гарантируя целостность данных, и время восстановления данных на оставшиеся диски будут больше всего влиять на среднее время между потерями данных в массиве;
  • человеческие ошибки и ошибки программного обеспечения вызывают примерно 80% всех простоев.

Стандартизированная аппаратная инфраструктура позволяет экономить на масштабе  это верное, но не всегда, утверждение, поскольку прибыль от продажи сервера ниже, чем прибыль от продажи массива хранения, и есть свои ограничения на размер скидки при покупке серверов или массивов хранения. Иными словами, увеличение размеров закупки серверов для получения наилучших цен не всегда приводит к улучшению стоимости. Поскольку данные, как правило, остаются там, где они были изначально, гибкость перемещения данных между серверами в рамках стандартизированной инфраструктуры представляет собой более академический и практический интерес, поскольку перемещение данных между массивами или узлами хранения является трудоемким и подверженным ошибкам процессом с высоким влиянием на бизнес-процессы.

Более быстрые циклы обновления аппаратного обеспечения  они определяются поставщиком, а не заказчиком, если только заказчик не хочет использовать несертифицированное оборудование. Правила управления активами и внутренние политики также могут замедлять адаптацию новых аппаратных платформ. Многие предприятия не будут покупать новое решение для хранения данных до тех пор, пока оно не будет проверено на рынке, а это означает, что оно должно активно использоваться в течение 6-12 месяцев. Затем, если существует внутренняя квалификационная процедура, можно добавить еще три месяца до введения решения в производство, в результате чего заказчики будут знать, что отстают от новейшей технологии на 9-15 месяцев.

Отсутствие привязки к поставщику  это недостижимая фантазия, потому что как только вы покупаете оборудование или программное обеспечение у поставщика, вы создаете отношения, для прекращения которых требуются определенные ресурсы. Связи могут быть слабыми или сильными, техническими, финансовыми, процедурными, видимыми или невидимыми, эмоциональными или юридическими. Исторически сложнее всего внести изменения в технологии репликации массивов, потому что это может повлечь за собой корректировки очень многих вещей. Правильное деловое решение — принимать эти связи там, где они предоставляют необходимые возможности или создают конкурентное преимущество.

Более низкая закупочная цена  без снижения стоимости владения, модернизации и обновления аппаратного обеспечения бюджетное решение для хранения может легко стать дорогим. Поскольку вертикально масштабируемые массивы обычно просто наращивают количество носителей и дисковых полок при добавлении емкости по сравнению с горизонтально масштабируемыми массивами SDS, которые обычно добавляют узлы вместе с HBA, процессорами, DRAM, блоками питания, вентиляторами и носителями данных, себестоимость горизонтально масштабируемых решений обычно выше, чем у эквивалентной вертикально масштабируемой архитектуры. Это означает, что затраты на приобретение и обслуживание будут устанавливаться в соответствии со стратегией поставщика, конкурентным давлением и навыками ведения переговоров заказчика, так же, как и затраты на модернизацию.

Однако стоимость владения определяется не только стоимостью приобретения, обслуживания, электропитания и охлаждения. Значительный вклад в статьи расходов также вносят затраты на персонал, резервное копирование и восстановление, время простоя и упущенные возможности, то есть отсутствие гибкости, а также большое влияние оказывают автоматизация управлением массивами, возможности использования скриптов, удобство графического интерфейса пользователя, качество кода и отказоустойчивость. Поскольку денежные затраты во время простоя инфраструктуры всегда трудно подсчитать, перефразируем вопрос в «Сколько дополнительных случаев простоя инфраструктуры должно произойти, прежде чем недорогое решение для хранения данных станет ложной экономией?». Если ответ «один», это, скорее всего, не лучшее решение.

Итак, основные выводы:

  • SDS не заменит в обозримом будущем классические массивы основного хранения, поддерживающие критически важные приложения;
  • на гиперконвергентные инфраструктуры (HCI) придется основная часть использования SDS в обозримом будущем;
  • вопрос о том, займет ли SDS значительную долю рынка хранения, еще предстоит решить;
  • виртуальные решения SDS с операционной системой массивов хранения, работающие в облачных инфраструктурах, станут общей моделью развертывания гибридного облака, поскольку она решает проблему перехода между технологиями на уровне инфраструктуры, от которой страдают современные модели развертывания гибридного облака;
  • периферийные вычисления (Edge Сomputing) останутся популярным вариантом использования SDS из-за его способности улучшать доступность данных при одновременном снижении занимаемого пространства, потребляемых ресурсов и затрат.

Автор статьи — технический директор Infinidat, Россия и СНГ.