Группа компаний «Обувь России», один из лидеров российского обувного рынка, сейчас работает по всей стране: компания управляет более 500 магазинами в более чем 140 городах, головной офис расположен в Новосибирске. Чтоб увеличить вычислительные мощности и повысить устойчивость операционной ИТ-поддержки бизнеса, «Обувь России» совместно с партнером — компанией Softline — в конце 2016 — начале 2017 гг. развернула компактный мобильный дата-центр в Хабаровске. О том, как реализовывался проект, рассказывают ИТ-директор ГК «Обувь России» Дмитрий Карпенко и менеджер по продажам решений Softline Павел Копысов.

Какие задачи информационной поддержки бизнеса побудили компанию к тому, чтобы заняться развитием региональной автоматизации?

Дмитрий Карпенко: Компания «Обувь России» работает на рынке почти пятнадцать лет, и за это время из небольшого предприятия, оперирующего несколькими магазинами в Новосибирске, вырос бизнес, присутствующий на большей части территории нашей страны — от Москвы и Санкт-Петербурга до Владивостока и Южно-Сахалинска.. Мы производим обувь, реализуем продукцию через систему розничной и оптовой торговли и предоставляем финансовые услуги покупателям.

В вопросах автоматизации мы далеко не новички и долгое время целенаправленно ориентируемся на централизованную модель ИТ-поддержки бизнеса нашей территориально распределенной компании. Мы в полной мере пользуемся преимуществами, которые дает такой подход. Фактически любая транзакция по любому бизнес-направлению и в любой точке присутствия компании отражается в центральной базе данных в реальном времени. Мы также добились высокого уровня производительности и надежности ИТ-инфраструктуры, в том числе и благодаря тому, что в головной офисе в Новосибирске построили ЦОД, который предполагает достаточные для нашего бизнеса и при этом гарантированные характеристики бесперебойности работы оборудования. Централизованная архитектура полностью удовлетворяет потребностям нашей компании, единственный момент — это уязвимость такой системы к проблемам со связью, которые неизбежны в условиях работы по всей стране и в разных часовых поясах. Если стабильность и ширина каналов связи в регионах от Москвы до Новосибирска на более или менее высоком уровне, то на Дальнем Востоке ситуация иная. Серьезные аварии, сопровождающиеся длительной потерей связи (а таковые у нас происходили, и не раз), бизнес ощущает крайне болезненно. Всё это диктовало необходимость отхода от жестко централизованной архитектуры.

Следующая задача, которую нам необходимо было решить, — какую модель распределенной автоматизации выбрать. Мы посчитали, что строить полноценные собственные ЦОДы в регионах для нас избыточно и экономически нецелесообразно. К тому же на реализацию решения потребовалось бы много времени, которого у динамично растущего бизнеса нет. Но нам, тем не менее, важно было иметь все присущие ЦОДу характеристики, а именно: объединение в одном техническом решении вычислительных ресурсов, систем хранения, сетевой инфраструктуры, а также инженерного оборудования. Такое решение, в штатном режиме рассчитанное на обслуживание одного региона, может и не достигать производительности и масштабируемости полноценного ЦОДа, но должно было быть компактным и при этом мобильным с точки зрения возможности оперативно сменить место его дислокации.

Какое решение было выбрано как оптимальное для вашей ситуации?

Дм. К.: Розничную сеть мы развиваем на арендованных площадях, что позволяет нам добиваться высокого уровня мобильности и в случае невысоких показателей той или иной торговой точки оперативно перенести ее в другое место с более высоким покупательским трафиком. Иных помещений, кроме торговых, у нас нет. Таким образом, наш мобильный «микроЦОД» должен был располагаться в одном из магазинов, и при этом его наличие не должно было стать ограничением для работы торгового бизнеса. Да, для размещения оборудования мы выбираем наиболее стабильные точки, но все же жесткая физическая привязка решения к месту его изначальной установки для нас неприемлема.

Павел Копысов: Наверное, выбранное решение можно назвать мини- или даже микроЦОДом. Суть решения проста. В одной стойке, а если точнее, в одном герметичном шкафу располагаются все типичные для ЦОДа элементы: вычислительные мощности, ресурсы хранения информации, сетевые устройства, источник бесперебойного питания. Есть также автономная двухконтурная система пожаротушения и система кондиционирования. Там же, внутри шкафа, располагаются датчики температуры и влажности, имеются сенсоры, сигнализирующие об открытии дверей стойки. Все параметры микроЦОДа, естественно, отслеживаются в удаленном режиме. К стойке подводятся коммуникации от магистральных провайдеров, в данном случае сразу от двух. Словом, принципы построения решения в рассматриваемом случае такие же серьезные, как и в полноценных дата-центрах. «Сердцем» решения являются серверы HPE ProLiant DL580 Gen9 и HPE ProLiant DL380 Gen9.

В целом описанная ситуация нам представляется типичной для российского бизнеса. Поэтому такую конфигурацию вычислительного комплекса, способного располагаться фактически в любом помещении, можно эффективно использовать.

Меняет ли новое решение что-либо в архитектуре ИТ-поддержки?

Дм. К.: О принципе централизации обработки данных я уже сказал. Помимо этого мы обеспечили унификацию прикладных систем, с которыми работаем, и в результате полностью перешли на онлайн-режим обмена оперативной информацией. В этих условиях наличие новых мощностей в Хабаровске для нас принципиально ничего не меняет. Мы по-прежнему работаем в едином ИТ-пространстве и не отказываемся от централизации, а несколько увеличиваем общие вычислительные мощности, повышаем гибкость возможных схем резервирования и ликвидируем узкие места ИТ-поддержки, которые мы сами не в состоянии контролировать. Кстати, микроЦОД в Хабаровске мы рассматриваем как первый опыт: в дальнейшем такие решения могут появиться в других регионах. ЦОД в Новосибирске останется площадкой, на которую будут стекаться данные обо всех операциях. Консолидация его ресурсов в штатном режиме по-прежнему будет происходить в реальном времени. Но за счет введения в нашу ИТ-архитектуру некоторой доли распределенных ресурсов мы разгружаем центральный ЦОД, а главное — повышаем устойчивость ИТ-поддержки в нештатных ситуациях.

Что можно сказать о расчете необходимых вычислительных ресурсов? Ведь приобретено не только комплексное решение, но и конкретные процессорные мощности, мощности хранения и т. д.?

Дм. К.: Здесь мы ориентировались на предшествующий опыт, накопленный в том числе и при строительстве новосибирского ЦОДа. При его создании мы научились находить соответствие объема работы наших магазинов и производственных предприятий с потребностями в вычислительных ресурсах. И теперь, планируя ресурсы для микроЦОДа, мы в очередной раз этим опытом воспользовались. Далее необходимо обеспечить гарантии того, что конкретное оборудование и ПО реально соответствуют этим потребностям, и здесь мы рассчитываем на наших партнеров. Например, способность продуктов «1С» (а мы их активно используем) справиться с нашими нагрузками мы оцениваем, используя специальные инструменты, совместно с нашим новосибирским партнером. У компании Softline получаем консультации в отношении инфраструктурного обеспечения.

П. К.: Надо сказать, что мы сотрудничали с «Обувью России» еще на этапе создания стационарного ЦОДа в головном офисе в Новосибирске, так что знакомы с их бизнесом давно. В проекте регионального дата-центра в Хабаровске у нас также имелась вся необходимая информация о потребностях заказчика, и мы прежде всего работали над тем, чтобы выбор вычислительного оборудования действительно был оптимальным. В этом смысле еще раз хочется дать позитивную оценку серверам HPE ProLiant. Это полноценные решения enterprise-уровня, рассчитанные на бизнес-критичные приложения с очень впечатляющими возможностями по масштабированию процессорной мощности и ресурсов оперативной памяти. Исходя из специфики бизнес-задач заказчика также целесообразно было использовать флэш-накопители, что и было сделано. Другими словами, необходимо было очень детально подобрать конфигурацию, что в случае серверов HPE оказалось вполне осуществимо. Плюс к тому серверы должны были иметь развитые возможности удаленного мониторинга, что тоже было соблюдено.

Поскольку серверы, безусловно, являются основой вычислительного комплекса, хотелось бы поговорить о них чуть более подробно.

П. К.: Рост бизнеса заказчика может потребовать масштабируемости производительности решения как по процессорной мощности, так и по ресурсам памяти. А если все-таки мы говорим о ЦОДе, то высокая надежность тоже является важнейшим параметром. И, наконец, решение должно хорошо вписываться в идеологию построения ЦОДов, предполагающую активное использование средств автоматизированного мониторинга того оборудования, которое в нем находится. По вертикальной масштабируемости ресурсов в сегменте серверов стандартной архитектуры четырехпроцессорные серверы HPE ProLiant DL580 Gen9 являются лучшими в классе. А их двухпроцессорные «младшие братья» HPE ProLiant DL380 Gen9 благодаря сочетанию положительных черт уже много лет подряд являются самыми популярными серверами в мире. Прибавим сюда единое управление жизненным циклом этих машин из средства управления нового поколения HPE OneView, и выбор платформы становится очевидным.

Вопрос лицензионной чистоты используемого ПО, в том числе платформенного, безусловно очень важен. Был ли этот вопрос проработан в этом проекте?

П. К.: Разумеется, правильное лицензирование всего используемого ПО было одним из критериев успешности и завершенности проекта. Компания Softline, являясь одним из крупнейших игроков на рынке ПО в России, обладает всей нужной экспертизой, чтобы не упустить важных деталей в этом тонком вопросе. Например, мы учли лицензии клиентского доступа (CAL) для ОС Microsoft Windows Server — ту часть лицензий Microsoft, о которой часто забывают. Тем не менее, лицензирование Windows Server не может считать полным без достаточного набора лицензий по числу пользователей или устройств.

Интересным вопросом в данном случае является поддержка решения. Для ЦОДов, как правило, создаются отдельные предложения.

П. К.: Да, действительно, поддержка ЦОДа часто связана с особыми организационными подходами. В этом случае обслуживание решения как комплексного объекта, включая подсистемы кондиционирования и пожаротушения, Softline полностью берет на себя. Время реакции на инциденты не превышает четырех часов.

Дм. К.: В отношении поддержки для нас оптимальным также стало сотрудничество с Softline, тем более что эта компания является нашим давним партнером. Такая комплексная ответственность нашего поставщика закреплена в договоре. Пока мы работаем по такой схеме и считаем, что более дорогие и «тяжелые» форматы поддержки нам не нужны.

ПОДГОТОВЛЕНО PCWEEK EXPERT