ПРОЕКТЫ

"Ай-Теко" (www.i-teco.ru) завершила построение распределенной системы хранения данных и модернизацию серверов процессингового центра АБ "Газпромбанк". Главной целью проекта было совершенствование ИТ-инфраструктуры банка для повышения качества предоставляемых услуг. В его рамках создана распределенная высокоскоростная корпоративная сеть доступа к данным и внедрена отказоустойчивая архитектура, обеспечивающая их защиту.

Акционерный банк газовой промышленности, Газпромбанк, - уполномоченный банк ОАО "Газпром" - входит в пятерку крупнейших российских финансовых учреждений. В настоящее время помимо газовой отрасли он предоставляет услуги предприятиям других отраслей экономики (химической промышленности, машиностроения, оборонного комплекса и др.). У банка около 1,5 млн. индивидуальных и свыше 22 тыс. корпоративных клиентов, в том числе 1,2 тыс. предприятий и организаций газовой промышленности.

В настоящее время банк переходит к качественно новой политике развития: руководство следует общепринятым мировым стандартам ИТ-управления. "Динамичное развитие российской банковской системы, ужесточение конкуренции, укрупнение и универсализация российских банков, проникновение западных кредитных институтов практически во все сегменты российского финансового рынка делает вопрос разработки и реализации стратегии развития сегодня одним из важнейших для многих ведущих российских банков. Это возможно только на основе высокотехнологичной информационной инфраструктуры, сочетающей высокую доступность приложений и данных, централизованное управление и хорошую масштабируемость. Доступность, оперативность и защищенность информации - залог успеха банковского бизнеса", - считает вице-президент Газпромбанка Олег Рурин.

"Ай-Теко" имеет опыт реализации аналогичных проектов - в Центральном аппарате Сбербанка РФ, в территориальных банках Сбербанка РФ (Северо-Западном, Юго-Западном), ING и других крупнейших банках России.

Проект по реорганизации инфраструктуры АБ "Газпромбанк" стартовал в августе 2003 г. К моменту его начала в банке существовала единая локальная вычислительная сеть, объединявшая пять территориально распределенных площадок и включавшая: серверы приложений под управлением HP-UX, Novell Netware и Microsoft Windows NT/2000; резервные и архивные серверы; дисковый массив HP SureStore XP512; ленточные библиотеки HP и ADIC, соединенные по интерфейсу Fibre Channel с оптическим коммутатором.

Схема высокоскоростной корпоративной сети доступа Газпромбанка

Одним из основных функциональных элементов ИТ-инфраструктуры банка являлся процессинговый центр, в котором работало два сервера NCR4300 фронт-офиса TPII, сервер HP9000 L1000 бэк-офиса GenCard и дисковый массив начального уровня.

Повышение загрузки существующих информационных систем выявило проблемы, связанные с их ограниченными возможностями по адаптации к усложняющимся условиям функционирования. По этой причине особую актуальность приобрели задачи модернизации процессингового центра путем переноса фронт-офиса на новые серверы и обеспечения максимального уровня совместимости комплекса с использующимися в банке оборудованием и технологиями; создание высокоскоростной сети доступа к данным, объединяющей все объекты вычислительной системы банка и допускающей подключение дополнительных серверов; построение распределенного высоконадежного хранилища данных, обеспечивающего консолидацию ресурсов хранения и максимальную защиту данных в случае критичных отказов, таких, например, как отказ системы или неисправность коммуникационной линии между площадками.

Работы проводились в трех московских офисах Газпромбанка. В соответствии с требованиями для модернизации процессингового центра была предложена двухузловая кластерная система на основе высокопроизводительных многопроцессорных серверов HP rp7410 и дискового массива hi-end-класса HP StorageWorks XP1024 емкостью 3 Тб. Централизованный интерфейс управления дисковыми массивами ХР обеспечивался с помощью ПО CommandView XP. Для достижения высокой доступности данных применена подсистема резервного копирования на основе ленточной библиотеки HP StorageWorks MSL 5026DLX, подключаемая через сеть хранения данных SAN. Управляет резервным копированием программная платформа НР OpenView Data Protector (Omniback II), которая копирует основные СУБД без останова приложений (прозрачно для пользователей). Архитектура SAN обеспечила требуемую производительность и надежность доступа к данным, позволив использовать предлагаемую систему как для построения локального кластера, так и для распределенной между площадками системы хранения, в которой резервный узел может работать с удаленным дисковым массивом.

Коммуникационная инфраструктура построена на основе высокоскоростного интерфейса 2 Гб Fiber Channel. В качестве активного оборудования применены масштабируемые оптические коммутаторы HP SAN Switch 16B и SAN Switch 32B с резервируемыми блоками питания. Для достижения максимальной доступности данных и надежности всей системы было предложено использовать на каждой из трех основных площадок по два оптических коммутатора, входящих в независимые симметричные конфигурации, каждая из которых являлась последовательным объединением трех коммутаторов (по одному на площадке). Для увеличения надежности и производительности системы были использованы сдвоенные соединения между коммутаторами, реализуемые с помощью двух дополнительных одномодовых оптических кабелей между площадками.

Проводка дополнительных оптических кабелей позволила объединить площадки в кольцо и добиться того, что между распределенными дисковыми массивами получилось не более одного межкоммутаторного перехода (InterSwitch Link - ISL). Данное требование является существенным при построении распределенных высокодоступных систем на базе серверов под управлением HP-UX. Одной из сильных сторон решения является механизм динамической аппаратной репликации данных между дисковыми массивами, расположенными на разных площадках. Теперь на каждой из площадок в любой момент времени существует целостная копия данных с другой площадки, повышающая степень их доступности. Репликация данных была реализована на базе специализированного ПО дисковых массивов Continuous Access XP через выделенные оптические порты. Поскольку расстояние между площадками составляет 1-3 км, специалисты "Ай-Теко" выполнили подключение дискового массива через оптические коммутаторы, объединив используемые для репликации порты в отдельную изолированную группу с помощью технологии зонирования (zoning). При этом в случае отказа сервера или дискового массива приложения на удаленной площадке можно перезапустить вручную на резервном сервере кластера с использованием данных, реплицированных в режиме on-line. Сама репликация идет в автоматическом режиме в среде Continuous Access XP.

Проект реализовали поэтапно. До конца 2003 г. были завершены поставка оборудования и ПО; монтаж и настройка сети хранения данных (SAN); модернизация элементов ИТ-инфраструктуры; подключение серверов к SAN; адаптация программно-аппаратного комплекса к существующей информационной структуре. Во II кв. были завершены работы по конфигурированию и запуску программно-аппаратного комплекса удаленной репликации данных на основе ПО НР Continuous Access XP, а также по тестированию компонентов. После этого система была сдана в эксплуатацию.

Обеспечение устойчивой репликации данных между дисковыми массивами на двух вычислительных площадках являлось одной из основных задач построения комплекса. В рамках проекта она решается путем дублирования сети хранения, а также за счет используемой топологии - построения двух независимых колец. Данная схема позволяет гарантировать репликацию данных между массивами в случае единичного отказа оборудования. Даже при разрыве связи между двумя основными площадками этот процесс не прекращается, так как поток данных автоматически перестраивается и направляется через третью площадку. Проведенное по ходу проекта тестирование полностью подтвердило работоспособность вычислительного комплекса в случае разрыва связи между главными площадками.

Кроме этого к построенной сети хранения данных были подключены имеющиеся в банке серверы под управлением различных ОС, в том числе Novell NetWare. Это позволило расширить дисковую подсистему NetWare серверов, повысить надежность вычислительного комплекса банка за счет дублирования путей доступа к ней и обеспечило более рациональное использование оптических портов дискового массива. На будущее распределенная сеть хранения данных предусматривает расширение путем подключения дополнительных серверов и систем хранения.

В результате его реализации повысилась эффективность работы пользователей информационных систем, уменьшилось время простоя бизнес-подразделений. Специалисты банка получили возможность оперативного доступа к данным в режиме 24x7. Повысилась защищенность информации, увеличилась устойчивость всей ИТ-инфраструктуры. Функционирование ключевых информационных подсистем стало более предсказуемым и надежным.

"ИТ-технологии все настойчивее проникают в банковский бизнес. Сложность в том, что готовых универсальных решений не существует, каждый проект индивидуален. Глубокое погружение в проблемы заказчика - основа любого успешного ИТ-решения", - прокомментировал результаты завершенного проекта президент компании "Ай-Теко" Шамиль Шакиров.