хорошо видны с моря

Свою вторую конференцию “Современные информационные технологии. Мировые тенденции и российская практика” компания “Ай-Теко” (www.i-teco.ru) провела, так же как и первую (см PC Week/RE, № 41/2001, c. 1), на Кипре. Активное участие в этом мероприятии приняли и ее основные партнеры - Hewlett-Packard, Intel, Microsoft, Cisco Systems, APC и SCO, представители которых рассказали о предлагаемых ими стратегических направлениях развития технологий, продуктов и услуг. Слушателями конференции стали руководители ИТ-отделов крупнейших промышленных предприятий и банков России, директора информационных департаментов госструктур, специалисты, занимающиеся выработкой ИТ-стратегии компании, кадровыми проблемами, ведением проектов, выбором платформ и поставщиков и обоснованием ИТ-бюджета. На круглых столах и даже во время насыщенной культурной программы они смогли обсудить вопросы, касающиеся развития и эксплуатации ИТ-инфраструктур.

Стратегические доклады

Ключевой темой, обсуждавшейся на конференции, стал опыт внедрения и эксплуатации ИТ-подсистем предприятий. Она рассматривалась со многих сторон - от разнообразных подходов к оценке экономической эффективности в ИТ до практического применения современного опыта по построению службы эксплуатации ИТ-инфраструктуры.

Сейчас все больше крупных компаний сталкивается с необходимостью реорганизации ИТ-служб, поскольку они не отвечают современным требованиям эффективности. Ряд предприятий в России уже сделали первые шаги в этом направлении и с помощью консалтинговых фирм внедрили у себя начальные элементы современного ИТ-управления, описанного в библиотеке ITIL (IT Infrastructure Library). Другие, осознав неизбежность перемен, вплотную подошли к решению данной задачи и, помимо консалтинговой помощи, нуждаются в ознакомлении с примерами отечественных пионеров в этой области.

Как и каждый системный интегратор, компания “Ай-Теко” главным в своей работе видит не только и не столько поставки программно-аппаратных решений, но скорее управление проектами в этой области и постоянно решает вместе с заказчиком различного рода проблемы и задачи, связанные с организацией эксплуатации решения, его развития, поддержки. В то же время большое внимание уделяется и предоставлению широкого спектра инженерных и консалтинговых услуг - задача выбора платформы, техническое проектирование, внедрение и сопровождение систем. Недавно она объявила о создании консалтингового подразделения, отвечающего за проектирование и аудит информационных систем предприятий, проектирование инфраструктурных решений и систем эксплуатации ИТ и предоставление услуг по созданию систем ITSM (см. PC Week/RE, № 34/2002, c. 35). “Наша стратегия на ближайшие годы состоит в увеличении доли профессиональных инженерных услуг и консалтинга в деятельности компании, - отметил на открытии конференции президент “Ай-Теко” Шамиль Шакиров. - При этом хитом сезона можно признать внедрения систем ИТ--управления с использованием продуктов и технологий HP OpenView (включая решения по созданию служб поддержки пользователей с использованием НР ServiceDesk ) - за год компания реализовала более 10 таких проектов”.

Одним из последних проектов департамента консалтинга “Ай-Теко” в области ITSM стало завершение основного этапа проекта по созданию единой службы поддержки пользователей ИТ-услуг компании ТНК. Этот этап был выполнен в Региональном техническом центре (РТЦ), созданном ТНК с целью выведения сервисных структур за рамки своего основного бизнеса. Сейчас весь спектр ИТ-услуг: телефонная и сотовая связь, передача данных, поддержка офисной и вычислительной техники, прикладные программные системы, обслуживание оборудования и программных комплексов АСУ ТП и другие - предоставляется силами РТЦ всем подразделениям и организациям, входящим в состав ТНК в этом регионе.

Методологической основой является концепция управления ИТ-сервисами (ITSM), изложенная в ITIL. Для автоматизации функционирования диспетчерской службы используется ПО HP OpenView ServiceDesk.

Консультанты “Ай-Теко” совместно с представителями РТЦ организовали единую Центральную диспетчерскую службу (ЦДС); разработали и внедрили процесс обработки заявок ее сотрудниками, который в терминологии ITIL называется управлением инцидентами; подготовили структуру управленческой отчетности о деятельности ЦДС; создали подсистему генерации отчетов. Кроме этого консультантами “Ай-Теко” разработана технология совершенствования процесса и системы автоматизации по мере развития компании заказчика.

На сегодняшний день Нижневартовский региональный технический центр обслуживает около 25 тыс. пользователей. В дальнейшем ТНК планирует перенести приобретенный опыт на другие регионы, где расположены предприятия компании, и создать таким образом единую службу поддержки всей своей ИТ-инфраструктуры.

Партнеры

Проведение конференции совпало с пятилетием сотрудничества “Ай-Теко” с ее стратегическим партнером компанией Hewlett-Packard. Уже четыре года “Ай-Теко” лидирует в категории продаж корпоративных компьютерных систем НР, сохраняя за собой статус Золотого партнера этой корпорации. Компаниями выполнены совместные проекты для таких заказчиков, как Сбербанк России и его территориальные отделения, Центральный банк Российской Федерации, МВД РФ, Совет Федерации, ГТК РФ, ФАПСИ, ОАО “Северсталь”, ТНК и др. Поэтому неудивительно, что на конференции большое внимание было уделено планам развития объединенной HP.

С докладом о стратегии Hewlett-Packard по развитию корпоративных продуктов и решений рассказал начальник отдела подготовки технических решений российского подразделения ESG Александр Старыгин. Основным элементом реализуемых HP тактических планов является продолжение выпуска текущего поколения корпоративных продуктов и решений как самой HP, так и Compaq. Никаких резких изменений в ближайшее время не предполагается.

Другое дело - долгосрочные планы. Ведь объединяются не только производственные и коммерческие подразделения, но и научно-исследовательские центры обеих компаний. При этом дублирование НИОКР будет исключено, что позволит обеспечить более эффективное использование инвестиций в науку.

Для тех продуктов, которые все-таки снимаются с производства, гарантируется техническая поддержка в течение пяти лет с момента прекращения их выпуска.

В результате объединения HP стала поставщиком серверных решений на базе широкого набора процессоров. Кроме собственно PA-RISC в арсенале компании имеются решения на базе Itanium, Alpha, Xeon и MIPS. Стратегические планы определены лишь в отношении Itanium, реализующего технологию явного параллелизма команд - технологию следующего поколения построения процессоров. Что касается остальных процессоров, то на сегодняшний день есть только тактические планы производства систем на их базе.

Если же говорить о семействе PA-RISC, то здесь планы по сравнению с прошлым годом не изменились: в дополнение к нынешней модели PA-8700+ предусмотрен выпуск еще двух поколений процессоров. Сейчас существует прототип PA-8800, который выйдет в следующем году, и определены общее направление развития и архитектура PA-8900. Эта линейка процессоров останется основной для высокопроизводительных систем на ближайшие годы. Но для серверов, построенных по этой архитектуре, предусмотрена возможность модернизации как на следующие версии процессоров PA-RISC, так и на Itanium 2 и будущий Itanium 3.

Не сворачивается производство серверов на Alpha-процессорах: в дополнение к текущей модели Alpha 21264 (EV6) выйдут процессоры EV7 и EV79 и серверы на их основе.

Развитие линейки серверов на 32-разрядных процессорах Intel будет происходить в соответствии с планами выпуска микропроцессоров Intel Xeon.

После слияния с Compaq к HP отошел департамент, ведущий свое происхождение от компании Tandem, разработавшей отказоустойчивые решения Himalay. В 2001 г. такие серверы обрабатывали по всему миру 66% операций с кредитными картами и 95% сделок с ценными бумагами. В будущем их планируется перевести с архитектуры MIPS (текущий процессор R14000) на Itanium.

Перечень предлагаемых HP серверов весьма общирен: в него входят серверные приставки, blade-серверы, универсальные высокопроизводительные серверы, рэковые системы для центров обработки информации, пьедестальные офисные серверы, отказоустойчивые системы с дублированием все и вся и серверы, интегрируемые с телекоммуникационным оборудованием (carrier grade). Все такие системы будут производиться и в дальнейшем.

Доля затрат предприятий на системы хранения, по данным IDC, непрерывно растет и в 2003 г. составит три четверти от всех корпоративных аппаратных расходов. Таким образом, эти системы становятся центром корпоративной ИТ-инфраструктуры, вытесняя серверы “на периферию”. При этом современные дисковые массивы постоянно усложняются и берут на себя все функции управления данными (управление доступом к данным и его производительностью, создание копий и резервирование данных, управление безопасностью и т. п.), ранее присущие серверам, освобождая последние именно для того, для чего они первоначально создавались, - для обработки транзакций. Перспективной выглядит технология виртуализации данных, отделяющая уровни физических и логических данных. Соответственно HP будет уделять этим направлениям самое пристальное внимание.

Сейчас в арсенал компании входят дисковые системы и дисковые массивы, ленточные библиотеки для хранения резервных копий, библиотеки магнитно-оптических дисков для хранения информации в течение десятков лет.

В области ленточных накопителей HP и Compaq до слияния принадлежали к альянсам, продвигающим различные стандарты записи. HP вместе с Seagate и IBM развивали стандарт Ultrium, а Compaq принадлежала к лагерю, отдававшему предпочтение Super DLT. Новое поколение библиотек поддерживает оба стандарта, и пользователь имеет возможность изменить применяемый стандарт, не меняя библиотеки, заменив лишь устройство чтения/записи.

Дисковые системы и массивы также являют собой пример того, что слияние HP и Compaq ведет к расширению предложения. До объединения компании придерживались различных подходов в области дисковых массивов верхнего уровня: HP развивала системы консолидированных дисковых массивов, а Compaq предпочитала те, что строятся на модульной основе. Сейчас принято решение о развитии обоих этих направлений.

Тенденции

Отдельный доклад Александр Старыгин посвятил решениям типовых ИТ-задач, отражающих некоторые тенденции и особенности современного этапа развития технологий. В качестве этих задач докладчик выделил обеспечение высокой доступности информационной системы, консолидацию информационных ресурсов и создание мультиоперационной платформы.

За последнее десятилетие понятие высокой доступности претерпело определенные изменения. Если в начале 90-х под ним понималось главным образом исключение потерь данных при сбое и обеспечение восстановления системы за заданное время, то при современном подходе высокая доступность предполагает исключение влияния отказов отдельных компонентов на доступность приложения.

Несмотря на прекрасную погоду зал был всегда полон

По данным Dataquest, проанализировавшей десятки тысяч отказов, в 67% случаев причиной незапланированного простоя является программно-аппаратный сбой. Все остальные аварии связаны с ошибками персонала, внешними воздействиями и неустановленными факторами.

Для обеспечения высокой доступности системы упор делается на методы, предупреждающие аварии (проактивный подход в отличие от реактивного, когда реакция следует за событием). Во время работы системы собираются разнообразные статистические данные, касающиеся функционирования отдельных ее компонентов. Например, статистика гласит, что в 94% случаев сбой процессора происходит из-за его перегрева. HP разработала технологию Dynamic Processor Deallocation, позволяющую, контролируя температуру и ошибки кэш-памяти процессора, установить момент, когда процессор начинает “разгоняться”, входя в опасный режим, и тогда сразу же для операционной системы устанавливается флажок, по которому она, во-первых, больше не запускает новых процессов на критическом устройстве, а во-вторых, переводит уже запущенные процессы на другие процессоры, разгружая “разогнавшийся”. Аналогичная схема под названием CHIPKILL применяется и для памяти. Однобитные ошибки памяти исправляются автоматически и по ним собирается статистика. При превышении критического уровня ошибок модуль памяти разгружается и администратор получает сообщение о необходимости его замены. При этом приложение продолжает функционировать. Для упрощения обслуживания в серверы HP включается дисплей Quickfind Diagnostic Display, идентифицирующий состояние всех основных подсистем сервера (процессоров, памяти, шины, вентиляторов).

Этими подходами дополняются традиционные наборы технологий обеспечения высокой доступности, связанных с дублированием и “горячей” заменой компонентов, со слежением за состоянием соединений, автоматическим переключением на резервные каналы данных в случае выхода основного, с балансировкой нагрузки, кластеризацией и т. п.

Консолидация информационных ресурсов

Под консолидацией ресурсов понимается связывание разнородных систем в единую структуру с целью упрощения управления и обслуживания и более гибкого и эффективного распределения ресурсов.

Предпосылками перехода к консолидированным решениям являются недостатки разрозненных систем, обусловленные современным уровнем технологий и особенностями организации процессов.

На предприятиях сейчас наблюдается неконтролируемый рост применяемых технологий и систем, сопровождающийся увеличением затрат на их адаптацию и внедрение. При этом ИТ-ресурсы зачастую используются неравномерно: простаивают в одном подразделении при остром дефиците в другом.

Такая ситуация обуславливается децентрализованными закупками компонентов интегрированной системы и неэффективными, слишком сложными процессами развития и управления ИТ. Все вместе это приводит к увеличению количества допускаемых персоналом ошибок, к организационной неразберихе и решению возникающих проблем путем ненужного трудового “героизма” сотрудников.

По данным IDC за прошлый год, консолидированные системы хранения данных составляли треть, а системы, напрямую подключаемые к серверам, - две трети всех систем хранения. К 2005 г., как считают в этой организации, ситуация поменяется на противоположную. По информации McKinsey & Co and Merrill Lynch за июнь 2001 г., оценившей экономический эффект от внедрения консолидированных систем хранения данных, выигрыш при их использовании в стоимости хранения 1 Мб данных составляет 47 центов (0,37 долл. за 1 Мб против 0,84; результат усреднен за три года) по сравнению с системами, напрямую подключенными к серверам. Так как объемы данных предприятий уже достигают нескольких терабайтов, экономия может измеряться миллионами долларов. В прошлом году Meta Group опубликовала прогноз, согласно которому в течение последующих трех-пяти лет консолидация информационных ресурсов будет доминирующей технологией увеличения эффективности и производительности программно-аппаратных платформ.

Кроме систем хранения консилидируются также и серверные ресурсы путем создания разделов (partitions). Разделы - это виртуальные машины, реализованные на аппаратном или программном уровнях внутри сервера или группы серверов. Операционные среды, работающие в разделах, изолированы, и приложения сосуществуют в одном сервере или кластере, не взаимодействуя друг с другом. Разные типы разделов дают возможность подбирать наиболее подходящие решения с точки зрения уровня доступности, степени изолированности приложений и общей гибкости распределения ресурсов. Такой подход обеспечивает легкость реконфигурации системы, увеличивает эффективность использования ресурсов сервера и дает гарантии предоставления ИТ-ресурсов в соответствии с соглашением об оказании услуг SLA (Service Level Agreement), а также помогает решить еще одну проблему, связанную с разнообразием приложений. Gartner Group считает, что в следующем году ни одна из имеющихся сегодня операционных систем не сможет удовлетворить всем требованиям и особенностям бизнес-задач, стоящих перед коммерческой компанией, а это значит, что монооперационная стратегия построения платформы существенно ограничивает выбор приложений. Хотя производители всех ОС стремятся расширить область их применения, прогнозировать ситуацию на большой срок непросто. Разделы дают возможность запуска приложений под управлением различных ОС, увеличивая таким образом число используемых приложений.

Основными инструментами консолидации, к которым прибегают при хранении данных, являются сети хранения SAN, а также виртуализация данных (т. е. разделение их логического и физического представления, позволяющее работать с дисковым пространством как с единым и непрерывным ресурсом).

Еще один доклад, касающийся стратегических направлений развития своей компании, сделал менеджер SCO Александр Сиротин. Поработав несколько лет под вывеской Caldera, эта фирма под давлением пользователей вернула себе и своим основным продуктам прежние названия. Пользователи потребовали, чтобы SCO сосредоточилась на существующей свыше 20 лет операционной системе SCO Unix, продолжила интеграцию Unix и Linux и занялась поставками готовых решений, а не только продуктов. Сейчас SCO предлагает три операционные системы: OpenServer, UnixWare и SCO Linux - и плюс к этому средство управления Linux- и Unix-станциями, уменьшающее стоимость их внедрения и администрирования.

В выпущенную в III квартале OpenSer-ver версию 5.0.7 добавлены поддержка современных аппаратных интерфейсов, таких, как USB, UDMA 100 и т. п.; а также драйверы современных графических и сетевых плат; в состав дистрибутива включены новые службы Samba, Squid, OpenSSL, OpenSSH; актуализированы версии BIND, FTP, IP Filter, Apache. Виртуальная Java-машина стала частью ОС.

Флагманским продуктом компании остается UnixWare. В недавно вышедшей UnixWare 7.1.3 расширено обслуживание устройств (USB, CD-RW, CD-R, ZIP и DVD, SCSI-3), обеспечивается поддержка технологии Hyperthreading, а кроме того, в эту версию добавлены новые драйверы графических и сетевых карт и HBA. В среде UnixWare могут выполняться приложения OpenServer и OpenLinux (подсистемы OpenServer Kernel Personality и Linux Kernel Personality).

SCO Volution дополняет возможности HP OpenView в области управления серверами и рабочими станциями Linux, а реализованная специалистами “Ай-Теко” интеграция между продуктами позволяет автоматически пополнять и вести единую инвентаризационную БД, оперативно отслеживать вносимые в конфигурацию систем изменения, контролировать единую политику в области использования ПО и подключения периферийных устройств, автоматизировать рутинные операции администраторов по диагностике неисправностей, т. е. интегрировать область управления станциями Linux в единое решение управления ИТ-инфраструктурой, построенное на базе OpenView.

И в заключение - о погоде

В последний день конференции мне удалось побеседовать с одним из заказчиков “Ай-Теко” - директором главного вычислительного центра (ГВЦ) Федеральной службы России по гидрометеорологии и мониторингу окружающей среды Владимиром Анциповичем.

PC Week: Как поставлена обработка информации в Гидрометеоцентре?

Владимир Анцыпович: Гидрометслужба - одна из первых структур, которая была автоматизирована в стране. Наша организация давно стала необходимой составной частью хозяйственного механизма, и представить ее себе без систем автоматизированной обработки информации невозможно. Ежедневно по цифровым каналам связи в центр поступает до 20 Мб сообщений, а с учетом спутниковых каналов - до 1 Гб.

Наша работа с информацией с точки зрения технологий делится на три этапа. Первый - прием, декодирование и первичная визуализации данных, второй - гидродинамический расчет по адекватной прогностической модели (при этом время расчета не должно превышать 10% от времени, на которое составляется прогноз, и, наконец, постпроцессинг - превращение результатов расчета в конкретный прогноз и оценка его (расчета) качества.

PC Week: Какие задачи привели вас на конференцию?

В. А.: Сейчас в ГВЦ наступил этап замены оборудования. Развитие методов прогнозирования связано с имеющимися вычислительными мощностями. Как правило, в гидрометеорологии всегда было самое совершенное и передовое оборудование из существующего в мире. Если оглянуться на несколько десятилетий назад, то в 60-х годах мы практически не отставали от американцев по уровню оборудования и наши модели, и численные схемы были вполне конкурентоспособными. В 70-х отставание по производительности ЭВМ было в 10-20 раз, но за счет выбора грамотных моделей и тщательного программирования этот разрыв компенсировался. Когда в середине 70-х разрыв возрос до 200-кратного, догнать Америку только за счет математики стало невозможно, и тогда началась замена техники и подтягивание ее к мировому уровню, но, к сожалению, происходило это не так быстро, как хотелось бы.

PC Week: Кто является благодарным потребителем прогнозов?

В. А.: В первую очередь - планирующие органы сельского хозяйства, которым прогнозы помогают предсказать, каким будет урожай, и определиться с закупками. Это стратегическая информация уровня правительства. На уровне колхозов нужны сведения о резких изменениях погоды. Не может обойтись без прогнозов и авиация. Необходимо понимать, что существует общий прогноз погоды, который предоставляется бесплатно в рамках государственного заказа, а есть специализированные прогнозы, как, например, для той же авиации, которые мы продаем. В прошлом году такие договоры на составление специализированных прогнозов помогли нам решить проблему оплаты электроэнергии, поскольку бюджетное финансирование не покрывает затрат центра на электричество, хотя мы потребляем несравненно меньше, чем, скажем, завод “Серп и молот”. Больше половины всей электроэнергии “съедает” используемый нами Cray.

Мы хотим заменить оборудование, поставленное в 1996 г., на более современное, поскольку все ведущие мировые прогностические центры имеют в своем распоряжении вычислительные мощности, превышающие 10 Тфлопс, а мы работаем на 4 Гфлопс, т. е. разрыв более чем в тысячу раз, а ведь от этого зависит срок, на который можно делать точные прогнозы. Сейчас мы вплотную подошли к тому, чтобы не только составлять общую модель циркуляции атмосферы Земли, но и увязать ее с моделью океана, служащего дополнительным источником информации, а не просто выступающего в качестве граничного условия. А как оказалось, океанические модели требуют большей вычислительной мощности, нежели атмосферные. Кроме того, интерес представляют задачи прогнозирования климата, а не только погоды.

Сейчас мы ведем ряд исследований со специалистами Центра компетенции “Ай-Теко”, которые помогают нам разобраться в структуре новой технологической базы и понять, каким образом алгоритмизировать наши задачи, чтобы наиболее эффективно использовать будущую вычислительную мощность. Причем есть два аспекта этой проблемы - при решении этих задач должны эффективно использоваться все процессоры, имеющиеся в системе, и, что более сложно, алгоритмы должны эффективно распараллеливаться в архитектуре с массивным параллелизмом.

Под успехом проекта мы понимаем не повторение модели, а выход на следующий уровень, который предполагает увеличение эффективной производительности в тысячу раз. Выбор системы определяется двумя параметрами: эффективной мощностью, необходимой для решения существующих задач в определенное время по используемой модели, и архитектурой машины, которая должна быть “заточена” для использования наших алгоритмов.