Что собой представляют периферийные вычисления? Почему они важны для обеспечения конкурентоспособности бизнеса? Как грамотно создавать периферийные узлы и всю инфраструктуру Edge Computing? На эти и другие вопросы, связанные с периферийными вычислениями, нам отвечает Владимир Гречушкин, руководитель направления по работе со стратегическими заказчиками энергетического сектора и атомной отрасли подразделения IT Division компании Schneider Electric.

Термин Edge Computing в нашей стране еще не устоялся. Он встречается как в англоязычном варианте, так в нескольких переводных: «периферийные вычисления», «пограничные вычисления», «граничные вычисления». Почему вы остановили свой выбор на «периферийных вычислениях»?

Границей комплексной вычислительной среды является не Edge-инфраструктура, а датчик, который создает первичные данные. На предприятии их может быть множество и именно они формируют границу цифрового мира. Их задача — собирать данные о внешней «аналоговой» среде, состоянии технологического процесса, наблюдаемых показателях, оцифровывать их и передавать на вычислительный узел для дальнейшей обработки и анализа.

Однако данные можно передавать напрямую в центральный ЦОД без первичной обработки. Много лет мы наблюдали тенденцию централизации ИТ в крупных дата-центрах. Особенно этому способствовали технологии виртуализации. Если не брать во внимание вопрос отказоустойчивости, то можно сказать, что максимальный КПД, т. е. ROI — окупаемость инвестиций от использования облачных технологий, достигается, когда все вычисления находятся на одной центральной площадке, а пользователи на местах имеют только интерфейс для удаленного взаимодействия с корпоративным облаком. Причем под пользователями мы понимаем как людей — сотрудников предприятия, так и автоматизированные системы, датчики и т. д.

История развивается по спирали, и мы находимся на очередном витке. После эпохи мэйнфреймов, как после большого взрыва, вычисления распределились на множество узлов. Достаточно долго существовал принцип одно приложение — один сервер. Такой подход был крайне неэффективен, и с появлением виртуализации вычисления, как под действием гравитации, снова «сжались», консолидировались. Облачные вычисления не стали панацеей, и из-за выявленных недостатков мы снова наблюдаем децентрализацию.

Именно поэтому термин «периферийные вычисления» наиболее точно отражает суть технологии. Согласно толковому словарю Ушакова: «Периферия — это внешняя часть чего-нибудь, часть, прилегающая к поверхности, лежащая на поверхности, в отличие от центральной». Это противопоставление централизованным вычислениям чрезвычайно важно для понимания сути данной технологии.

Дайте, пожалуйста, свое определение Edge Computing как «периферийным вычислениям».

Периферийные вычисления — это принцип построения иерархической ИТ-инфраструктуры, при котором вычислительные ресурсы частично перемещаются из ядра — центрального дата-центра на периферию и располагаются в непосредственной близости от места создания первичных «сырых» данных для их первичной обработки перед передачей вышестоящему вычислительному узлу. При этом данные могут проходить через несколько промежуточных вычислительных узлов, прежде чем попадут в центральный ЦОД. Также можно сказать, что при переходе на каждый новый уровень в иерархии вычислительных узлов данные одновременно перемещаются вверх по пирамиде DIKW (data, information, knowlEdge, wisdom — данные, информация, знания, мудрость), что позволяет с каждым шагом уменьшать их объем и при этом увеличивать ценность для бизнеса.

В таком случае расскажите, чем Edge Computing отличается от традиционных распределенных вычислений?

Ключевым отличием является вектор перемещения данных. Применение распределенных вычислений — решение сложных вычислительных задач благодаря их параллельной обработке на нескольких узлах. Как правило, этот метод применяется в том случае, если наблюдается параллелизм данных. Иными словами, мы можем «разрезать» массив данных на независимые части и распределить по вычислительным узлам для их параллельной обработки. При этом на каждом из узлов над данными осуществляются схожие манипуляции. Одним из классических применений является работа с большими данными. В качестве примера можно привести знаменитую модель распределённых вычислений MapReduce, представленную компанией Google.

Важной особенностью является то, что массив обрабатываемых данных в соответствии с заданным алгоритмом распределяется главным узлом (master node) по вычислительным узлам (worker node) для обработки. Условно можно сказать, что это движение данных сверху вниз. После обработки полученных данных рабочие узлы возвращают полученный результат. Условно можно сказать, что это движение данных вверх.

В случае с периферийными вычислениями движение данных однонаправленное. Они создаются на периферийных узлах и перемещаются вверх по иерархии вычислительных узлов, при этом подвергаясь обработке. Движение обрабатываемых данных сверху вниз, как в случае распределенных вычислений, отсутствует полностью.

Чем обусловлено возникновение парадигмы периферийных вычислений?

Идеология централизованных вычислений столкнулась с технологическими проблемами, неразрешимыми в рамках данной парадигмы. Прежде всего, это связано с развитием промышленного Интернета вещей (IIoT). Промышленность, энергетика, транспорт, ЖКХ — практически все отрасли экономики подверглись цифровизации. Современное промышленное оборудование оснащается датчиками, которые генерируют данные о состоянии оборудования, статистику о проделанных операциях, потребленном сырье и произведенной продукции, внешних условиях и многих других параметрах. Количество данных, создаваемых на предприятии и передаваемых в ЦОД для обработки, растет лавинообразно, и у ИТ-службы организации возникает проблема либо технологического характера — каналы передачи данных перегружены, либо экономического характера — стоимость передачи массивов «сырых» данных с удаленных объектов становится слишком высокой.

Может возникнуть сомнение, что это утверждение не обоснованно и что речь идет о небольшом объеме данных. Однако за подтверждением мы можем обратиться к бытовому, по современным меркам, примеру: по оценке Intel, один беспилотный автомобиль создает приблизительно 4 Тб данных в день. А на крупном промышленном предприятии могут быть установлены сотни станков и тысячи датчиков, которые непрерывно создают данные и которые необходимо проанализировать для принятия управленческих решений.

Именно поэтому мы наблюдаем тренд, когда на распределенных объектах создаются небольшие вычислительные узлы, которые обеспечивают первичную обработку данных, значительно снижая нагрузку на каналы связи, ускоряя обработку данных и их передачу, обеспечивая существенно более высокую эффективность работы информационных систем.

При каких особенностях бизнес-задач и обслуживающей их ИТ-инфраструктуры следует переходить на инфраструктуру периферийных вычислений?

Теория гласит, что для любого инвестиционного проекта необходимо провести анализ его чистой приведенной стоимости (NPV). При формировании денежных потоков какие-то платежи можно легко оценить. Например, стоимость использования каналов передачи данных, затраты на СХД, серверы, сетевое оборудование и их обслуживание. Однако, перефразируя Гёте, «суха теория, а древо жизни пышно зеленеет». В случае перехода на модель периферийных вычислений бизнес может получить преимущества, которые очень сложно представить в денежном эквиваленте, но которые могут оказать существенное влияние на его конкурентоспособность. Например, скорость принятия управленческих решений, возможность более широкого применения технологий IIoT, а значит — более высокая прозрачность состояния основных средств и бизнес-процессов, повышение эффективности и рентабельности, снижение рисков и влияния человеческого фактора. Это перечисление можно продолжать достаточно долго. Главное — не подходить к принятию решения слишком формально. Необходимо видеть полную картину и учитывать все факторы — как позитивные, так и негативные, например, риск выхода отдельных узлов из строя, и подходить к построению распределенной комплексной инфраструктуры очень внимательно.

В чем заключаются особенности инфраструктуры периферийных вычислений — сетевой, хранения данных, вычислительной?

Сейчас все привыкли к мысли, что построение дата-центра крупного предприятия — очень серьезный, трудоемкий процесс и заказчики подходят к нему очень ответственно. Однако не следует забывать, что при переносе части вычислений из центрального ЦОДа на периферию их важность с точки зрения бизнеса не уменьшается, а возрастает. Вычислительные узлы на удаленных объектах являются частью распределённой ИТ-инфраструктуры, и их выход из строя может означать потерю связи либо с отдельным предприятием, либо в случае построения многоуровневой иерархии целым сегментом, который может включать сразу несколько предприятий.

Однако мы иногда сталкиваемся с тем, что проектированию и построению инфраструктуры на удаленных узлах не уделяется должного внимания. Это приводит к тому, что при наличии сотен узлов ИТ-инфраструктура становится похожа на лоскутное одеяло, а ИТ-руководство оказывается заложником сложившейся ситуации, когда каждый день оно вынуждено жить в режиме «Что? Где? Когда?» — где и когда что-то опять выйдет из строя и к каким последствиям это приведет.

Можно ли говорить о «типовом узле» инфраструктуры периферийных вычислений? Что он собой представляет?

Не только можно, но и нужно. При этом, оценивая внедренные проекты, могу сказать, что типовой узел получается технически достаточно простым. Однако для того, чтобы определить, как будет выглядеть этот «типовой» узел, необходимо проделать большую работу. Можно сказать, что наиболее правильный подход — это последовательность шагов. Необходимо собрать информацию о каждом из удаленных объектов, и это не один десяток параметров. Причем ответственный специалист должен физически побывать на каждом объекте и в каждом помещении, где планируется установка оборудования. Опыт показывает, что нельзя слепо доверять старым чертежам, фотографиям, субъективным мнениям.

После сбора и анализа информации об объектах, составления требований к характеристикам узла нужно провести стандартизацию и выработать несколько типовых конфигураций. Оптимально их количество не должно превышать пяти. В этом случае будет достигнут максимальный эффект — быстрота развертывания, простота управления и обслуживания, оптимизация затрат на ЗИП и обучение персонала.

Каковы особенности поддержки, обслуживания инфраструктуры периферийных вычислений? Каких новых компетенций они требуют от ИТ-персонала?

Поскольку речь идет о большом количестве распределенных вычислительных узлов, вероятность того, что на каждом узле будут постоянно дежурить подготовленные ИТ-специалисты, крайне невысока. Скорее всего, такой подход окажется чрезвычайно затратным и неэффективным. Поэтому на первый план выходят системы мониторинга. Каждый узел оснащается необходимым набором датчиков, который позволяет удаленно определять природу нештатной ситуации и направлять на объект специалиста требуемого профиля с соответствующим набором инструментов для ее устранения.

Современные ИБП, кондиционеры, системы распределения питания позволяют вести не только удаленный контроль параметров, но и управлять ими, что может чрезвычайно упростить работу с распределенной инфраструктурой.

В центральном узле необходимо развернуть единую систему мониторинга, куда будет стекаться информация со всех узлов, что позволит обеспечить наилучший контроль и быстрое принятие решений. При этом важно иметь возможность сквозного мониторинга таких систем, как электропитание и кондиционирование, систем безопасности.

Schneider Electric обладает уникальным преимуществом, поскольку может предложить комплексное решение от одного производителя по всем критически важным подсистемам как центрального дата-центра, так и распределенных узлов. Помимо аппаратного обеспечения Schneider Electric располагает ресурсами для разработки проектных решений и конструкторской документации, если необходимо адаптировать оборудование под специфические требования объекта или технологического процесса.

Завершая разговор о периферийных вычислениях, хочется отметить, что мы становимся свидетелями уникального момента, когда не программные решения ведут к развитию аппаратного обеспечения, а новый подход к построению инфраструктуры должен привести к появлению новых программных решений, ИТ-сервисов и бизнес-практик.

ПОДГОТОВЛЕНО ITWEEK EXPERT