После офисной и мобильной периферии пришла очередь периферии промышленной. Опрошенные порталом ComputerWeekly эксперты говорят о смене парадигм вычислений.

Периферийные вычисления означают написание приложений не для людей, а для устройств. Соответствующим образом должны быть изменены взаимоотношения между ИТ и операциями.

В 2018 г., по оценке фирмы McKinsey, можно было бы создать стоимость на 500 млрд. долл., если бы промышленные компании стимулировали трансформационные изменения в своей деятельности с использованием цифровых технологий.

Такая трансформация составляет основу концепции Индустрии 4.0 и цифрового производства. Она стала возможна благодаря появлению устройств для периферийных вычислений, которые используют датчики для поддержания в реальном времени обратной связи с машинами, подлежащими мониторингу и контролю с их стороны.

В докладе фирмы Freeform Dynamics «Промышленная цифровая трансформация» («Industrial digital transformation»), подготовленном по заказу Fujitsu, отмечается, что для руководителей ИТ-подразделений и директоров по операциям трудность заключается в том, что технология операций больше не является обособленной. «„Умные фабрики“ Индустрии 4.0 подключены к сетям, их „умное“ оборудование подключено к промышленному Интернету вещей и они должно обмениваться информацией со всей организацией и с цепочкой поставок, а потенциально со всем миром, — говорится в докладе. — То же самое относится к парку автомашин, медицинским устройствам в больницах, к системам управления складскими запасами и многому другому. Все эти распределенные, но в действительности подключенные к сетям машины и устройства создают в ИТ-сети новую периферию: после офисной и мобильной периферии приходит промышленная».

Но эта периферия сильно отличается от первых двух. До сих пор ИТ-подразделения обеспечивали сотрудников настольными ПК, ноутбуками, настольными приложениями и смартфонами. «Рост значения периферии потребует переноса центра тяжести», — считает Сатьям Вагхани, вице-президент и главный менеджер Nutanix по Интернету вещей и искусственному интеллекту. Он полагает, что произойдет смена парадигмы вычислений. Нынешняя нацелена на предоставление пользователям приложений для электронной почты, навигации в Интернете, социальных сетей. Будущая будет предоставлять преимущественно машинно-ориентированные приложения. Межмашинное взаимодействие позволяет обрабатывать данные сенсоров, применять ИИ и аналитику для превращения сырых данных в знания для бизнеса.

При включении периферийных вычислений в корпоративную ИТ-систему необходимо решить ряд архитектурных и технических проблем. Нельсон Петрачек, главный технолог Tibco, рекомендует организациям, желающим использовать периферийные вычисления, начинать с изучения возможностей самих устройств: процессоров, ОЗУ, систем хранения, продолжительности работы от батарей, а также операционной системы, надежности и производительности сети. Следует также решить, должно ли устройство работать, когда оно не подключено к сети.

Он считает, что дополнительно компаниям необходимо подумать о скорости передачи по сети в обоих направлениях, требованиях к мониторингу систем, безопасности, расстоянии от устройства до основного центра операций, о том, как развертывать ПО и устанавливать обновления.

«Обслуживание и непрерывное совершенствование представляют собой интересные проблемы, поскольку теперь модели данных не обязательно развертываются в ЦОДе или в облаке. Потенциально они могут запускаться на сотнях тысяч устройств, — сказал Петрачек. — Конечно, организации могут поместить эту логику в контейнеры и использовать различные технологии, чтобы продвигать ее на периферию. Однако, один из главных вопросов (помимо соображений безопасности) заключается в том, как в случае распространения обновления для 100 тыс. устройств добиться, чтобы все они его получили и обновились».

По его словам, откат обновления, установленного на 100 тыс. распределенных устройств, сильно отличается от отката установки ПО на централизованной облачной платформе: «При таком сценарии организации могут перенести на периферию трансформацию и простую логику потоковой передачи или логику, основанную на правилах». В этом случае некий шлюз выступает в роли посредника и обеспечивает основные функции, необходимые приложению периферийных вычислений. Это означает, считает Петрачек, что организациям придется напрямую управлять не сотнями тысяч оконечных точек, а только десятками шлюзов.

С точки зрения архитектуры, продолжил он, собранная на периферии сырая информация IoT и результаты работы периферийной модели данных должны полностью или по крайней мере частично передаваться в облако: «Это — в отличие от резюмирующей информации — гарантирует полное понимание происходящего на периферии и позволяет оценивать модели, чтобы попытаться выявить случаи, когда они работают некорректно».

Важно определить, подчеркнул Петрачек, не происходит ли устаревание модели и остается ли модель столь же точной, какой должна быть. Одним из способов достичь этого являются периодические моментальные снимки, когда периферийное устройство время от времени посылает в облако больше данных и на их основе производится проверка модели.

«Растущая конвергенция таких новых технологий, как 5G и периферийные вычисления, может означать значительный рост фактически новой формы распределенных ИТ», — полагает Сью Дейли, заместитель директора TechUK по технологии и инновациям.

По мнению Дейли, 5G и периферийные серверы могут обеспечить локальную, критичную ко времени обработку данных с низкой задержкой, что позволяет устройствам IoT трансформировать традиционные секторы промышленности: «Мы смогли заглянуть в будущее, в котором конвергенция ИИ, облаков и периферийных вычислений создаст цифровую инфраструктуру для транспортных средств и дорог, необходимую, чтобы машины без водителей стали реальностью».

К архитектурным соображениям относится также энергопотребление. За последнее десятилетия ЦОДы стали более эффективно расходовать электричество. Но промышленность должна учитывать влияние увеличения объемов обработки данных на периферии на энергопотребление. «В минувшем десятилетии мы способствовали консолидации ИТ-функций, включая сбор данных и их обработку, в крупных специализированных сооружениях, где расход электричества является транспарентным, где управление электроэнергией тщательно изучается и где присутствуют сильные стимулы к эффективности. Если мы видим растущий спрос на обработку данных на локальном уровне с помощью периферийных вычислений прежде, чем данные пересылаются в облако, как нам агрегировать этот расход энергии и как мы можем гарантировать, что он будет транспарентным и поддающимся учету?», — вопрошает Дейли.

Но с помощью периферийных вычислений можно и сократить потребление энергии. Благодаря таким факторам, как закон Мура и виртуализация, расход энергии на обработку фиксированного объема данных за 30 лет сократился более чем на шесть порядков. «Некоторые считают, — сказала Дейли, — что периферийные ЦОДы, использование которых расширяется, могут быть гораздо более автономными в отношении электроснабжения и что они смогут использовать гораздо больше разнообразных источников энергии, поскольку они менее монолитны и их устойчивость может быть обеспечена за счет дублирования и взаимного перекрытия, а не непрерывного энергоснабжения каждого из них».

В 2018 г. McKinsey сформулировала ряд предложений, как промышленным компаниям добиться успеха с помощью производства следующего поколения, использующего технологии Индустрии 4.0 вроде периферийных вычислений. Компаниям необходимо четко определить цели бизнеса, чего они хотят достичь. Но одним из главных препятствий, как показало исследование, является незрелость ИТ. McKinsey сообщила, что почти половина (44%) из 700 опрошенных ею в 2018 г., спасаясь от мук, связанных с пилотными проектами, указали на недостатки ИТ в качестве главной проблемы при реализации цифрового производства.

«Для создания более или менее соответствующей требованиям завтрашнего дня среды периферийных вычислений необходимо начать с разумного архитектурного дизайна. Это означает, что необходимо не только продумать все зависимости и потоки на различных уровнях между периферией и облаком, но и продумать, как будут на постоянной основе осуществляться предоставление доступа, конфигурирование, мониторинг и администрирование систем и компонентов. Для этого следует усвоить тот образ мыслей, который описывается формулой ‘дизайн для операций’», — отметил Дейл Вайл, заслуженный аналитик Freeform Dynamics.

Для Freeform Dynamics периферийные вычисления являются способом связать ИТ с операциями в производственных и промышленных системах. Но фирма предупреждает руководителей ИТ-подразделений и директоров по операциям, что помимо таких технических требований, как подключенность, обмен данными и протоколы, которые позволяют машинам обмениваться информацией через сеть, необходимо подумать также о выделении средств на устройства, которые закроют разрыв между операциями и ИТ.