Подавляющее большинство экспертов считает, что ключевым элементом цифровой трансформации выступает ПО. По мнению независимого консультанта в области управления бизнес-проектами Джорджа Анадиотиса, которым он поделился на портале ZDNet, значение софта в цифровых проектах не теряет актуальности, но все же начинает заметно уступать данным: если раньше он предназначался для управления данными, то теперь данные сами начинают управлять программным обеспечением. К этому нужно добавить, что в последнее время разработчики заострили внимание на облачных приложениях. Вместе с ростом их популярности наблюдается постепенный перенос в облако и данных, которые генерируются этими приложениями. Чем больше в облаке сосредотачивается данных, тем больше внимания разработчики уделяют созданию новых приложений. По сути, это замкнутый круг, основополагающим элементом которого являются данные.

Уже сейчас мы видим, как изменяется разработка ПО: инженеры фокусируются на программировании, управляемом данными (data-driven programming) и машинном обучении, или ПО 2.0. Учитывая популярность машинного обучения среди разработчиков, оно приобретает стратегическое значение и для облачных провайдеров, и вот теперь важно понять, что же значит софт второго поколения для клиентов.

Рабочие нагрузки БД двигаются в облако

Обычно при переводе своей инфраструктуры в облако организация сталкивается с несколькими важными проблемами. Одна их них связана со сложностью выбора облачного провайдера, услуги которого бы оптимально подходили требованиям организации как с точки зрения качества, так и стоимости. Вторая вызвана желанием избежать привязки к одному вендору (lock-in). Верный способ справиться с обеими — выбор нескольких облачных провайдеров (мультиоблако) и гибридного облака, что позволяет хранить часть данных и приложений онпремис в частном облаке, а другую часть — в мультиоблаке.

Недавно компания Pivotal провела совместное с Microsoft и Forrester исследование, целью которого было выяснить, насколько эффективно применение гибридного облака в корпоративной среде, какие его возможности мультиоблака нужны пользователям и с какими проблемами предприятия сталкиваются при использовании нескольких облачных платформ. Как выяснилось, подавляющее большинство опрошенных ИТ-директоров обладают опытом внедрения облачных и гибридных облачных служб — 100 и 77% соответственно.

В качестве критериев выбора облачной стратегии развертывания они приводят такие факторы: эффективность, гибкость развертывания и скорость работы. В то же время CIO обращают внимание, что облако обладает некоторыми недостатками: оно недостаточно защищено от кибератак, имеет малопрозрачную схему мониторинга и ему недостает связности ресурсов. В качестве решений для устранения этих недостатков были названы облачные платформы, являющиеся слоем абстракции между частным и публичными облаками.

Опрос показал, что предприятия продолжают переводить свои инфраструктуры в облако. Об этом говорит тот факт, что если в этом году разработанные под заказ БД стали основной архитектуры приложений для 57% предприятий, то в следующем таких наберется только 39%. Снижение интереса к локальным БД может означать, что вместо них организации отдают предпочтение облако-управляемым БД.

Стоит ли ожидать массовой миграции в облачные БД? Каким образом лучше всего осуществлять перенос рабочих нагрузок БД? Какова наилучшая стратегия миграции данных? Вице-президент Pivotal по технологиям Джош Маккенти считает, что определение «рабочих нагрузок БД» выглядит немного странным, поскольку оно затрагивает PL/SQL- и другие процедурные расширения, которые фактически выполняются внутри БД: «Мы считаем, что эти расширения должны стать основной областью для модернизации и рефакторинга, поскольку они не только не переносятся в публичную облачную среду, но и на самом деле являются причиной зависимости от одного поставщика, препятствующей снижению затрат на лицензирование. Перенос процедур хранения за пределы БД требует перепроектирования кода с помощью современных процессов разработки ПО типа CI или автоматизированного тестирования».

Многоуровневая стратегия переноса данных

Многие рыночные наблюдатели считают, что перевод в облако управляемых платформ и данных уже начался. Планируя миграцию, многие организации применяют многоуровневый подход, перемещая в основную операционную среду «горячие» данные и оставляют в других средах «теплые» и «холодные» данные. При этом, по словам вице-президента Pivotal по продуктам Яна Эндрюса, ключевой проблемой являются уровни дублирования данных и миграции. «Мы работаем с банками или страховыми компаниями, парк приложений которых по-прежнему работает на мейнфреймах или подключается к ним. Как правило, первый этап проекта модернизации этой архитектуре включает выбор уровня кэширования данных и набора API, позволяющих разрабатывать новые приложения без прямого подключения к среде мейнфрейма. Многоуровневый или поэтапный переход возможен только в этом случае», — сказал он.

Индивидуальная разработка или iPaaS?

iPaaS (integration platform as a service, интегрированная платформа как сервис) — это один из новых сервисов, которыми так богата экосистема SaaS. Этот набор облачных служб предназначен для разработки, выполнения и обслуживания интеграционных потоков, соединяющих какие-либо комбинации локальных и облачных сервисов, процессов, приложений и данных внутри одной или нескольких организаций. Возможность работать через облака — ключевой момент для предложений iPaaS, в качестве примеров которых можно назвать интеграционный хаб CloudHub компании MuleSoft, систему Tibco Cloud Bus, сервисы интеграции облачных платформ Microsoft Azure и Red Hat OpenShift.

По словам Маккенти, автоматизация различных видов бизнес-процессов применяется в качестве стратегии снижения затрат. При этом бóльшая часть работы по цифровой трансформации предприятий по-прежнему сосредоточена на разработке новых продуктов и переходу к непрерывной доставке: «Компании в основном фокусируются на создании или приобретении ПО с уникальными функциями, тогда как фреймворки Low/No Code iPaaS для этих целей являются не самым подходящим решением».

Готовые iPaaS-решения гарантируют интероперабельность разнородных систем интеграции при переносе в облако инфраструктур и данных, т. е. ускоряют переход, не требуя приостановки рабочих процессов. Учитывая уникальность данных каждой организации, для миграции данных лучше всего задействовать iPaaS, но если возникнет необходимость — имеет смысл обратиться к заказному софту, советуют топ-менеджеры Pivotal.

Избегайте моновендорной привязки

Облако не только изменило модель разработки ПО, но, как говорилось выше, все в большей степени начинает притягивать пользовательские данные. Естественно, у многих разработчиков, ИТ-директоров и других специалистов начали возникать опасения по поводу безопасности и сохранности данных. По мнению Эндрюса, приступающие к миграции пользователи могут при обустройстве инфраструктуры миновать некоторые типичные шаги, которые стали отправной точкой для аналитических проектов. К примеру, большинство публичных облаков позволяет клиентам переложить на провайдера базовую подготовку данных (например, извлечение объекта) и разработку алгоритма.

«Применение этих и подобных им функций публичных облаков — это, безусловно, правильная стратегия для большинства организаций. Однако при этом они должны иметь представление о том, как работают их данные в облаке. Если по какой-либо причине (например, из-за стоимости услуг) организация захочет подключиться к услугам альтернативного провайдера, ей нужно учитывать время и затраты на перемещение как необработанных данных, так и данных, которые прошли пост-обработку („проницательность данных“). Не допустить lock-in можно только обладая стратегией работы с данными», — сказал он.

Несмотря на то, что разработка ПО начинает опираться на данные и постепенно переводится в облако, предприятия не должны доверять свои данные единому провайдеру. Это проверенная временем тактика, которая одинаково эффективна как в облаке, так и в других средах.