С тех пор как концепция ткани данных (Data Fabric) дебютировала несколько лет назад, она стала популярным методом интеграции разрозненных инструментов управления данными для предприятий. Технология приносит дивиденды пользователям, но в области больших данных ничто не стоит на месте долгое время, поэтому Forrester решила обратить внимание на новшества Data Fabric 2.0, сообщает портал Datanami.

Потребность в соединительной ткани данных появилась в связи с ростом объемов данных и обострения проблем, связанных с изолированностью хранилищ данных. Объединяя различные инструменты, которые предприятия используют для получения, очистки, преобразования, защиты и управления данными на уровне метаданных, ткань данных может облегчить головную боль, связанную с управлением большими данными и помочь продолжить работу над проектами в области передовой аналитики, науки о данных и искусственного интеллекта.

По словам вице-президента и главного аналитика Forrester Ноэля Юханны, соавтора нового отчета «Data Fabric 2.0 for Connected Intelligence», вторая версия ткани данных характеризуется рядом усовершенствований по сравнению с первым поколением.

«То, что мы видим в 2.0, — это больше интеллекта, встроенного в саму платформу, — говорит он. — Первая версия — это просто объединение всех функций управления данными, чтобы мы могли ускорить эти сценарии использования. А вторая знаменует переход на следующий уровень, который в большей степени касается интеллекта платформы».

По словам Юханны, в Data Fabric 2.0 различные продукты, входящие в состав платформы, будут способны распознавать различные типы данных. Например, они смогут идентифицировать данные кредитных карт, поступающие в сеть по одному каналу, и знать, какие другие данные являются релевантными.

«Возможно, платформа будет знать, что мне нужно соединить данные, которые я загрузил вчера, с данными, которые я загрузил две недели назад, — говорит он. — Интеллект вступает в игру, что, на мой взгляд, очень важно. В ближайшие 5-10 лет это будет очень важным направлением развития ткани данных. Интеллект будет самым важным ее элементом в будущем».

По словам Юханны, в значительной степени интеллектуальность будет обеспечиваться за счет совместного использования метаданных различными продуктами, составляющими ткань данных. Инструменты управления мастер-данными (MDM) также станут более заметными в ткани данных и помогут обеспечить использование предприятием наилучших данных для решения конкретной задачи. В некоторых случаях MDM-проекты будут жить рядом с тканью данных, а в других случаях сама ткань данных будет выполнять функции MDM, говорит эксперт.

По его словам, в развертывании ткани данных в будущем также станут чаще применяться графовые движки. Графовые базы данных, также известные как графы знаний, будут способствовать развитию интеллектуальности в рамках Data Fabric 2.0.

«Графический движок позволяет задействовать возможности графов для соединения многих точек, — говорит Юханна. — Когда вы объединяете два или четыре источника данных, это не является большой проблемой. Вы можете сделать некоторые из этих интеграций вручную. Но представьте себе сотни или тысячи источников поступающих данных. Человеку интегрировать их просто невозможно. Вот почему вам нужен механизм, например, графовый, чтобы действительно начать выполнять работу по интеграции».

В настоящее время не все вендоры ткани данных предлагают графовые движки, но эксперт считает, что в будущем все больше поставщиков будут добавлять их, чтобы помогать соединить точки. «Я думаю, это станет очень серьезным требованием для всех вендоров — встроить графовый движок, — говорит он. — По мере того, как люди будут совершенствовать свои системы и платформы с тканью данных, это будет становиться критическим требованием».

Data Fabric 2.0 также характеризуется более широкими возможностями обеспечения подключенности в режиме реального времени. С начала пандемии потребители оказывают давление на компании, требуя от них более качественного и быстрого онлайнового обслуживания. Когда эти бизнес-требования доходят до ИТ-отделов, это означает более активное внедрение систем потоковых данных, таких как Apache Kafka и Amazon Kinesis.

Для крупных предприятий просто передавать данные по более быстрым каналам — это одно, а обеспечить доступность самых свежих данных для множества подключенных сервисов данных — совсем другое. Именно здесь на помощь приходит Data Fabric 2.0.

«Дело в том, что конвейеризация [данных] становится все более интегрированной, — говорит Юханна. — Это означает, что вы можете быстро подключать... эти источники данных к ткани».

По его словам, одна крупная розничная компания, внедрившая потоковые данные в свою ткань данных, способна собрать всю информацию о клиенте в течение 10 секунд после того, как он позвонит на главную горячую линию.

«К тому моменту, когда клиент подключается к системе, она уже точно знает, откуда звонит клиент, что ему нравится и не нравится, и какие у компании есть потенциальные возможности, — говорит Юханна. — Это происходит в реальном времени в ткани».

Data Fabric 2.0 также предоставит больше возможностей для обеспечения безопасности данных и соблюдения нормативных требований. Безопасность данных и управление данными всегда были первоклассными членами ткани данных, но возникающие на фоне ужесточения отраслевых норм проблемы, касающихся хранения и обработки данных, заставляют поднять эти вопросы на более высокий уровень.

Юханна приводит еще один пример того, как компания нашла новое применение ткани данных в этой области. У банка были тысячи пользователей, и во время аудита он обнаружил, что некоторые бывшие сотрудники все еще сохраняют доступ к определенным базовым системам. В банке увидели, что могут использовать ткань данных для обеспечения безопасности, аутентификации, авторизации и контроля доступа, поскольку она является более централизованной, чем базовые системы. «Они внедрили эту систему за четыре-шесть месяцев и добились очень хороших результатов. Аудиторам понравился такой подход, потому что он был более централизованным. Теперь стало точно известно, кто и какой доступ к данным получает в организации. И все процессы также должны были подключаться через „тканевый“ маршрут. Это стало похоже на LDAP, так сказать, для доступа к данным».

Ткань данных — это централизация технологий и процессов, связанных с управлением данными. В Data Fabric 1.0 это касалось в основном внутренних данных, таких как данные из систем ERP и CRM. Но нет ничего удивительного в том, что с Data Fabric 2.0 внешние и периферийные данные будут в большей степени вовлечены в централизованное управление данными.

По словам Юханны, предприятия обращаются к ткани данных для интеграции множества внешних данных, включая социальные данные, данные кредитных карт, государственные данные и открытые данные.

«Мы начинаем видеть, что ткань данных выходит за рамки организации, — говорит он. — Это становится более глобальной тенденцией. Я думаю, что глобальная ткань данных будет играть большую роль, потому что в конце концов вы сможете соединить несколько таких сред — как внутри организации, так и в целом — вместе».

Периферия также будет играть центральную роль в Data Fabric 2.0. Юханна указывает на появление предложений облачной ткани данных как сервиса (DFaaS), который обеспечивает централизованный доступ к управлению данными клиентов, живущих в одном облаке. Также будет место и для ткани данных, которая выходят за пределы одного облака.

«Ткань данных становится очень сильным ценностным предложением, поскольку соединяет точки между локальным миром, облачным миром, мультиоблачным миром и периферией», — говорит Юанна.

Более того, ткани данных также начинают охватывать смарт-устройства и подключенные автомобили. «Им нужны последовательные данные, им нужны надежные данные, им также нужны данные в реальном времени для бизнеса, — говорит Юханна. — Поэтому мы видим, что ткань данных приходит на периферию и для этих сценариев использования. Но это пока очень раннее время для ткани данных в этой сфере».