В 2016 г. огромную популярность приобрели ИТ-решения в стиле «сделай сам», и этот год стал настоящим прорывом для самостоятельной подготовки данных и аналитики. Невероятно возросла степень применения решений для самостоятельной аналитики, так как бизнес-пользователи хотят иметь возможность анализировать данные, не прибегая к обязательной помощи ИТ-специалистов. Также наметился стремительный рост количества средств самостоятельной подготовки данных, так как все больше пользователей данных осознают, что эти технологии могут сэкономить им огромное количество времени, денег и ресурсов за счет возможности оперативно находить и загружать данные практически из любого источника, а затем подготавливать их для анализа на порядок быстрее, чем это делается с помощью электронных таблиц и прочих инструментов с применением ручных операций. Эта тенденция продолжит расширяться и в 2017 г., причем впереди ее ждет масса новых возможностей. Мы и дальше будем наблюдать такой же (если не больший) объем инноваций, неуклонно меняющих принципы, по которым специалисты по обработке данных, аналитики и корпоративные пользователи применяют аналитическую информацию для повышения эффективности работы компаний и улучшения качества рабочих процессов. Ниже на базе отраслевой информации, собранной Джоном Пилкингтоном, директором продуктов компании Datawatch, предлагается несколько прогнозов относительно перспектив средств самостоятельной подготовки и анализа данных.

Огромное значение приобретет социализация данных

Появление средств самостоятельной аналитики непроизвольно привело к тому, что ситуация с данными во многих компаниях стала напоминать Дикий Запад. Данные нынче распространяются по всей организации, при этом управляют ими зачастую обособленно. Данными и аналитическими выводами не обмениваются и не используют их повторно — скорее, пользователи начинают каждый новый аналитический проект с нуля, не пользуясь преимуществами повторного моделирования данных. К тому же из-за распределенной архитектуры ИТ-специалистам становится труднее регулировать доступ к этой информации и защищать ее.

Произойдет революция в самостоятельной подготовке данных

Новые революционные технические возможности объединят в себе преимущества традиционных средств самостоятельной подготовки данных с ключевыми характеристиками социальных платформ, что позволит специалистам по обработке данных, бизнес-аналитикам и даже начинающим бизнес-пользователям различных отделов компании искать, обмениваться и повторно использовать подготовленные, управляемые данные для принятия более качественных бизнес-решений. При этом руководству компаний не придется переживать по поводу контроля за данными и их соответствия необходимым нормам и требованиям, ведь они будут поступать из централизованных, разрешенных источников данных.

Возрастет важность сертифицированных наборов данных

Так как данные распространяются по всей организации, а их пользователи часто работают обособленно, информация стала неконтролируемой и непредсказуемой. Неумелое управление данными повышает риски, связанные с нарушением безопасности и юридическим несоответствием, и приводит к ухудшению качества данных. В результате специалисты по обработке данных и коммерческие пользователи часто теряют доверие к своим источникам данных и сомневаются насчет их точности, своевременности и актуальности.

Озера данных потеряют актуальность

Многие компании реализовали у себя озера данных в попытке организовать таким образом централизованное хранилище, но этот подход в целом себя не оправдал. Тем, кто пользуется данными, зачастую трудно найти и проанализировать нужные данные. В 2017 г. получат распространение т. н. сертифицированные наборы данных, создаваемые ИТ-специалистами и аналитиками, которые будут согласовывать группы разрозненных источников данных и обеспечивать простой доступ к ним корпоративным пользователям. Обмен этими сертифицированными наборами данных между подразделениями компании будет гарантировать качество данных и повысит доверие к данным, аналитическим процессам и их результатам.

Качество и подготовка данных станут представлять единое целое

Контроль за качеством данных и подготовка этих данных в настоящее время представляют собой две отдельные, четко выраженные функции. Но ввиду их постоянного развития в инструменты подготовки данных теперь встраивают множество функций проверки качества этих данных, а производители ПО и сервисов для контроля за качеством данных теперь дополнительно занимаются решением проблем с подготовкой данных. В 2017 г. качество и подготовка данных сольются в единое целое, а на предприятиях будут лучше понимать, каким образом реализовать функции из обеих дисциплин, чтобы добиться наилучших аналитических результатов.

IoT-данные повысят спрос на базы данных временных рядов

Все больше компаний начинают использовать данные от устройств Интернета вещей в аналитических целях. Но их сотрудники приходят к выводу, что больше нецелесообразно складывать эту информацию в репозиторий, не поддерживающий возможность эффективно анализировать данные, поступающие от IoT-устройств. Пользователям, собирающим разрозненные данные, нужна возможность помечать их метками времени, а затем объединять, группировать и проигрывать информацию во времени, чтобы сформировать комплексное видение ситуации. Благодаря IoT-устройствам и данным, которые они генерируют в режиме реального времени, в следующем году мы увидим повышение спроса на базы данных временных рядов вкупе со средствами подготовки данных в режиме реального времени.

Машинное обучение приведет к образованию новых интеллектуальных данных

Машинное обучение или алгоритмический анализ выполняют интеллектуальную обработку данных еще до того, как начнется процесс их очищения, подготовки и анализа — таким образом повышается качество массивов данных. С помощью интеллектуальных данных пользователи могут проанализировать действия других пользователей до них и выяснить, какой вклад они внесли в другие наборы данных, при этом повышается эффективность аналитических процессов. В наступающем году вырастет количество организаций, в которых будут применяться интеллектуальные данные для аналитики и оптимизации рабочих процессов.

Расширенная аналитика станет популярнее

Расширенные аналитические процессы традиционно находились в ведении специалистов по обработке данных. Но теперь все больше вендоров добавляют в свои решения функционал расширенной аналитики, наделяя бизнес-пользователей возможностью разобраться с этим процессом и научиться делать аналитические прогнозы. В 2017 г. мы увидим, как расширенная аналитика перейдет из разряда новшеств в разряд ключевых функций, от которых зависит работа компании.

Безраздельную власть получат облачные вычисления и виртуализация

В сфере аналитических процессов наберет популярность виртуализация данных. Это весьма многообещающая технология. Она способна снижать расходы, так как организациям не приходится создавать хранилища; она помогает выполнять аналитику в режиме реального времени, так как данные нет нужды перемещать; наконец, она повышает степень гибкости, позволяя пользователям анализировать данные из большего количества источников, причем делать это быстрее.

Виртуализации данных — зеленый свет

За прошедшие годы виртуализации данных чинилось множество препятствий, мешавших использовать ее в аналитических целях. И хотя определенные трудности существуют до сих пор, в 2017 г. мы станем свидетелями возобновления интереса к этой технологии, в основном за счет того, что вендоры совместят виртуализацию данных с их подготовкой, что даст им возможность создать информационную архитектуру, способную обеспечить гибкость самообслуживания по более низкой цене. Что касается облачных вычислений, мы увидим, как эта технология выйдет в 2017 г. на совершенно новый уровень признания, на котором в процессе обнаружения данных облачные репозитории будут становиться источниками получения данных и местами их хранения намного чаще, чем онпремисные системы.

Версия для печати