№ 1. ИТ — ключевая движущая сила на пути к трансформации бизнеса

С технологической точки зрения мы явно живем в эпоху цифровых экосистем. Чтобы оставаться успешными, современным предприятиям необходимо трансформировать разные аспекты своего бизнеса, будь то ИТ, способы организации работы сотрудников, системы безопасности или цифровизация ведения бизнеса.

Что касается серверов, мы уверены: серверы — основа современных ЦОДов. Трансформация бизнеса безусловно придает дополнительные конкурентные преимущества современным организациям, позволяя быстрее реагировать на рыночные изменения и разрабатывать и запускать на рынок новые продукты и сервисы. Мы находимся в середине идеального шторма, продолжающегося уже последние 50 лет, как в области технологий, так и бизнес-стратегий. Современный бизнес вынужден трансформироваться, чтобы преуспеть в новом цифровом мире, или быть побежденным предприятиями нового типа, использующими все передовые технологии, например, аналитику данных, искусственный интеллект, машинное обучение и др.

Используя такие технологии, как интеллектуальный анализ данных (data mining), предприятия получают возможность приблизиться к своим заказчикам и найти новые способы продвижения своих решений или сервисов. Быстрая реакция на изменения и правильный выбор инструментов значительно увеличивают шанс занять лидирующие позиции на рынке.

№ 2. Граничные вычисления — это реальность

Требования к ИТ-оборудованию, программному обеспечению и инфраструктуре ЦОДа продолжат увеличиваться и усложняться в ближайшем будущем. Растущие объемы данных, требующих обработки в реальном времени, станут основным фактором повсеместного распространения концепции граничных вычислений. До сих пор определение термина «граничные вычисления» оставалось довольно расплывчатым. С одной стороны, под границей (граничной инфраструктурой) подразумевается необходимость агрегации данных и перемещение результатов этой агрегации для обработки в облачную инфраструктуру. В этом случае объем обрабатываемых данных уменьшается по мере удаления от границы инфраструктуры. Эта концепция предъявляет новые требования к ИТ-оборудованию, такие как компактный форм-фактор и готовность работать в сложных условиях, вне ЦОДа. Нетрадиционные среды развертывания способствуют поиску нового баланса между возможностями аппаратного обеспечения, такими как производительность, тепловые характеристики и возможности подключения к различным внешним устройствам. С другой стороны, граница (граничная инфраструктура) — это способ приблизить традиционную облачную инфраструктуру вычисления и хранения данных ближе к источникам данных и конечным устройствам, облегчая нагрузку на облачную инфраструктуру и значительно снижая требования к каналам передачи данных. Результат — это геораспределенная архитектура вычисления и хранения данных, которая ранее не была доступна с применением традиционных технологий. Ключевое преимущество данного подхода заключается в том, что собранные данные могут быть проанализированы и обработаны в реальном времени, и только результат этой обработки будет передан в ЦОД для дальнейшего использования. Мы отмечаем рост пилотных проектов в области граничных вычислений, среди которых особенно стоит отметить следующие отрасли: сервис-провайдеры, собственники недвижимости и операторы ЖКХ, производители промышленного оборудования и системные интеграторы, создающие и тестирующие новые бизнес-модели, оценивая возможность применения граничных вычислений на практике. К ним, очевидно, присоединятся традиционные colocation-провайдеры, новые стартапы и крупные глобальные инфраструктурные компании, поскольку все они стремятся получить детальное представление о том, к каким конечным решениям в итоге придет отрасль. В ближайшем будущем будут разработаны и испытаны новые форм-факторы ИТ-оборудования, программного обеспечения и инфраструктуры центров обработки данных, что позволит клиентам тестировать свои решения с небольшими первоначальными капитальными затратами. Будут развернуты небольшие автономные центры обработки данных, которые позволят использовать традиционные ИТ-решения и работать с ними ближе к источникам данных.

Результатом внедрения граничных вычислений станет необходимость построения многопользовательских сред по мере того, как появится необходимость совместного использования частных граничных инфраструктур разными организациями. Позитивным результатом такого взаимодействия станет возможность использования граничных инфраструктур теми организациями, которые не обладают достаточными ресурсами для построения своей собственной граничной инфраструктуры в конкретной географической области, но доступ к таким ресурсам в том или ином регионе им будет необходим. Таким образом гибридные граничные инфраструктуры позволят разным решениям в гетерогенной среде работать совместно, предоставляя лучшую производительность, минимизируя расходы на восходящую (upstream) инфраструктуру.

Развитие граничных технологий предоставит заказчикам и поставщикам огромные возможности по использованию, анализу и распространению данных. Запущенные в 2019 г. пилотные проекты в области граничных вычислений позволят всем сторонам проверять и тестировать новые технологии, а также связанные с ними модели затрат. Эти результаты заложат основу для граничной инфраструктуры и конкретных решений в будущем.

№ 3. На пути к кинетической инфраструктуре

Термины «компонуемая инфраструктура» и «серверная дезагрегация» завоевали свое место в умах многих сотрудников подразделений ИТ еще в 2018 г., когда в индустрии появились первые наброски технологий, которые позволят в будущем создать полностью компонуемую инфраструктуру. Новые технологии позволят добиться полной компонуемости ресурсов, включая даже те ресурсы, которые требуют крайне низких задержек при передаче данных, измеряемых долями микросекунды, например SCM (storage class memory). Уникальная архитектура серверных шасси, в которых отсутствует соединительная панель (midplane) между серверами и модулями коммутации, позволяет уже сейчас использовать высокоскоростные технологии коммутации, примером которых являются технологии, описанные в стандарте серверов будущего консорциума GenZ.

Другим ключевым элементом на пути к кинетической инфраструктуре является постоянно продолжающееся развитие концепции серверов будущего от консорциума GenZ. Для создания полностью компонуемой инфраструктуры, естественно, требуется разработка новых технологий ввода-вывода, которые позволят реализовать разделяемый доступ ко всем внутренним ресурсам сервера, таким как SCM-, NVMe-накопители, вычислители GPU и программируемые сопроцессоры FPGA. Разработки консорциума GenZ в области создания таких технологий ввода-вывода нового поколения — это выбор всей ИТ-индустрии. В консорциум GenZ входят более 60 ведущих поставщиков ИТ-решений и компонентов, и в ближайшем будущем мы увидим все больше и больше примеров практической реализации технологий, разработанных совместно участниками GenZ. В то время как исследования консорциума GenZ позволят нам сделать новый шаг на пути к полной компонуемости ИТ-инфраструктуры, в скором времени мы увидим появление и массовое распространение новых технологий, позволяющих организовать разделяемый доступ к различным ресурсам. Примером этого класса решений является технология NVMe over Fabrics, позволяющая любому произвольному набору серверов в динамическом режиме получать доступ к пулу NVMe SSD-накопителей, сохраняя низкие задержки при передаче данных и обеспечивая тем самым полноценную производительность NVMe-накопителей в разделяемом режиме работы. Резюмируя, можно с уверенностью сказать, что в ближайшем будущем мы увидим ускорение развития новых технологий на пути к воплощению кинетической архитектуры в действии.

№ 4. Интерес бизнеса к данным повышает спрос на применение искусственного интеллекта, машинного и глубинного обучения

Последнее время границы применения ИТ в бизнесе продолжают расширяться, причиной этого является переход экономической модели ИТ от создания и накопления данных к потреблению и обработке данных. Увеличение объема и разнородности данных ставит современные организации перед необходимостью тщательно анализировать эти данные в оперативном режиме. Таким образом, можно сказать, что одним из результатов эволюции экономики ИТ становится повышенный спрос на инструменты, позволяющие применять на практике такие технологии, как искусственный интеллект, машинное и глубинное обучение (AI/ML/DL), созданные для того, чтобы трансформировать данные организации в полезную информацию.

Индустрия находится в центре бурного потока данных, который традиционно поступал из ИТ-систем, но уже очевидно, что количество источников данных продолжает непрерывно расти. Распространение новых технологий, трансформирующих данные в информацию, увеличивает спрос на:

  • специалистов, обладающих опытом применения технологий AI/ML/DL для решения бизнес-проблем;
  • развитие и стандартизацию инструментов, методологий и алгоритмов в области AI/ML/DL;
  • ИТ-инфраструктуру, способную обеспечить надежность и производительность для выполнения новых рабочих нагрузок.

Мы уже встречаем примеры применения ускорителей вычислений, таких как GPU и FPGA, для обработки растущего объема данных, и в ближайшем будущем увидим появление новых специализированных программных решений, равно как и специализированных под отдельные задачи ASIC-контроллеров, призванных ускорить работу систем искусственного интеллекта.

Очевидно, что расширение инструментария усложнит выбор каждой организации, какой из инструментов наилучшим образом подойдет для решения их конкретных задач.

Все чаще преимущества технологий, ранее применявшихся только в системах высокопроизводительных вычислений (HPC), продолжат оказывать влияние на выполнение традиционных рабочих нагрузок и повышать требования к производительности ИТ-инфраструктуры. Переход к модели извлечения информации из данных будет привлекать все больше внимания к классу решений вычислений с высокой пропускной способностью (HTPC, High ThroughPut Computing).

Как было замечено выше, ограничения традиционных детерминированных методов вычислений потребуют сочетания детерминированных и вероятностных вычислительных технологий (таких как машинное и глубинное обучение). Это дополнение к инструментарию ИТ-систем будет использоваться для выявления и минимизации задач, для которых примерный ответ дает удовлетворительное решение (например, машинное обучение), в то время как в остальных задачах будут использованы детерминированные вычисления для получения точных результатов. Непрерывный рост данных (особенно на границе ИТ-инфраструктуры) приведет к росту применения технологий MLI (machine learning inferencing) как первого уровня предварительной проверки данных в непосредственной близости от источника этих данных.

Несмотря на увеличение в прессе количества материалов и упоминаний о таких технологиях, как гибридные облака, ИИ, машинное обучение и граничные вычисления, сами эти концепции будут становиться менее важными, поскольку реальные поставщики решений стремятся делать правильные вещи в нужном месте, независимо от того, как часто эти термины упоминаются в различных ресурсах.

У 2020-го есть все шансы стать годом расширения круга ASIC-решений для систем тренировки и формирования логических выводов (inferencing) для ИИ. На рынке появится масса новых решений в этой области, и многие из них, к сожалению, исчезнут так же быстро, как появились. Многие поставщики уже по достоинству оценили широту рынка решений по формированию логических выводов, размеры которого сравнимы с рынком решений по тренировке машин, занятого поставщиками GPU-решений. Некоторые производители намерены занять значительную долю на этом рынке, включая такие компании, как Graphcore с их ускорителями тренировки и формирования выводов, AMD с их процессорами и графическими процессорами ATI, а также Intel с их процессорами и сопроцессором Nervana ML. К счастью, практически вся работа с данными ведется над несколькими популярными средами, такими как TensorFlow или PyTorch. Это позволяет поставщикам сосредоточиться на лучших базовых ресурсах для этих сред. И что особенно важно отметить, мы уже наблюдаем появление моделей и стандартизацию процессов обучения, когда полностью обученные модели могут быть созданы в одной среде и перенесены в совершенно другую. Ожидается, что в 2020 г. будут достигнуты дополнительные успехи в области стандартизации моделей.

Следующим важным испытанием станет валидация моделей и устранение скрытых смещений в тренировочных наборах, определение доверия, его описание, способы измерения, верификации и наконец, как индустрия будет поступать с последствиями ситуаций, когда ИИ будет ошибаться. Мы уже наблюдаем, какой значительный вклад машинное обучение внесло в области распознавания голоса и визуальных образов, а также на различные системы рекомендаций. В ближайшем будущем можно ожидать, что эти приложения продолжат участвовать в процессе поддержки принятия решений с участием человека, где ограничены последствия неверных выводов.

№ 5. Преимущества использования блокчейн-технологий на предприятии

Современные организации всегда ищут способы и средства сделать свои системы более безопасными и прозрачными. Блокчейн может стать ключевым технологическим компонентом для создания таких решений. Происхождение блокчейна восходит к октябрю 2008 г., когда был опубликован первый документ по «одноранговой электронной кассовой системе», в которой появилась цифровая валюта биткоин.

В последующее десятилетие было много хайпа и активности в области криптовалют и ICO (Initial Coin Offerings). Как и в случае с другими высокотехнологичными технологиями на ранней стадии (например, AI/ML/DL, граничные вычисления и Интернет вещей, 5G), мы видели два подхода, когда некоторые технологические энтузиасты рассматривают блокчейн как священный грааль децентрализованных идентификаторов, децентрализованных доверенных вычислений и Интернета следующего поколения 2.0, в то время как другие скептически считают, что блокчейн является просто распределенной базой данных.

Это повлечет за собой увеличение активности в области эксклюзивных блокчейнов и их способности решать реальные рабочие задачи на предприятиях, а также различные примеры внедрения этой технологии. По сути, речь идет о применении распределенного реестра (DLT), который является базовой технологией для блокчейна, в рабочих процессах предприятия. Некоторые из первоначальных примеров использования могут быть сосредоточены на улучшении процесса аудита и нормативных проверок на предприятиях или на обеспечении безопасного обмена информацией между различными контрагентами (конкурирующими компаниями, поставщиками и производителями и заказчиками). Эти внедрения приведут к усиленному сотрудничеству разных участников индустрии в области архитектур, основанных на блокчейн-технологиях, а также станут предпосылкой создания консорциумов, нацеленных на применение блокчейна в отдельных отраслях: финансы, логистика и канал поставок, здравоохранение и ритейл и др.

Большая часть данных будет храниться вне цепочки (offchain) на существующих серверах и системах хранения, а информация будет передаваться по цепочке (onchain), где преимущества неизменяемости блокчейна, возможности безопасности и шифрования, использование распределенной базы данных дают дополнительные преимущества. «Умные» контракты будут играть ключевую роль, а мультиблокчейн-архитектуры начнут развиваться. Мы также увидим рост количества применений технологий распределенного реестра (DLT) для интеграции с передовыми примерами применения в области Интернета вещей и AI/ML/DL. Чтобы добиться успеха, всем участникам ранних внедрений нужно уделять пристальное внимание реальным преимуществам блокчейн-технологий и аспектам интеграции их преимуществ с существующими на предприятии системами.

Автор статьи — директор департамента серверных и сетевых решений, Dell Technologies в России.