Поскольку больших данных становится все больше, назревает проблема, как их перемещать. Возможно, вместо этого пора переносить приложения ближе к данным.

При неуклонно растущих объемах больших данных многих специалистов интересует вопрос, как это в будущем повлияет на потребности в сетевых ресурсах, центры обработки данных и вычислительную инфраструктуру.

Именно эта тема обсуждалась группой экспертов 20 июня, в первый день ежегодного совещания Structure по облачным вычислениям, организуемого порталом GigaOm в Сан-Франциско.

Одно из предложений, как надо относиться к проблемам, связанным с большими данными, состоит в том, чтобы изменить наш собственный угол зрения. Например, средоточием функциональных нагрузок и совместных действий теперь становятся не ПК, а сеть на базе облака.

По словам технического директора и вице-президента Cisco Systems Лу Такера, в сегодняшних данных анализировать биты и атомы информации уже недостаточно. А корпоративный мир никогда не встречался с такими объемами данных, какие аккумулируются в настоящее время.

Однако, отметил модератор дискуссии и автор материалов GigaOm Стейси Хиггинботем, для больших данных трудно выстраивать рынки и бизнес-модели, что сдерживает развитие этого сектора.

По мнению Кена Барнса, старшего вице-президента и глобального руководителя платформных сервисов NYSE Technologies, большие данные требуют от бизнеса иного склада мышления, и для успеха в этой области необходимы не традиционные отношения поставщик-покупатель, а партнерство.

Вместе с тем Такер заметил, что возможность обрабатывать большие данные и извлекать из них пользу появилась лишь совсем недавно, в силу развития новых тенденций, таких как социальные сети.

По словам же Сербана Симу, вице-президента по техническим разработкам и сооснователя Aspera (провайдера решений по высокоскоростной передаче информации), первостепенная проблема, которую его компания ощущает при работе с заказчиками, состоит в том, как перенести данные оттуда, где они создаются, туда, где их можно хранить и/или обрабатывать.

“Узким местом является производительность сети, — говорит Симу. — Данные могут генерироваться намного быстрее, чем их можно транспортировать”.

Поэтому, так же как в случае сети и ПК, разумнее переносить приложения ближе к данным, чем наоборот, как традиционно до сих пор делалось.

По мнению Симу, важна не столько физическая близость, сколько инфраструктуры облака и приложений — насколько адекватно они построены. Но Такер предостерег аудиторию, что если менеджеры и разработчики приложений не осознают, где могут находиться данные, то могут появиться определенные проблемы.

По словам Такера, в Cisco стараются создавать сетевую модель, подчиненную прикладному ПО, вместо того, чтобы заставлять инфраструктуру самой догадываться, что делать. Поэтому предприятиям, работающим с большими данными, желательно быть более динамичными и уметь изменять конфигурацию своих облачных сетей и решений для эффективной работы конкретных приложений.

Версия для печати