Разрушительные для легаси-инфраструктур тенденции зародились на стыке облаков, больших данных и программно-управляемых систем буквально в этом году -- и уже прогремели на крупнейших ИТ-конференциях.
Платформа Hadoop сегодня находится в активном развитии. В силу исторических причин ей не хватало ряда важных корпоративных возможностей, которые сегодня интенсивно дорабатываются рынком: поддержка жизненного цикла, интеграция, безопасность, мониторинг производительности, стыковка с реляционными системами. Об этом рассказывалось тут http://www.pcweek.ru/idea/blog/idea/5964.php
"Big data analytics" звучали на июньском Hadoop Summit практически в каждом из десятков выступлений, однако за этими модными трендами скрывается большой объем реального и очень мощного развития как самой платформы распределённых вычислений Hadoop, так и связанных с ней околотехнологий, от NoSQL до SQL. Фейсбук, например, хранит 30 петабайтов данных в кластерах Hadoop.
В Сети активно обсуждается новый тренд беспилотных ЦОДов, о чём уже полуформально заявили Amazon и Google. Всю деятельность по сопровождению таких центров будут выполнять роботы. Давайте посмотрим на плюсы и минусы этого подхода.
Миллион миллионов терабайтов шпионских сведений, включая кучу закодированных приватных сведений о каждом из нас обещает собрать и обработать Агентство национальной безопасности США. Для этого в городе Bluffdale (шт. Юта) создается огромный ЦОД, о создании которого рассказывалось год назад ("Йоттабайты наших тайн").
О концепции "Третьей платформы" -- эпической трансформации ИТ в форме слияния мобильных систем, облачных услуг, аналитики, Больших данных и социальных сетей, придуманной IDC, в начале года подробно рассказывала Елена Гореткина.
Очередной облачный тренд -- устойчивые серверы (immutable servers; еще их по понятным причинам называют "феникс"-серверы), очевидный ответ растущему корпоративному спросу в этой сфере: сервисы IaaS и PaaS предоставляются в режиме автоматического масштабирования под меняющуюся нагрузку, а также включается множество фич, специфичных для развертывания и сопровождения крупных систем.
Объем данных, генерируемых БАКом, составляет около петабайта в секунду. Обрабатывать их в реальном времени немыслимо, поэтому сырые данные предварительно фильтруются, и откровенно негодная информация отбрасывается.