Компания Fujitsu объявила о выходе программных продуктов, созданных для работы с “большими данными”. Новая линейка продуктов включает в себя решения для параллельной обработки распределенных данных, комплексные средства обработки событий, стандартные технологии для приложений в области обработки “больших данных”, а также продукты для использования “больших данных” в различных пользовательских сценариях.

В продуктовую линейку включены два новых продукта: комплексное решение обработки событий Interstage Big Data Complex Event Processing Server V1 и решение для обработки сверхнагрузок Interstage eXtreme Transaction Processing Server V1. Компания также представила дополненную версию решения для баз данных Symfoware Server V11. В данный момент новинки доступны только на японском рынке, но представители Fujitsu планируют постепенно вывести новые решения на мировой рынок.

Interstage Big Data Parallel Processing Server — это программная платформа для параллельной обработки данных в распределенных сетях, которая предоставляет возможность повысить надежность обработки данных, используя открытую платформу для параллельной обработки распределенных данных Apache Hadoop и разработанную Fujitsu распределенную файловую систему. В то же время программное обеспечение, распределяя данные между серверами, упраздняет необходимость передачи данных, благодаря чему можно добиться повышения производительности.

Решение Interstage eXtreme Transaction Processing Server V1 предоставляет средства высокоскоростной обработки данных, основанные на технологии кэширования распределенных данных в оперативной памяти, защищая при этом данные с помощью конфигурации с трехуровневым резервированием. Кроме того, Symfoware Server V11 служит для хранения больших объемов данных с применением технологии параллельных операций ввода-вывода, оптимизированной под использование твердотельных накопителей. База данных использует технологию высокой компрессии, способную обеспечить пятикратное сжатие данных.

Новые продукты используют некоторые проприетарные технологии Fujitsu — например, распределенную файловую систему Primecluster, решение Interstage Shunsaku Data Manager — технологию высокоскоростного фильтрования для оценки событий, а также Primesoft Server — высокоскоростную технологию кэширования распределенных данных в оперативной памяти. Решения Fujitsu поставляются как программный продукт, внедряемый на имеющемся оборудовании; они совместимы с продукцией других производителей, в том числе с открытым программным обеспечением, что позволяет им строить комплексные экосистемы, способные поддержать клиентов в работе с “большими данными”.

Согласно выдержке из исследования, опубликованного в январе аналитическим агентством IDC, “большие данные” — одно из наиболее серьезных препятствий, с которым сталкиваются организации, перемещающие ресурсы и приложения в облака. В центре проблемы — задача определения целостности и достоверности данных в рамках облачной среды. Исследование, озаглавленное “Data Integrity in the Big Data Digital Age”, связывает феномен “больших данных” с облачной обработкой данных и акцентирует внимание компаний на том, им следует проводить анализ петабайтов неструктурированных данных и основывать на нем принятие бизнес-решений, а не ограничиваться лишь вопросом о происхождении этих данных.

Версия для печати