Объем данных увеличивается намного быстрее, чем пропускная способность сетей, при этом хранение данных удешевляется, а пользование сетями — нет. А это значит, что в один прекрасный день все перейдут на системы, где главный акцент будет на памяти (memory-centric). Какими будут эти системы? Это попытается предугадать бывший директор исследовательского подразделения HP Labs, а ныне технический директор компании Western Digital.

На недавно прошедшем семинаре Non-Volatile Memory Workshop 2017 одним из главных докладчиков был Мартин Финк, ветеран HP с 31-летним стажем работы, которого недавно назначили техническим директором компании Western Digital. Он заведовал исследовательским подразделением HP Labs и бизнесом по продаже серверов HP премиум-класса и годами вынашивал идею архитектуры вычислений, ориентированной на память. Если вам о чем-то говорят термины «мемристор» и «полиморфные вычисления», то именно HP Labs нужно благодарить за их введение в словарь технарей.

Главное — масштабируемость

Сегодня память привязывается к серверным процессорам, самой актуальной тенденцией являются вычисления в оперативной памяти (in-memory). С появлением новой энергонезависимой NVDIMM-памяти и при наличии множества DIMM-слотов серверы теперь могут оперировать памятью объемом до 2 Тб. Вам кажется, что это очень много?

А вот амбициозные идеи Финка начинаются с петабайтных масштабов. Использовать память DRAM слишком дорого, да и энергии она потребляет немало, поэтому, по его замыслу, наиболее реалистичным вариантом будет использование одной из технологий NVRAM, например, ReRAM (резистивная память с произвольным доступом).

Технологии памяти

Финк ожидает, что сразу несколько технологий NVRAM ждет успех на рынке, обусловленный их различными характеристиками: стоимостью, долговечностью, рабочими показателями и областью применения. По сравнению с текущим рынком серийной памяти DRAM это будет большой прорыв, который позволит архитекторам настраивать системы не достижимыми на данный момент способами. Достаточно посмотреть на успехи на рынке накопителей, которые флэш-память NAND (отнюдь не идеальная, но гораздо более дешевая) проделала за последнее десятилетие.

Значительным отличием от флэш-памяти NAND будет то, что новый тип накопителей не требует отдельного цикла стирания. На стирание информации в NAND-памяти уходит много ресурсов, так как каждый блок нужно обнулить, прежде чем приступать к перезаписи.

К петабайтному хранилищу можно будет подключать при необходимости дополнительные процессоры, точно так же, как сегодня тысячи процессоров выделяются в облаке для работы над приложениями, требующими больших вычислительных ресурсов. Развитие периферийных мобильных вычислений, несомненно, поспособствовало появлению удобной модели вычислительной сети, но связь между узлами этой сети должна быть намного быстрее и дешевле беспроводной связи.

Архитектура

В представлении Финка пул памяти будет загружаться и инициализироваться независимо от процессоров. Матрица памяти будет представлять собой полноценную систему, при этом по мере необходимости можно будет включать и подсоединять к ней стойки с процессорами.

Для вычислений можно использовать универсальные процессоры архитектуры x86, но вполне вероятно, что для крупномасштабных приложений предпочтение будет отдаваться специализированным процессорам. Здесь, возможно, пригодится стойка GPU или специализированных RISC-процессоров, если конкретное приложение умеет ими пользоваться.

Матрица памяти

Функциональное строение памяти, по сути, подразумевает операции загрузки-сохранения (за исключением CISC-процессоров) и возможность побайтной адресации, что означает, что при записи в память можно обновлять мельчайшие секторы. Благодаря этому снижаются требования к скорости передачи данных и устраняются затраты, часто имеющие место при блочном хранении, такие как циклы чтения-стирания-записи в RAID-системах.

Следовательно, коммутационную матрицу (шину) памяти не придется проектировать с учетом большого количества граничных ситуаций или сложных операций. Благодаря этому коммутаторы матрицы можно будет сделать более простыми, надежными, быстрыми и дешевыми по сравнению с сетевыми коммутаторами, используемыми в масштабируемых системах на сегодняшний день.

Взгляд с точки зрения СХД

В скором распространении архитектур, ориентированных на память, сомневаться не приходится, даже если конкретные сроки не ясны. По мере того, как в странах с развитой экономикой все больше операций будет выполняться компьютерами, скорость прироста данных и объемы массивов данных превысят пропускную способность проводных сетей и коммутационных матриц СХД: они уже не смогут справляться с передачей этих данных к процессорам. Получается, что процессоры надо переместить поближе к данным.

Но смогут ли компании позволить себе нужные технологии? Уверен, что смогут. Сегодняшние гипермасштабируемые ИТ-инфраструктуры позволяют нарастить различные технологии до уровня экономической рентабельности. Различные виды памяти NVRAM, к примеру, можно выпускать серийно для использования внутри различных устройств: мобильных и встроенных, серверов и высокопроизводительных компьютеров. К тому же рост количества приложений для обработки больших данных только подстегнет этот спрос.

Для вычислительных технологий предстоящее десятилетие обещает быть самым захватывающим из тех, что мне пришлось наблюдать за последние 40 лет. С удовольствием буду следить за развитием событий.

Версия для печати (без изображений)