НовостиОбзорыСобытияIT@Work
Сети/Серверы/СХД/ЦОД:

Блог

Контейнерные технологии виртуализации: что происходит?

Одним из итогов прошедшего года в области виртуализации стала резкое повышение интереса рынка в технологиям контейнерной виртуализации, причем в первую очередь, в контексте развития соответствующего проекта компании-стартапа Docker. Такой вывод можно сделать, анализируя новостной поток в западных СМИ, а также публикации экспертов по итогам 2014 года и перспективам наступившего. Нарастание информационной шумихи по этой теме чем-то напоминает ситуацию 2-3-летний давности с OpenStack.

Хотя зарубежные эксперты (в том числе Gartnter и Forrester) довольно уверенно прогнозируют хорошие перспективы Docker, мне кажется, что говорить о серьезных прогонозах на эту тему сейчас рано. Все это находится пока на довольно ранней стадии развития и во всех этих разговорам рекламно-маркетинговые элементы видны очень хорошо. Но пригладеться внимательнее к контейнерной вирутализации, вообще, и к Docker, в частности, конечно нужно.

Но есть в статьях о Docker некоторые странности...
Почти во всех публикациях по этой тематике о виртуализационных контейнерах говорится как о "молодом" направлении развитии виртуализации. И практически нигде вообще не упоминается о компании Parallels. Это крайне странно.

Тут стоит напомнить, что существуют два основных варианта виртуализации, а точнее два подхода к созданию независимых изолированных вычислительных пространств на одном физическом сервере: виртуальные машины (гипервизоры)и виртуальные контейнеры. В первой случае для каждой виртуальной машины используется собственная гостевая ОС, а во втором для всех контейнеров применяется ядро одной хостовой ОС. Соответственно, первая позволяет создавать неоднородные вычислительные среды на одной компьютере, вторая – только однородные.

Оба варианта виртуализации начали свое развитие примерно в одно время, на рубеже веков: пионером реализации первого подхода стала тогда VMware, второго – SWsoft, которая потом переименовалась в Parallels.

Ход ИТ-истории показал, что первый вариант (ВМ) оказался наиболее подходящим. Все основные разработчики сосредоточили свое внимание на использовании именно технологий гипервизоров. Вариант контейнеров фактически предлагала и развивала только Parallels, но это направление считалось сугубо нишевым и не очень перспективным.

И вот, спустя почти пятнадцать лет, о контейнерах опять заговорили как о перспективном. Что случилось почему? Что такого смогла сделать Docker, что за многие годы работы в этом области не могла сделать Parallels?

Нужно попробовать разобраться в этих вопросах.

Отдельной темой является использование новых технологий виртуализации в России. Как раз в конце прошлого года мы проводили опрос экспертов по данной тематике, но никто из них, говоря о технологических новинках, о контейнерах и о Docker даже не упомянул...
Колесов Андрей
Я все же в курсе темы, слежу за вопросами виртуализации с начала появления темы.

Да, в Интернет-серверах всегда (!) доминировал Линукс. И контейнеры изначально предназначались именно для них.
Т.е. сегодня в этом плане ничего нового не произошло. Все как и было много лет назад. А контейнеры вдруг "поперли",

Посмотрите статью 10-летней давности - так все это описано:
http://www.pcweek.ru/infrastructure/article/detail.php?ID=63463
http://www.pcweek.ru/infrastructure/article/detail.php?ID=72857
Менщиков Дмитрий
Контейнеры "поперли", потому что "поперла" и сама виртуализация:
появились массивы мощных блейд-серверов, ресурсы которых потребовалось распределять.
Потом поняли, что для однородных серверов приложений более эффективно использовать контейнеры.

А в 2003 году ОС чаще ставили на голое железо. Плюс тогда еще действовала другая концепция виртуализации, когда существует сервер приложений, а в нем песочницы, в которых живут приложения пользователей.
Колесов Андрей
Вы рассуждаете, как будто виртуализация появилась вчера. Я с вами не согласен в таких объяснениях.