Byte/RE ИТ-издание

Скрытые проблемы виртуализации

Как известно, за счет виртуализации можно существенно уменьшить количество серверов и необходимую площадь дата-центра, а также снизить требования к мощности и охлаждению в нем. Однако при всех известных преимуществах виртуализации после ее реализации возникает целый ряд специфичных проблем, о которых поначалу иной раз просто не задумываются. Так, хотя общее энергопотребление центра обработки данных (ЦОД) снижается, отдельно взятый сервер уже требует большей мощности. Общее количество серверов в дата-центре может быть уменьшено, но каждая стойка (шасси) теперь требует больше энергии, чем раньше. Работающие в ЦОД приложения становится можно динамически перемещать, но существующая инфраструктура часто не в состоянии это обеспечить. Площадь дата-центра благодаря виртуализации можно уменьшить, но его общая эффективность останется субоптимальной (ЦОД оптимизирован только частично). Эксперты отмечают, что энергетическая и охлаждающая инфраструктуры ЦОД могут стать неадекватными, когда структура производительности полностью меняется.

Проблема 1

На невиртуализованной платформе усредненный серверный процессор работает с нагрузкой 10–15%. В случае виртуализации этот показатель возрастает примерно до 70–80%. Однако при более интенсивном использовании процессора растет и его энергопотребление. Например, сервер HP ProLiant DL360 Generation 5 при загрузке процессора на 10% потребляет в среднем 190 Вт, но при загрузке на 70% и 80% – уже 258 и 270 Вт соответственно. Интересно, что другое оборудование часто оказывается даже более «прожорливым». Так, блейд-серверы требуют от 3 до 6 кВт на одно шасси, но в конфигурациях, предназначенных для высокопроизводительных вычислений, требуемая мощность этих систем возрастает до 8 кВт. Что касается коммутаторов Cisco Catalyst VoIP, то каждый из них может потреблять до 10 кВт. В этом случае, разумеется, надо понять, отвечает ли инфраструктура энергопитания подобным реалиям, или она была создана только в расчете на устаревшие серверы высотой 1U, потреблявшие 60–100 Вт каждый.

Проблема 2

Допустим, гипотетическая компания владела 240 серверами, число которых благодаря виртуализации удалось уменьшить до 82. В традиционной конфигурации мощность распределялась по восьми стойкам, в каждой из которых пространство 12U было занято системами хранения и сетевым оборудованием. В новых условиях общее энергопотребление снизилось, однако увеличилась энергетическая плотность потребления на 1U и на одну стойку (шасси). В традиционных дата-центрах менеджеры могли бы планировать примерно 60–100 Вт мощности на 1U стоечного пространства. В этом случае целиком заполненная оборудованием стойка требует 3–4 кВт мощности. Ориентируясь на современные блейд-серверы, эти цифры можно смело увеличить как минимум до 600–1000 Вт на 1U. Считается, что запросы по мощности скоро могут достичь 40 кВт на стойку. Возникает вопрос, в состоянии ли существующая инфраструктура обеспечить подобные требования. Напомним, что в типичных серверных комнатах на одну стойку планировали около 3,5 кВт мощности.

Проблема 3

Как известно, виртуализация позволяет по запросу развертывать, перемещать или клонировать приложения с одной платформы на другую даже в процессе их функционирования. Но это значит, что потребности в энергоснабжении и охлаждении также могут перемещаться по площади дата-центра. Надо отчетливо понимать, как миграция приложений по запросу будет воздействовать на существующую инфраструктуру дата-центра и какие изменения (дополнения) в ней надо предусмотреть.

Проблема 4

В дата-центрах традиционной планировки один или два больших трехфазных источника бесперебойного питания (ИБП) устанавливаются обычно в отдельной комнате и обеспечивают кондиционным электропитанием весь ЦОД (возможно, даже целое здание). Как правило, эти ИБП запитывают большие распределительные блоки питания PDU (Power Distribution Unit), установленные на полу ЦОД. В результате проекта виртуализации довольно часто появляется группа стоек с высокой плотностью оборудования в дата-центре, который был спроектирован для стоек с низкой плотностью оборудования. В этих случаях мощность существующих централизованных ИБП может стать «бутылочным горлышком» для любых попыток виртуализации, особенно когда избыточность становится более важным параметром. Для решения этой проблемы следует обратить внимание на современные модульные и масштабируемые ИБП.

Проблема 5

Как известно, виртуализация существенно улучшает энергосбережение. Однако не стоит забывать тот факт, что в типичном дата-центре, потребляющем около 1 МВт, только один 10-летний ИБП может бесполезно растрачивать до 150 кВт энергии. Стоит озаботиться заменой их на современные устройства, которые, разумеется, более эффективны. Напомним, например, что в 1980-х гг. эффективность 75–80% считалась просто отличной. С появлением более быстрых коммутирующих устройств в 1990-х гг. этот показатель возрос до 85–90%, а позже даже увеличился до 95%, когда большие бестрансформаторные ИБП стали реальностью.

Сегодня, впрочем, и это не предел. Так, в 2007 г. стали доступны ИБП высокой плотности. Теперь один модульный трехфазный ИБП работает с эффективностью 97% и остается высокоэффективным даже в том случае, когда нагрузка составляет менее 30% (обычно в таком случае ожидается меньшая эффективность). Необходимо отметить, что даже небольшое увеличение эффективности работы ИБП быстро дает экономию в десятки тысяч долларов. Например, 10-летний ИБП мощностью 60 кВт, работая с эффективностью 90%, потребляет в среднем 584 тыс. кВт*ч электроэнергии в год. Для ИБП с эффективностью 97% эта величина составит уже 541 тыс. кВт*ч. Таким образом, разница составляет около 40 тыс. кВт*ч. Стоит также отметить, что более эффективные ИБП рассеивают меньше тепла, а следовательно, требуют меньше охлаждения в дата-центре. Приняв стоимость одного кВт*ч за 10 центов, легко подсчитать, что экономия составит около 30 тыс. долл. менее чем за 5 лет.

Вам также могут понравиться