Современные технологии в центрах обработки данных
Тенденции к централизации вычислительной мощности, а также растущий уровень автоматизации предприятий всех отраслей поднимают сегодня проблемы построения вычислительных систем высокой доступности на новый уровень. На многих современных предприятиях уже существует комплекс вычислительных средств, но развитие технологий управления, повышение требований к надежности и безопасности информационных систем постоянно заставляет решать задачу эффективного использования существующей ИТ-системы и ее модернизации. Хотя создание информационной системы в каждой организации имеет свою специфику, существуют и общие подходы к формированию как всей информационной системы, так и ее отдельных элементов. Единый, целостный информационный ресурс предприятия с гарантированными уровнями достоверности, доступности и безопасности данных обеспечивается центром обработки данных (ЦОД), где все данные, приложения и сервисы централизованным образом хранятся и исполняются в специальной структуре.
Структура ЦОД
Вообще говоря, ЦОД представляет собой объединение большого количества программных и аппаратных платформ различного типа — серверов, дисковых массивов, ленточных библиотек, операционных систем, систем управления нагрузкой и средств резервирования данных (см. рисунок). Проект построения центра обязательно учитывает специфику бизнес-задач заказчика. Состав и конфигурация аппаратных и программных платформ оптимизируются в соответствии с особенностями вычислительной нагрузки — как текущей, так и планируемой. Однако не следует забывать, что, согласно одному из определений, центр обработки данных — это здание или его часть, первичная функция которых состоит в размещении оборудования для обработки и хранения информации, а также вспомогательных (инженерных) средств, обеспечивающих его работу. От надежности инженерных систем в значительной степени зависит работоспособность ИТ-инфраструктуры ЦОД. Среди важнейших компонентов такого оборудования — комплексы гарантированного электроснабжения, управления параметрами окружающей среды и их мониторинга. Помещения центров оснащены также специальными средствами противопожарной защиты. Контроль периметра ЦОД обеспечивает физическую безопасность и управление доступом персонала в помещения.
Блок-схема ЦОД.
Создание единого ЦОД обеспечивает высокую производительность, готовность информационных служб и данных и высокую надежность. Выполнение этих требований в итоге гарантирует решение главной задачи — реального обеспечения непрерывности бизнес-процессов предприятия при минимизации расходов на их исполнение. Ниже мы подробнее рассмотрим основные компоненты ЦОД.
Вычислительные платформы корпоративного уровня
Если ЦОД — это ядро современной крупной информационной системы, то серверные вычислительные платформы представляют собой «сердце» ЦОД. Здесь обычно используется широкий спектр моделей серверов ведущих мировых производителей: от мощных серверов корпоративного уровня, способных поддерживать работу корпоративной СУБД с высокой нагрузкой, до «легких» горизонтально масштабируемых серверов, служащих в качестве Web-серверов.
Системы хранения
Данные — наиболее ценное, что есть в информационной системе, поэтому целостности и доступности данных уделяется максимальное внимание. От имеющихся систем хранения требуется обеспечить должный уровень целостности и доступности. В частности, наилучшим образом зарекомендовали себя в этой области сети хранения данных SAN (Storage Area Network). В рамках данного направления предлагается также построение систем резервного копирования и восстановления данных.
Резервные центры
В тех случаях, когда требования к надежности функционирования информационной системы особенно высоки, рекомендуется построение резервного центра на удаленной площадке. Такой центр дублирует основные функции основного ЦОД. При его построении должны быть проработаны вопросы передачи данных, пуска и останова приложений, а также организационные вопросы — подготовка плана восстановления (Disaster Recovery Plan), предполагающего перевод деятельности из основного центра в резервный и восстановление основного ЦОД.
Инфраструктура
Надежное функционирование оборудования ЦОД невозможно без инфраструктуры самого помещения. Обычно речь идет о построении системы гарантированного электропитания, климатической подсистемы, подсистемы вентиляции, подсистемы пожарной сигнализации, а также о монтажных шкафах и коммуникационной подсистеме.
В рамках решений обеспечивается комплексная безопасность центров обработки данных, которая включает защиту от следующих угроз:
- отказ оборудования и ПО;
- сбои энергопитания;
- пожар и задымление;
- затопление, резкие температурные изменения, пыль;
- частичное разрушение здания;
- электромагнитные излучения;
- несанкционированный доступ, взлом, кражи;
- вирусные атаки.
По опубликованной информации, в развитых странах на ЦОД приходится от 50 до 75% ИТ-бюджетов предприятий, а в США только на электрическое и механическое инфраструктурное оборудование таких центров ежегодно тратится 20,6 млрд долл. 75% специалистов, опрошенных экспертами, считают главной задачей ЦОД обеспечение непрерывности бизнеса, а более 60% отмечают также важность уровня предоставления услуг. Более половины опрошенных специалистов заявляют о намерениях своей компании в течение пяти ближайших лет модернизировать инженерную инфраструктуру.
Еще раз подчеркнем, что проектирование ЦОД выполняется с учетом решаемых бизнес-задач, уровня требований к безопасности, пожеланий заказчика и уже имеющегося оборудования. При организации подобных центров необходимо разрешить целый комплекс архитектурно-строительных и проектных проблем, включая планировку помещений, определение прочностных характеристик перекрытий, выбор размеров и расположения дверных проемов, высоту и конструкцию фальшполов и фальшпотолков, выбор оптимальных маршрутов кабельных трасс, освещенности различных зон помещений и многое другое. Наряду с этим требуется обеспечить все, что связано с электроснабжением, кондиционированием, пожаротушением. Необходимость большей эффективности строительства и модернизации ЦОД на основе системного подхода и тиражируемых решений привела к появлению стандартов, регламентирующих, в частности, требования к помещениям, инженерной инфраструктуре, безопасности: в США это EIA/TIA-942, в Европе — проект стандарта EN 50173-5.
Вот только некоторые выгоды от внедрения ЦОД:
- четкое соответствие между ИТ-инфраструктурой и бизнес-процессами компании;
- обеспечение непрерывности бизнеса и катастрофоустойчивых решений за счет резервирования и географического разнесения ЦОД;
- повышение надежности, производительности, масштабируемости, управляемости и безопасности ИТ-инфраструктуры в целом;
- уменьшение стоимости владения ИТ-инфраструктурой за счет централизации ресурсов и централизации администрирования;
- возврат инвестиций за счет структурированной иерархической архитектуры ЦОД.
Недавние прогнозы аналитиков наглядно отражают тенденции, характерные для современных ЦОД. Так, по прогнозам IDC, к 2009 г. в США затраты на электропитание и охлаждение ЦОД вдвое превысят затраты на обновление серверного оборудования. В том же 2009 г. 10% серверов станут платформами для виртуальных машин. Кстати, это один из потенциальных факторов, снижающих спрос на серверное оборудование. Ведь, согласно данным IDC, уже в I квартале этого года объем серверного рынка снизился в регионе EMEA на 4,3% по сравнению с предыдущим годом. Правда, в Центральной и Восточной Европе серверный рынок несколько кварталов подряд демонстрирует стабильный рост. Кроме того, по данным Gartner, несмотря на автоматизацию операций, увеличиваются затраты на персонал, обслуживающих ЦОД, возникают сложности с поиском специалистов. По оценкам аналитиков, к 2015 г. дефицит кадров в этой области вырастет на 45%.
Охлаждение и энергопотребление
Оптимизация энергопотребления становится одной из ключевых задач, которые приходится решать администраторам современных ЦОД. Производители систем и компонентов также уделяют все более серьезное внимание этому направлению. Например, только за последние семь лет среднее потребление электроэнергии в центрах данных США выросло в семь раз — с 20 до более чем 140 Вт на кв. фут. Этому способствовало и увеличение плотности серверов. Считается, что около 44% энергии типичного сервера расходуется центральным процессором, памятью, дисками и другими компьютерными компонентами. Для рассеивания потребляемой мощности применяются разные методы, включая охлаждение серверного шасси или стойки и кондиционирование помещения ЦОД, причем для расчета параметров кондиционирования центров данных применяются методы термодинамики. Ключевой метрикой становится потребление мощности на процессор; 20%-ная экономия означает, что в ЦОД можно разместить значительно больше процессоров. Еще один важный показатель — «бюджет энергопотребления» стойки (кВт/стойку), показывающий, сколько модульных или тонких серверов в ней можно разместить. В любом случае со временем плотность серверов в ЦОД увеличивается, поэтому свободное пространство приходится планировать заранее. Некоторые специалисты рекомендуют даже исходить из двойного запаса по площадям.
Спрос на более современные центры данных в США стимулирует строительство новых ЦОД разного масштаба — от занимающих одно здание до распределенных инсталляций. Компании, откладывавшие модернизацию ЦОД в последние четыре-пять лет, приступили к обновлению инфраструктуры, поскольку существующих мощностей недостаточно для поддержки современных технологий. Внедрение такой архитектуры, как блейд-серверы, требует особых подходов к электропитанию и охлаждению ЦОД.
Интересно, что увеличению энергопотребления в ЦОД способствует и распространение мобильных устройств. Например, по данным аналитиков, развертывание каждого мобильного устройства BlackBerry увеличивает энергопотребление в ЦОД более чем на 350 Вт. Если пару лет назад средняя серверная стойка потребляла 2-3 кВт, то сегодня это 6 кВт, а иногда энергопотребление доходит до 20 кВт. А это уже требует особых подходов к охлаждению оборудования. Кроме того, ужесточившиеся законодательные требования предусматривают более серьезную физическую защиту инфраструктуры ЦОД. Все это заставляет компании планировать серьезную модернизацию своих центров обработки данных. Стоит отметить, что средняя площадь центров данных крупных компаний, входящих в список Fortune 500, составляет 60-100 тыс. кв. футов.
Электроэнергия, потребленная сервером за все время его эксплуатации, сопоставима по стоимости с самим сервером (по крайней мере в США), отмечают эксперты из Gartner. И электроэнергия продолжает дорожать, поэтому энергоэффективность превратилась в ключевую проблему для менеджеров ЦОД. Управление питанием, охлаждение и связанные с этим расходы — постоянно растущая «головная боль» ИТ-отделов любого размера. Так, по оценкам аналитиков IDC, на питание одного центра обработки данных с 1 тыс. серверов каждый год будет расходоваться почти 400 тыс. долл. За последние 10 лет плотность потребляемой серверами мощности выросла в десять раз, а в этом году начат выпуск стоек, рассчитанных на 15 кВт.
На эту проблему обращают пристальное внимание и производители серверов. Если удастся сократить потребление электроэнергии на 40 или 50%, это означает существенную экономию. По данным компании Prentice, с эволюцией технологий увеличиваются косвенные затраты на электроэнергию (такие, как затраты на кондиционирование). В ЦОД с высокой плотностью оборудования тепловыделение представляет собой серьезную проблему. Например, компания Fujitsu-Siemens Computers (http://www.fujitsu-siemens.com) уже давно уделяет внимание энергопотреблению своих серверов: в частности, ее сервер PrimeQuest 400 с 32 процессорами Itanium и объемом памяти 1 Тбайт потребляет около 10,7 кВт (как отмечают в компании, сравнимые системы конкурентов потребляют 16 кВт). Sun Microsystems в своих новейших серверах на базе процессоров Sun UltraSparc также акцентируется на энергопотреблении. Проблемы эффективности энергозатрат выделяют и в Bull SA, представившей в этом году свой сервер Novascale 2320 Blade на двухъядерных процессорах Intel Xeon с низким энергопотреблением. В компании считают, что эта система обладает одним из лучших показателей производительности на ватт потребляемой энергии.
А вот специалисты компании APC (http://www.apc.com), которая довольно эффективно решает проблемы электропитания ЦОД, полагают, что физическая инфраструктура существующих центров (включающая электропитание, охлаждение, стойки, кабели, безопасность, противопожарную защиту) за последние 30 лет не претерпела революционных изменений, хотя в настоящее время намечаются радикальные сдвиги в этой области. Одна из непростых проблем — это, конечно, тепловыделение. Поскольку типичная стойка с серверами потребляет сегодня 10 кВт вместо прежних двух, это обусловило появление различных систем охлаждения стоек. Существенно разнообразнее стали проекты ЦОД, где сегодня присутствуют десятки моделей, характеризующихся разным уровнем риска и стоимости. Еще один фактор — применение модульных серверов, потребляющих больше мощности, чем обычные стойки. Специалисты настойчиво говорят о том, что в недалеком будущем затраты на оборудование электропитания могут превысить стоимость самих серверов. Уже сегодня эксперты подсчитали, что если взять сервер, процессор которого потребляет мощность 80-90 Вт, и приплюсовать к этому энергопотребление всех остальных компонентов — системы вентиляции и охлаждения, устройств хранения и т. д., то расходы на электроэнергию за время срока службы сервера окажутся вполне сопоставимы со стоимостью самого сервера. По мере дальнейшего развития технологий косвенные энергетические затраты (в частности, на охлаждение) вырастут еще сильнее.
С увеличением плотности размещения оборудования в центре обработки данных проблема теплоотвода становится очень серьезной, да и дефицит электроэнергии заставляет организации сократить ее потребление. Причем это относится не только к слаборазвитым регионам: по опубликованной информации, летом сотрудникам Sun Microsystems иногда приходится выключать свои серверы, расположенные в Сан-Диего, если энергопотребление в городе ограничено. В Европе подобные сценарии пока относятся к разряду редких, однако летняя жара уже не раз показала, насколько хрупкими и незащищенными становятся источники электроэнергии в таких обстоятельствах. Потребление электроэнергии системами кондиционирования воздуха в стране резко возрастает, и некоторые электростанции оказываются под угрозой закрытия, поскольку их собственные охлаждающие системы не справляются с увеличением нагрузок.
[Фото]Климатические установки.
Во многом именно поэтому такие крупнейшие компьютерные компании, как AMD (http://www.amd.com), HP (http://www.hp.com), Sun Microsystems (http://www.sun.com) и IBM (http://www.ibm.com) стали спонсорами и основателями «зеленой сети» Green Grid (http://www.thegreengrid.org) — открытой всемирной организации, цели которой поддерживают управление США по охране окружающей среды (Environmental Protection Agency, EPA) и содружество по экономии энергии (Alliance to Save Energy). Данный проект нацелен на уменьшение потребляемой энергии в вычислительных центрах путем обмена проверенными идеями и стандартизации способов оценки проблем и прогресса в этом деле. Не секрет, что многие предприятия страдают от роста потребляемой компьютерами энергии и связанных с этим проблем тепловыделения. На самом деле компьютерные компании отчасти сами виноваты в том, что процессоры и серверы становятся все горячее, но они же стараются решить эту проблему, получив преимущество перед конкурентами.
Участники «зеленой сети» намерены сократить потребление энергии аппаратным обеспечением вычислительных центров и другим компьютерным оборудованием. Для этого они планируют работать над оптимизацией структуры и организации вычислительных центров, а также над повышением эффективности эксплуатации оборудования. «Зеленая сеть» должна стать форумом, на котором специалисты в области ИТ смогут обмениваться опытом по вопросам снижения энергопотребления и разработки новых отраслевых стандартов и мер. Члены организации — а многие из них накопили уже немалый опыт — будут делиться наработками, вести диалог и разрабатывать практические методики снижения энергопотребления.
Так, для поддержки широкого спектра корпоративных серверов и систем хранения корпорацией HP были разработаны следующие новые технологии охлаждения и управления питанием:
- модульная система охлаждения, использующая охлажденную воду, что в три раза увеличивает стандартные возможности теплоотвода для одной серверной стойки;
- универсальная стойка — единое решение для монтажа всех платформ серверов и систем хранения HP;
- интеллектуальный модуль для распределителей питания (PDU) с возможностями удаленного управления потребителями, контролирующий условия окружающей среды в ЦОД и повышающий надежность инфраструктуры питания.
Новые решения HP обеспечивают существенную экономию за счет резкого сокращения показателей энергопотребления и повышения эффективности обработки данных. В то же время они помогут заказчикам подготовиться к развертыванию следующих поколений ИТ-систем, которые будут отличаться большей производительностью и увеличенным потреблением энергии. Созданные специалистами НР технологии энергопитания и охлаждения в сочетании с лучшими практиками оптимизации эксплуатации центров обработки данных предоставляют заказчикам ИТ-ресурсы с высокой плотностью размещения, улучшенной совокупной стоимостью владения, производительностью и надежностью. Технологии энергопитания и охлаждения HP, которые охватывают все процессы в центре обработки данных, поддерживаются серверами семейств HP ProLiant, HP BladeSystem, Integrity, Integrity NonStop и HP 9000, а также дисковыми массивами HP StorageWorks MSA, EVA и XP. Ниже охарактеризованы лишь некоторые современные продукты для электропитания и охлаждения.
HP Modular Cooling System — самоохлаждающаяся стойка для сверхплотного размещения в центре обработки данных. Эта система присоединяется к стандартной стойке HP 10000 G2 Series, использует охлажденную воду и равномерно распределяет холодный воздух по всей передней части стойки. Более того, Modular Cooling System позволяет разместить в одной стойке устройства, потребляющие до 30 кВт (в три раза больше, чем поддерживает стандартная стойка). Это обеспечивает недоступные прежде возможности консолидации серверов и защиту долговременных инвестиций.
[Фото]HP Modular Cooling System.
HP 10000 G2 Series Rack — стандартная универсальная стойка, в которую можно устанавливать все стоечные серверы и системы хранения HP. Она позволяет упростить и ускорить развертывание центров обработки данных и значительно повысить окупаемость инвестиций, поскольку она заменяет семь старых несовместимых между собой стоек единой платформой со стандартной системой питания. В инновационной конструкции стойки применено эффективное конвекционное охлаждение и усовершенствованная по сравнению с предыдущим поколением стоек вентиляция.
HP Power Distribution Unit Management Module, интеллектуальный модуль управления для распределителей питания — это инструмент для удаленного контроля потребителей, подключенных к стоечным распределителям питания, и предотвращения перегрузки сети. Модуль реализует централизованное управление на основе стандартов SNMP с помощью HP Systems Insight Manager или другого ПО.
Эти продукты входят в портфель решений для управления питанием и охлаждения, который включает инновации в области корпоративных процессоров и наборов микросхем, источников питания, решений для мониторинга энергопитания и регулирования тепловыделения, сервисов для центров обработки данных и программу HP Smart Cooling. Так, с помощью технологии Smart Cooling, используемой в центре обработки данных HP Labs в Пало-Альто, компания добилась сокращения энергопотребления почти на 25%. Кроме того, HP предлагает ряд услуг по оценке и размещению оборудования центра обработки данных. Эти имеющие фиксированную цену и настраиваемые в зависимости от потребностей услуги помогают заказчику оценить энергопотребление и охлаждение и понять, как улучшить эффективность использования ресурсов. В их число входят HP Data Center Assessment Service, HP Data Center Thermal Assessment Service и HP Data Center Site Planning Service. HP также планирует предложить несколько сервисов внедрения и поддержки для HP Modular Cooling System.
Управление питанием по IBMВ числе новых разработок IBM, нацеленных на решение проблем энергопотребления и охлаждения в ЦОД, стоит отметить приложение управления питанием IBM PowerExecutive, позволяющее администраторам оценивать потребление мощности и тепловыделение, ограничивать мощность, потребляемую серверами или группами серверов. В будущем PowerExecutive даст клиентам возможность создавать правила для оперативного перераспределения мощностей в ЦОД. IBM выпустила также версию продукта Thermal Diagnostics, который помогает идентифицировать и устранять проблемы тепловыделения в ЦОД. С его помощью можно вести мониторинг тепловыделения и определять причины проблем (например, отказ кондиционера). Система периодически сканирует ЦОД, собирая данные по инвентаризации, производительности и температуре. На их основе строится виртуальная модель ЦОД, и определяется наиболее вероятный сценарий проблем с перегревом. Продукт Thermal Diagnostics можно интегрировать с PowerExecutive. |
Архитектуры х86
По мнению аналитиков, сегодня основным фактором спроса на серверном рынке стала платформа x86, способная справляться с нагрузками, которые ранее были под силу лишь мэйнфреймам и мощным серверам Unix. Кроме того, возможности архитектуры x86 быстро расширяются. Корпорации Intel и AMD поддерживают 64-разрядные вычисления, выпустили многоядерные процессоры и интегрировали в них технологии виртуализации. В этом году производители систем x86 провели масштабное обновление своих линеек серверов. Так, новая архитектура процессоров Intel нацелена на снижение энергопотребления и повышение производительности. В следующем году AMD и Intel планируют расширить выпуск многоядерных процессоров.
Учитывая быстрый цикл обновления серверов, покупателям приходится тщательнее планировать свои приобретения. Аналитики из Gartner считают, что в области виртуализации на платформах x86 в ближайшее время можно ожидать значительного прогресса, поэтому пользователям, желающим задействовать эти возможности, следует ориентироваться на системы с AMD SVM (Secure Virtual Machine) и Intel VT (Virtualization Technology).
Кроме того, велик интерес заказчиков к многоядерным серверам — он обусловлен в первую очередь увеличением мощности и плотности оборудования. Ведь компактность оборудования означает уменьшение количества кабелей, более простое управление, снижение потребляемой мощности и тепловыделения. По данным IDC, из 12,5 млрд долл., затраченных в США в III квартале прошлого года на приобретение серверов, почти четверть была инвестирована в двухъядерные системы. В IV квартале расходы на такие системы на базе процессоров AMD и Intel более чем удвоились. Правда, в некоторых случаях заказчики сталкиваются на этом пути с рядом проблем, включая вопросы лицензирования ПО (по ядрам или процессорам) или отсутствие поддержки многопоточности во многих приложениях, а при консолидации серверы нередко оказываются уязвимыми в случае отказа. Платформы для консолидации должны обладать высокой надежностью и не иметь уязвимых звеньев.
Между основными производителями процессоров идет острая конкурентная борьба за уменьшение энергопотребления новых продуктов. Не секрет, что Sun Microsystems построила на идее экономии энергии рекламную кампанию своих новых микросхем. Считается, что процессоры AMD Opteron снижают общее энергопотребление серверов и позволяют обойтись менее мощными системами охлаждения. Например, двухъядерный процессор Opteron модели 885 предназначен для многопроцессорных (до восьми процессоров и 16 ядер) серверов корпоративного класса. Модель 285 рассчитана на высокопроизводительные двухпроцессорные (четырехъядерные) рабочие станции и серверы, модель 185 создана для однопроцессорных двухъядерных серверов и рабочих станций. По данным AMD, все ее новые процессоры обеспечивают максимальную возможную производительность серверов x86, при этом тепловыделение серверов находится в пределах обычной для AMD нормы. Технология AMD PowerNow! дает экономию до 75% электроэнергии, тем самым снижая нагрузку на системы кондиционирования и вентиляции и сокращая общий расход энергии.
Intel еще весной этого года представила новый продукт, который должен помочь производителям серверов, систем хранения данных и телекоммуникационных систем добиться еще большей производительности своих решений, предназначенных для работы в условиях низкого энергопотребления и ограниченного пространства. Первый процессор Intel Xeon с низким энергопотреблением объединил в себе двухъядерные вычисления и технологии управления электропитанием, благодаря чему улучшилось энергоэффективное соотношение цены и производительности. При этом производительность на ватт потребляемой мощности у этого процессора оказалась в 2-4 раза выше, чем у предыдущих моделей семейства Intel Xeon и платформ на их основе. Intel Xeon с низким энергопотреблением (31 Вт) предназначен для систем, требующих высокой плотности монтажа и оптимизации энергопотребления, включая устройства высотой 1U и модульные серверы, решения класса SAN и NAS, а также оборудование для создания и поддержки сетевой инфраструктуры. Он отличается большей производительностью при работе с многопоточными приложениями и в многозадачных средах, таких, как ресурсоемкие вычисления и поддержка финансовых услуг.
Двухъядерные процессоры Intel Xeon серии 5100 (кодовое наименование Woodcrest) ориентированы на сегменты рынка серверов, рабочих станций, коммуникационных устройств, систем хранения данных и встроенных решений. Они разработаны на основе микроархитектуры Intel Core, которая позволила увеличить производительность на 135% и снизить энергопотребление на 40%. Среди инноваций в этой архитектуре, оптимизированной для многоядерных процессоров, стоит отметить технологию Intel Wide Dynamic Execution, позволяющую выполнять больше команд за такт работы процессора. Каждое ядро новых процессоров Intel может выполнять до четырех команд одновременно благодаря эффективному 14-этапному конвейеру, ускоряющему передачу данных и общую производительность процессора. Кроме того, в этих процессорах реализованы технология Advanced Smart Cache, за счет которой одно из исполняющих ядер может при простое другого ядра использовать всю кэш-память процессора, и технология Smart Memory Access, устраняющая узкие места в подсистеме памяти. Серверы на базе новых технологий Intel позволяют сократить расходы на аренду недвижимости, охлаждение и электричество, обеспечивая при этом улучшенное время отклика, сводя к минимуму вероятность простоев и способствуя повышению продуктивности работы пользователей.
Недавно Intel представила новые исследования и разработки, включая динамическое управление питанием в ЦОД и безопасные платформы виртуализации. Динамическое управление термальными характеристиками ЦОД реализуется с помощью ПО планирования заданий, распределяющего нагрузку с учетом температуры серверов. В результате создается среда контроля температуры, ведущая мониторинг и управляющая производительностью в масштабе ЦОД. Еще одна разработка, Trusted Platform Modules (TPM), основана на спецификациях Trusted Computing Group и реализуется с помощью микроконтроллеров для хранения паролей, ключей, цифровых сертификатов и аутентификации. ПО Virtual TPM может контролировать статус каждой виртуальной машины на сервере аутентификации, предоставляя ей те или иные права доступа.
Стоит отметить, что Intel и AMD дополняют процессоры x86 новой функциональностью, включая встроенную поддержку виртуализации и инструментов управления. В результате часть задач, реализовавшихся ранее на уровне ПО, переносятся теперь на процессорный уровень. Для серверов это означает более эффективную работу ПО виртуализации, например, VMware и Xen. Недавно представленная Intel технология vPro должна снизить расходы на обслуживание ПК, повысить безопасность и энергоэффективность. Такие операции, как сканирование на наличие вирусов, будут выполняться в защищенной изолированной среде, отделенной от ОС. Набор микросхем vPro будет также использовать технологию Active Management Technology (AMT). Реализация аппаратного стандарта управления AMD Alert Standards Forum (ASF) 2.0 призвана помочь удаленно управлять разнородными ПК.
Отметим, что если реализация ЦОД как прозрачного набора виртуальных ресурсов остается уделом будущего, то в области экономичности и энергоэффективности эксперты говорят уже значительном прогрессе.
[Фото]19-дюйм серверные стойки.
Стимул для виртуализации
|
Модульные серверы
Предполагалось, что появившиеся в 2001 г. модульные, или блейд-серверы, изменят характер вычислений, однако проблемы надежности, энергопотребления и теплоотвода несколько затормозили их внедрение. Между тем HP и IBM совершенствуют модели своих блейд-серверов; активизировались на этом рынке и другие производители. Можно сказать, что данный вид серверов приобрел «второе дыхание». Аналитики IDC считают, что модульные серверы становятся растущим фактором роста рынка серверов платформы x86. В прошлом году их поставки в США выросли на 52%, а объем продаж в мире достиг 2,2 млрд долл. — на 81% больше, чем в 2004 г. Еще несколько лет назад модульные серверы составляли лишь малую долю рынка, теперь же на них, по данным IDC, приходится 11%, а к 2009 г. они составят уже четверть рынка. Одна из причин в том, что теперь эти системы способны поддерживать важные бизнес-приложения, оснащаются поддержкой InfiniBand и 10G Ethernet.
Напомним, что блейд-серверы — это компактные компьютерные системы, которые устанавливаются в специальное шасси, как книги в полку. Шасси IBM для установки модулей носит название BladeCenter. IBM предлагает блейд-системы с максимальной плотностью вычислительной мощности — в одном шасси размещается 14 полнофункциональных блейд-серверов. Системы BladeCenter H открывают новые возможности для реализации технологических решений, позволяя собрать все серверы, устройства хранения данных, сетевую инфраструктуру и устройства защиты центра обработки данных в единую компактную систему. Новые блейд-серверы IBM защищают прежние инвестиции заказчиков благодаря совместимости со всеми системами BladeCenter.
Высокопроизводительные блейд-серверы предназначены для заказчиков, которым необходимо поддерживать мощные и ресурсоемкие приложения, например, высокопроизводительные аналитические программы и хранилища данных в таких отраслях, как финансы, розничная торговля, исследования и разработки, здравоохранение, медико-биологические науки и телекоммуникации. Так, BladeCenter HS20 на базе процессоров Intel со сверхнизким энергопотреблением имеет отличный показатель производительности на ватт потребляемой мощности и предназначен для заказчиков, стремящихся ограничить затраты на электропитание и охлаждение центра обработки данных. Новые решения превосходят существующие системы на 90% по скорости выполнения приложений и на 163% по производительности в пересчете на один ватт потребляемой мощности. Они спроектированы и оптимизированы с учетом возможного наращивания вычислительных возможностей, поддерживая перспективные модели четырехъядерных процессоров. IBM одной из первых начала выпуск платформ с двухъядерными процессорами AMD: в модульных серверах BladeCenter LS20 применяются микросхемы Opteron модели 285, благодаря чему эти системы отличаются хорошим соотношением производительности и потребления энергии.
Решение HP BladeSystem с-Сlass, по оценкам разработчиков, уменьшает текущие и капитальные расходы при построении стандартного центра обработки данных на 46%. Оно позволяет один раз подключить вычислительные ресурсы, а затем изменять их во время работы, динамично оптимизируя питание и охлаждение для уменьшения потребления энергии и увеличивая производительность работы администратора до 10 раз. Кроме того, HP BladeSystem с-Сlass — это модульная система, позволяющая предприятиям любого размера начать построение центров обработки данных с серверов HP ProLiant и Integrity, систем хранения HP StorageWorks, равно как и с блейд-решений, и потом гибко добавлять приложения и продукты других производителей, по мере необходимости расширяя ЦОД. По опубликованным данным, с HP BladeSystem с-Сlass ЦОД среднего предприятия может за трехлетний период оптимизировать затраты на приобретение системы на величину до 41%, затраты на средства обслуживания центра данных — до 60% и затраты на начальное время установки системы — до 96%.
[Фото]Новые блейд-серверы НР.
Продолжая стратегию эффективных по энергопотреблению вычислений, технология HP Thermal Logic позволяет управлять температурой, чтобы совместить высокую плотность установки с преимуществами энергоснабжения и охлаждения без снижения производительности. Впервые заказчики могут минимизировать затраты на электроэнергию и воздействие на окружающую среду и обеспечить доступность приложений и эффективность управления на уровне компонентов, корпусов и стоек. Энергоэффективность c-Class обусловлена не только применением процессоров со сниженным вдвое энергопотреблением. В новой полке высотой 10U (вместо 14U) десять вентиляторов Active Cool особой конструкции расположены в самой полке, и это лишь один из элементов технологии HP Thermal Logic. HP Active Cool Fan сокращает воздушный поток сервера на 30%, а потребление энергии — на 50% по сравнению с обычными серверами. Кроме того, архитектура c-Class может дать до 40% и более энергосбережения в сравнении со стоечными серверами.
В дальнейших планах HP — выпуск нового модульного шасси для филиалов и удаленных офисов компаний, новые поколения средств виртуализации, в том числе на основе модулей Storage Blade. Таким образом, в ближайшем будущем в HP намерены полностью «закрыть» ЦОД модульными решениями, реализовав единую адаптивную инфраструктуру для любого проекта за счет использования модулей различного назначения.
В последнее время специалисты часто видят особую заинтересованность заказчиков в решениях, с помощью которых можно создавать центры обработки данных для поддержки и реализации общих корпоративных целей и задач своего бизнеса. В этом случае специалисты Fujitsu Siemens Computers рекомендуют решение Primergy BladeFrame — так называемый динамический ЦОД в одном корпусе. Сегодня подобные решения успешно используются во многих крупных центрах по всему миру. Primergy BladeFrame на базе процессоров Intel Xeon и AMD Opteron абстрагируется от компонентов, составляющих пул (процессоров, сетей и дисковых накопителей), и работает с виртуальными серверами. В результате оборудование такого динамического ЦОД не зависит от вида ОС (Linux или Windows) или приложений. Таким образом, можно сказать, что решение Primergy BladeFrame — это динамически применяемый пул серверов, отдельные компьютерные узлы которого фактически используются только как процессоры и ресурсы памяти (так называемые серверы без состояния) при помощи общих виртуальных интерфейсов ввода-вывода для локальных сетей и сетей хранения данных, назначенных ПО PAN (Processor Area Network) Manager. Системы Primergy BladeFrame расширяют возможности динамических ЦОД, тем самым повышая оперативность реагирования компаний на рыночную ситуацию. Такая инфраструктура предоставляет руководителям предприятий возможность контролировать расходы и улучшать показатель окупаемости инвестиций. Кроме того, она повышает гибкость и производительность приложений, а также эффективность использования ресурсов компании.
Катастрофоустойчивые ЦОД
Проведя исследования, эксперты Gartner Group установили, что вероятность потери данных в результате катастроф не превышает 1%, но эта потеря может стать фатальной для компании. Последние годы были отмечены целым рядом стихийных бедствий, и это способствовало росту рынка катастрофоустойчивых систем. Компании стремятся создавать более устойчивые системы, извлекая уроки из последствий ураганов, цунами, землетрясений и других напастей. Особой популярностью пользуются средства резервного копирования данных, онлайновая репликация на удаленные узлы, развертывание беспроводных и спутниковых телекоммуникационных систем. Кроме того, отмечается повышенный спрос на источники бесперебойного питания, новые электрогенераторы на природном газе. На случай стихийных бедствий готовятся специальные планы восстановления.
Важно отметить, что непредвиденные простои информационных систем и потери данных из-за сбоя компьютерного оборудования или ПО, по разным оценкам, составляют только 25-35% от общего числа сбоев. В остальных случаях простои и потеря данных происходят из-за отказов систем электропитания, кондиционирования, вентиляции, в результате внешних воздействий (пожары, затопления, природные явления, катастрофы). Чтобы защищать, обрабатывать и сохранять данные, а также обеспечивать доступность информационных сервисов, использующих эти данные, лучше всего сосредоточить их на одной площадке и разместить резервную копию на другой. Политика централизации вычислительных и информационных ресурсов находит воплощение в технологии создания и эксплуатации центра обработки данных. Функционирование катастрофоустойчивой системы достигается за счет распределения компонентов, разнесения ее узлов на значительные расстояния. Это, в частности, позволяет подключать систему к разным подстанциям или электростанциям, исключая отказы по сбою в подаче питания и обеспечивая непрерывность бизнеса в случае выхода из строя не только узла кластера, но и всей площадки. Таким образом, устойчивость ЦОД к катастрофам обеспечивается созданием одного или нескольких территориально удаленных резервных центров обработки данных. Совокупность основного и резервных ЦОД образуют распределенный катастрофоустойчивый центр обработки данных.
В большинстве случаев наилучшим решением будет построение резервного центра с тождественной основному функциональностью, защищенностью и составом оборудования. Однако такой подход часто невозможен по финансовым соображениям. Минимально необходимая функциональность обязывает в каждый момент времени иметь в резервном ЦОД копию данных из основного центра. Кроме того, требуются резервные серверы, поддерживающие выполнение основных сервисов информационной системы. Такая функциональность в случае сбоев в основном центре позволяет сохранить данные и обеспечить выполнение критичных сервисов информационной системы.
Применение технологий репликации данных обеспечивает актуальную копию данных в резервном ЦОД, но требует от каналов передачи данных между центрами большой пропускной способности. Обмен данными между основным и резервным центрами, как правило, происходит одновременно по двум независимым потокам. Максимально допустимое время восстановления функционирования информационных систем определяет режим взаимодействия основного и резервного центров.
Физическая защита информационных систем от таких возможных угроз, как пожар, задымление, затопление, резкие температурные изменения, взлом, кражи, частичное разрушение здания, электромагнитные излучения, пыль, обеспечивается за счет размещения оборудования в специальных помещениях — ИT-комнатах. Этим термином обычно обозначается цельная высокопрочная герметичная конструкция, соответствующая требованиям физической защиты помещений, устанавливаемых соответствующими стандартами по противопожарной защите, защите от дыма/газа, пыли, высокой температуры, влажности и другими. ИT-комнаты обычно оборудованы системами раннего обнаружения задымления и затопления, контроля доступа, информация от которых интегрируется в общую систему мониторинга. Двери в такую комнату оснащаются системами доступа с защитой от взлома в соответствии со стандартами. ИT-комнаты имеют модульную структуру, позволяющую создавать помещения произвольной формы и площади, которые можно устанавливать в уже построенном здании.
[Фото]ЦОД: обход дежурного инженера.
Комплекс систем бесперебойного энергоснабжения, вентиляции, кондиционирования, пожаротушения составляют «обеспечивающую» инженерную инфраструктуру, которая интегрируется с подсистемами, входящими в ИT-комнату. При реализации системы энергоснабжения применяется схема с независимыми подводящими подстанциями, что позволяет сохранить работоспособность при отказе одной из них. В комплексе с дизель-генераторной установкой это обеспечивает гарантированное энергоснабжение ЦОД. Установка в ЦОД компактного оборудования с низкими показателями энергопотребления и теплоотдачи позволяет сократить эксплутационные расходы. Однако необходимо учитывать перспективы развития ИС и применять адаптивный подход в построении ЦОД.
Как известно, под адаптивностью понимают способность своевременно реагировать или предупреждать возникающие изменения для достижения наилучших производственных результатов. Адаптивный подход к реализации ЦОД заключается в постепенном наращивании мощности и состава компонентов вычислительного комплекса в соответствии с текущими потребностями и развитием технологий. На начальном этапе устанавливается ИT-комната и полностью формируется обеспечивающая инженерная инфраструктура. Размер комнаты и мощности инженерных коммуникаций рассчитываются для максимальных значений, определенных с учетом добавления в ЦОД оборудования, поддерживающего вычислительные мощности для развития информационных систем минимум на 4-5 лет. Состав серверных комплексов, сетевого оборудования, емкость систем хранения формируется в соответствии с текущими требованиями информационных систем.