На пути к пета-системам
Суперкомпьютеры — лидеры мирового рейтинга TOP500 и российского TOP50 — применяются сегодня для вычислений в самых разных сферах науки и производства.
Прогресс в суперкомпьютерных технологиях последних лет и проникновение этих технологий во все новые сферы человеческой деятельности свидетельствуют о том, что суперкомпьютеры — мощный инструмент, позволяющий форсировать продвижение научнотехнологической мысли во многих отраслях. Ведущие страны мира создали и используют этот инструмент для решения особо сложных задач науки, образования, экономики, для долгосрочных прогнозов, в том числе экологической обстановки, для обеспечения национальной безопасности. В последнее десятилетие произошли заметные сдвиги в организации научного процесса: широкое внедрение вычислительной техники заметно усилило направление компьютерного моделирования и эксперимента, что значительно повышает эффективность научного и технологического поиска. Стало можно моделировать сложные физико-химические процессы и ядерные реакции, глобальные атмосферные явления, развитие экономики и промышленности.
Высокопроизводительные вычислительные системы (High Performance Computers, HPC) расширяют границы возможностей инженеров и ученых, но реализованные в этих системах технологии важны не только для исследовательских лабораторий — в конечном счете они позволяют улучшить повседневную жизнь. Моделирование электромагнитных полей, вычислительная гидродинамика и анализ методом конечных элементов — вот лишь несколько примеров приложений, которые когда-то считались прерогативой суперкомпьютеров для научных целей, а сегодня используются для разработки и производства самых разных товаров: от картофельных чипсов до сотовых телефонов и автомобилей.
Суперкомпьютеры сегодня — это и SMP-системы, и кластеры, активно использующие параллельные вычисления. С приходом многоядерных архитектур параллельное программирование распространилось и на индустрию пользовательских устройств, хотя именно высокопроизводительные вычисления сегодня используют преимущества многопоточности в полной мере, закладывая тем самым фундамент отрасли разработки ПО на следующие десятилетия. Сравнительно недавно суперкомпьютеры преодолели планку производительности в 1 TFLOPS (триллион операций с плавающей точкой в секунду), а уже не за горами эра петафлопс (PFLOPS — квадриллион, или 1015 операций с плавающей точкой в секунду). Первые пета-суперкомпьютеры, по прогнозам экспертов, появятся в 2008–2009 гг., в Европе уже стартовала подготовка к нескольким пета-проектам.
Как показывают исследования, в среднем вычислительная мощь настольных ПК отстает от уровня производительности суперкомпьютеров на 13 лет. Иными словами, по уровню производительности сегодняшние профессиональные ПК практически полностью соответствуют суперкомпьютерам более чем десятилетней давности. Поэтому положение дел с суперкомпьютерами характеризует ситуацию на потребительском ИТ-рынке на следующее десятилетие. По мнению ученых, для задач аэродинамики хватит производительности в несколько PFLOPS, для задач молекулярной динамики потребуется уже 20 PFLOPS, а для вычислительной космологии — фантастическая производительность на уровне 10 EFLOPS (экзафлопс = 10 квинтиллионов FLOPS, или 10Ч1018 FLOPS). Для задач вычислительной химии потребуются еще более мощные системы. Специалисты из корпорации Intel (www.intel.com) считают, что появления компьютеров с производительностью в секстиллион операций в секунду (1021 FLOPS) можно ожидать уже к 2029 г.
Российские суперкомпьютеры
Россия, успешно начавшая инвестировать в разработку и строительство высокопроизводительных систем, имеет все шансы к концу десятилетия прочно утвердиться в престижном мировом рейтинге суперкомпьютеров ТОР500 (www.top500.org). Напомним, что список 500 самых мощных суперкомпьютеров в мире два раза в год составляют и публикуют эксперты по суперкомпьютерам Ганс Мейер из университета Мангейма, Эрик Стромайер и Хорст Саймон из Государственного научно-исследовательского вычислительного центра Министерства энергетики США, а также Джек Донгарра из университета Теннесси.
В очередную редакцию списка в июне 2007 г. попало сразу четыре российских суперкомпьютера (в ноябре 2006 г. в ТОР500 присутствовал только один вычислительный комплекс отечественного производства). Самый мощный из них — «СКИФ Cyberia» с пиковой производительностью 12 TFLOPS, работающий в Томском государственном университете, занимает 105 место. Комплексный экологический мониторинг атмосферы и гидросферы, контроль за разливом рек, распространением пожаров и эпидемий, рациональное использование лесных и минеральных ресурсов, новые конкурентоспособные методы разведки нефтегазовых месторождений, восстановление загрязненных почв, проектирование ракетно-космической техники и безопасного шахтного оборудования, создание новых видов ракетного топлива и сверхтвердых покрытий с помощью нанотехнологий — вот лишь малая часть сложнейших задач, которые ученые ТГУ будут решать с помощью «СКИФ Cyberia» в тесном сотрудничестве с предприятиями региона.
В общей сложности около 600 двухъядерных процессоров Intel Xeon составляют основу двух других ведущих российских суперкомпьютеров, установленных в Межведомственном суперкомпьютерном центре РАН (7,6 TFLOPS, 265 место в ТОР500) и в МФТИ (4,5 TFLOPS, 415 место).
В последнем списке ТОР500, опубликованном 12 ноября 2007 г., число российских суперкомпьютеров, как и ожидалось, выросло — теперь их семь, и еще гораздо больше их должно появиться в ведущем мировом рейтинге в 2008 г. Ведет разработки и планирует внедрение собственных кластеров и SMP-систем ряд государственных университетов (из Нижнего Новгорода, Санкт-Петербурга и других вузовских центров России), МСЦ собирается в несколько раз расширить свой кластер.
Традиционно сильные позиции суперкомпьютеров в российских научных учреждениях подкрепляются проникновением высокопроизводительных кластеров в производственную сферу. Так, суперкомпьютер мощностью 0,9 TFLOPS установлен в НПО «Сатурн», ведущем отечественном разработчике и производителе авиадвигателей гражданского и военного назначения; в российском списке самых мощных суперкомпьютеров ТОР50 он занимает 11 место. Причем «Сатурн» уже сейчас планирует на порядок увеличить производительность своего вычислительного центра, построив в ближайшем будущем новую систему. Несколько суперкомпьютеров планирует внедрить у себя Росгидромет; как ожидается, эффект от их применения может достичь 1 млрд долл., а самый мощный из них займет достойное место в верхней части рейтинга мировых вычислительных систем. Словом, «кластеростроение» приобретает характер плановой комплексной программы, причем поддерживаемой государством. В итоге у России есть все шансы к концу десятилетия утвердиться в первой полусотне рейтингового списка TOP500.
Стоить отметить, что 289 из 500 самых мощных суперкомпьютеров мира сегодня построены на базе процессоров Intel. По сравнению с остальными производителями процессоров Intel демонстрирует очень высокие темпы роста — в предыдущем списке, опубликованном в ноябре 2006 г., корпорация занимала только 263 позиции. Интересно также, что число систем на базе двухъядерного процессора Intel Xeon серии 51xx с микроархитектурой Intel Core выросло за полгода с 31 до 205. И хотя в текущем списке всего 19 систем, содержащих четырехъядерные процессоры Intel Xeon 53xx, эксперты полагают, что в ноябре 2007 г. количество таких систем в ТОР500 резко возрастет, что приведет и к росту общего числа систем на базе процессоров Intel в рейтинге. Растет доля систем на базе процессоров Intel и в рейтинге 500 европейских суперкомпьютеров: в июне 2007 г. она составила почти 60%, тогда как в ноябре 2006 г. — лишь 45%. Отметим еще такую особенность нынешнего рейтинга ТОР500, как стремительное обновление: 192 системы на базе процессоров Intel выпали из списка, зато вошли в него 218 новых систем.
Решения HPC от HP
Корпорация НР (www.hp.com) занимает ведущее место в списке TOP500 по числу инсталляций — она представлена в нем 203 суперкомпьютерами, что составляет более 40% позиций списка и делает НР лидером среди других поставщиков высокопроизводительных систем. Благодаря успеху серверов HP BladeSystem c-Class с ноября 2006 г. НР удалось увеличить число систем, вошедших в TOP500, почти на 10%. Системы HP Cluster Platform 3000BL и 4000BL на базе блейд-серверов семейства c-Class занимают в списке 152 места. Заметим, что эти серверы входят в число лидеров на рынке блейд-серверов и представляют собой оптимальную платформу для создания высокопроизводительных вычислительных кластеров. Как известно, НР BladeSystem c-Class поддерживают производительные внутрикластерные сетевые соединения, предлагают большой выбор вычислительных узлов и процессоров, отличаются простотой в управлении, высокой плотностью, низким энергопотреблением и тепловыделением.
Представители корпорации подчеркивают, что НР делает акцент на серийных высокопроизводительных вычислительных системах, одновременно внедряя в свои продукты новейшие технологические достижения. Данные последнего списка TOP500 позволяют говорить о том, что на рынке высокопроизводительных вычислительных систем складывается тенденция перехода на кластеры, построенные в соответствии с отраслевыми стандартами. Системы из объединенного кластерного пакета НР поддерживают ОС Linux и блейд-системы, отличаются высокой производительностью и меньшей стоимостью и совместимы с множеством приложений для высокопроизводительных вычислений.
НР активно укрепляет свои позиции на рынке высокопроизводительных систем, постоянно расширяя клиентскую базу. Вот один из примеров: шведская правительственная организация заказала установку вычислительной системы производительностью 182 TFLOPS на базе 2128 блейд-серверов НР ProLiant BL460c. В недавно выпущенной (ноябрь 2007 г.) версии списка TOP500 эта система, как и ожидалось, заняла одно из лидирующих мест, став пятой. Кроме того, для Шведского национального центра суперкомпьютеров (NSC) выпущен кластер производительностью 60 TFLOPS на базе 805 серверов HP ProLiant DL140 G3. Этот суперкомпьютер в последнем рейтинге TOP500 стал одним из лучших (23 место). Центр предоставляет вычислительные ресурсы для общегосударственных научных исследований, изучения климата, прогнозирования погоды и обработки данных концерна Saab AB.
Альянс с Microsoft
Рынок систем высокопроизводительных вычислений в течение последних четырех лет характеризуется высокими темпами роста — в среднем более 20% в год, а рынок кластеров HPC стандартной архитектуры растет еще быстрее. Пользователи, которым нужны простые в эксплуатации системы, скорее всего, обратятся к поставщикам, способным обеспечить «безболезненный» переход от ПК к HPC-серверам. Возможно, именно поэтому корпорации HP и Microsoft (www.microsoft.com) объявили о расширении своего соглашения в сфере продаж и маркетинга на рынке систем высокопроизводительных вычислений. В частности, компании объединили усилия для выведения высокопроизводительных систем на массовый рынок с помощью вычислительных кластеров, которые отличаются удобством и простотой в развертывании, поддержке и обслуживании. Аналитики полагают, что расширение сотрудничества HP и Microsoft принесет многомиллионные инвестиции и даст возможность приобретать у HP или реселлеров ПО Microsoft Windows Compute Cluster Server (CCS) 2003 как составную часть унифицированного кластерного портфеля HP Unified Cluster Portfolio, который поддерживается серверами HP ProLiant и платформой HP BladeSystem.
Вообще говоря, совместное использование ПО Windows CCS и серверов HP дает компаниям возможность без труда расширить вычислительные возможности своей ИТ-среды и в полной мере реализовать преимущества кластеров. Решение Windows CCS предназначено для упрощения процессов разработки, интеграции и управления кластерами для высокопроизводительных вычислений. HP добавила к этому пакету пользовательские сценарии установки и документацию, значительно упрощающие развертывание системы. Опциональная библиотека HP Message Passing Interface и драйверы InfiniBand улучшают масштабируемость и производительность приложений, требующих высокоскоростного взаимодействия с малой задержкой. С использованием специализированного пакета установки HP для Windows CCS заказчик может за два часа развернуть и запустить кластер на базе 64 узлов. В рамках сотрудничества HP и Microsoft в Хьюстоне (США) и Гренобле (Франция) были созданы технологические центры для заказчиков и независимых поставщиков ПО. В этих центрах проводится оценка и тестирование приложений, установленных на серверах HP на базе процессоров AMD и Intel под управлением Windows CCS.
Российский ТОР50
Весной этого года Научно-исследовательский вычислительный центр МГУ им. М.В.Ломоносова и Межведомственный суперкомпьютерный центр РАН объявили о выпуске очередной, шестой по счету, редакции списка ТOP50 (www.supercomputers.ru) самых мощных компьютеров СНГ. Впервые подобный список, обновляемый теперь весной и осенью, был обнародован в мае 2004 г. По мнению экспертов, шестая версия уже позволяла «в первом приближении» оценить ситуацию, сложившуюся в нашей стране в плане использования высокопроизводительной вычислительной техники. Видно, что за полгода суммарная реальная производительность 50 самых мощных систем в тесте Linpack выросла почти вдвое, составив 46,8 TFLOPS. При этом в самом списке TOP50 появилось 13 новых машин, семь из которых вошли в первую десятку. Компьютер МСЦ РАН МВС-15000ВМ на процессорах PowerPC, удерживавший первую позицию в списке в течение полутора лет, уступил место кластеру «СКИФ Cyberia» с реальной производительностью 9 TFLOPS, установленному компанией «Т-Платформы» в Томском государственном университете.
Следующие за старым и новым лидерами три системы появились в шестом рейтинге впервые. Одна из них была реализована корпорацией HP по заказу МСЦ РАН (производительность 4,8 TFLOPS). Другая, принадлежащая «Сбербанку», стала самым мощным на тот момент российским компьютером в финансовой сфере: ее производительность 3 TFLOPS. Компьютер с производительностью 2,2 TFLOPS принадлежит Институту кибернетики НАН Украины и поставлен украинским же разработчиком «Энтри». Замыкали десятку два новых компьютера, изготовленные компанией «Т-Платформы» для Санкт-Петербургского государственного политехнического и Томского политехнического университетов (с производительностью 1 TFLOPS и 791 GFLOPS соответственно). Таким образом, на тот момент уже начиная с десятого места самые мощные кластеры в СНГ выходили за рамки терафлопной производительности.
Мощный кластер Kraftway G-Scale, функционирующий в Центре исследований и экспертизы компании, занимал в рейтинге 20-е место. В четырехузловом кластере на платформе Bull используются 32 двухъядерных процессора Intel Itanium 2 (64 ядра) с тактовой частотой 1,6 ГГц и кэш-памятью L3 емкостью 12 Мбайт на каждое ядро. Каждый узел оснащен восемью процессорами и 64 Гбайт ОЗУ. Система способна работать в различных коммуникационных средах — QsNet2 (Quadrics), InfiniBand или Bull FAME (Flexible Architecture for Multiple Environments) NUMA — без физической перекоммутации. Кластер показал результат 377 GFLOPS в тесте Linpack и пиковую производительность 410 GFLOPS при эффективности более 0,9 (при использовании в качестве коммуникационной среды сети QsNet2 при четырехканальном подключении каждого узла). Узлы кластера подключены к высокопроизводительному дисковому массиву емкостью 12 Тбайт по восьми оптическим каналам Fiber Channel.
В седьмой версии списка TOP50, опубликованной в сентябре 2007 г., тройка лидеров осталась прежней — «СКИФ Cyberia» и две системы, установленные в МСЦ РАН. Но на четвертом и пятом местах появились новички — суперкомпьютер HP с производительностью в тесте Linpack 5,2 TFLOPS, созданный для компании Logistic Services, и совместная установка HP и Института системного программирования РАН с производительностью 4,5 TFLOPS, работающая в Московском физико-техническом институте.
На шестое место (с седьмого в предыдущей редакции списка) поднялся компьютер Киевского политехнического института, поставленный украинской компанией «Юстар», реальная производительность которого выросла с 1,5 до 3,1 TFLOPS. Системы, принадлежащие «Сбербанку» и Институту кибернетики НАН Украины, уступили свои позиции, заняв в рейтинге соответственно седьмое и восьмое места. На девятом месте оказался белорусский кластер на базе 576 процессоров Opteron, собранный еще в 2004 г. в рамках первой программы СКИФ (шестое место в предыдущей редакции рейтинга). И наконец, замыкает десятку суперкомпьютер с производительностью 1,3 TFLOPS производства компании «Т-Платформы», установленный в Нижегородском государственном университете им. Лобачевского.
В целом число компьютеров «терафлопного диапазона» (с реальной производительностью более 1 TFLOPS) на территории СНГ за полгода увеличилось с 9 до 13, а нижняя граница первой десятки по производительности поднялась с 0,8 до 1,3 TFLOPS. Суммарная реальная производительность 50 самых мощных систем в тесте Linpack составила 61,6 TFLOPS. Отметим еще, что вот уже вторую редакцию подряд в список самых мощных компьютеров СНГ входят только кластеры, вытеснившие суперкомпьютеры с общей памятью.
Как известно, решения в области высокопроизводительных вычислений широко применяются в промышленности, автоматизированном проектировании, нефтегазовой и финансовой отраслях. Чтобы дать возможность большему числу заказчиков воспользоваться решениями HPC на базе Windows, HP и Microsoft сотрудничают также с компанией Ansys (www.ansys.com), известной во всем мире своими инновационными приложениями и технологиями моделирования. Три компании совместно предлагают пакет приложений Ansys для автоматизированного проектирования как часть экономичного, удобного и надежного решения на базе Windows для высокопроизводительных вычислений. Не так давно Microsoft и Ansys заключили соглашение о проведении глобальных торговых и маркетинговых мероприятий для продвижения совместных решений в сфере производства. В рамках этих мероприятий специалисты компании Ansys выполнили в технологическом центре Microsoft и HP портирование, настройку и тестирование своих приложений для автоматизированного проектирования Ansys 11 и Fluent 6.3 на 64-разрядной платформе Windows Server.
Кластеры для визуализации данных
Объемы и сложность исследовательских данных растут в геометрической прогрессии, и интерактивное графическое представление этой информации требует соответствующего параллелизма. Заметим, что системы визуализации позволяют эффективно анализировать данные, наглядно представляя исследовательские модели. В ответ на запросы рынка НР представила новую разработку, обеспечивающую интерактивное представление и визуализацию больших объемов данных, создаваемых в результате сложных процессов моделирования. В состав системы Scalable Visualization Array (SVA) входит библиотека параллельной компоновки (Parallel Compositing Library), что расширяет сферу применения масштабируемых кластерных технологий, включая в нее решение задач визуализации и рендеринга изображений.
Библиотека HP Parallel Compositing — это оптимизированная, подробно документированная и полностью поддерживаемая реализация программного интерфейса приложений (API) Parallel Compositing. Ее появление стало результатом многолетней совместной работы HP и ведущих отраслевых организаций, таких, как Международная организация инженерных вычислений (CEI), Национальный швейцарский центр супервычислений (CSCS), Университет технологий и экономики Будапешта (BME) и Манчестерский университет в Великобритании. Библиотека параллельной компоновки обладает достаточной гибкостью, чтобы поддерживать широкий ряд прикладных структур, не накладывая при этом никаких структурных ограничений на сами приложения; кроме того, в нее входит ряд дополнений: более эффективная обработка ошибок, использование InfiniBand в качестве среды передачи данных, расширенное руководство пользователя.
Библиотека состоит из набора связанных функций, которые дают возможность нескольким графическим узлам в кластере совместно обрабатывать изображения, распределяя нагрузку между системами. Таким образом удается обрабатывать гораздо больше графических данных и создавать изображения большего размера, чем любая отдельная графическая карта. Для этого библиотека в режиме реального времени создает серию изображений — «фреймов», вовлекая в процесс обработки одновременно несколько графических карт для создания «субфреймов», из которых складывается общее финальное изображение. С помощью высокопроизводительной технологии масштабирования под названием sort-last parallel rendering операторы компоновки объединяют субизображения, создавая конечную картинку.
Новое предложение существенно расширяет возможности визуализации для таких сложных научно-исследовательских и инженерных прикладных областей, как анализ сейсмической активности, инженерное проектирование и моделирование, анализ медицинских изображений, метеорологическое моделирование, анимация и другие ресурсоемкие области, требующие намного больше производительности, чем может обеспечить любая отдельная графическая система. Библиотека HP Parallel Compositing Library предлагается вместе с системой HP Scalable Visualization Array — недорогим, масштабируемым и готовым к использованию решением для визуализации, которое в полной мере дополняет интеграционные возможности единой кластерной среды HP Unified Cluster Portfolio, объединяющей вычисления, управление данными и визуализацию.
Оптимизация многоядерных платформ
Сегодня именно рынок высокопроизводительных вычислительных систем способствует развитию инновационных технологий и появлению широкого ассортимента коммерческих продуктов. Наступает эпоха, когда без эффективного использования многоядерных процессоров уже невозможно ускорить развитие и внедрение инноваций, напрямую связанных с бизнес-процессами. Новая программа оптимизации многоядерных платформ (HP Multi-Core Optimization Program), представленная HP на Международной конференции по суперкомпьютерам (International Supercomputing Conference 2007), направлена на исследования в области оптимизации многоядерных технологий следующего поколения, а также их развитие и совершенствование в сотрудничестве с ключевыми заказчиками, технологическими партнерами и разработчиками приложений.
Программа оптимизации многоядерных платформ объединяет разработки компании HP и ее партнеров, повышающие производительность многоядерных процессоров в различных стандартных отраслевых архитектурах, платформах и операционных средах для высокопроизводительных вычислений. Одними из первых партнеров HP по этой программе стали компании Accelrys, Advanced Micro Devices, Intel, Karlsruhe Institute of Technology (KIT) и TotalView Technology. С момента появления двухъядерных процессоров первого поколения компания HP активно содействует развитию HPC-решений и сегодня предлагает заказчикам множество решений в рамках Unified Cluster Portfolio. В числе этих решений серверы HP ProLiant DL140 и DL145, при разработке которых учитывалась необходимость баланса производительности многоядерных процессоров и подсистем памяти и ввода-вывода в решениях HP Cluster Platform 3000 и 4000. В кластерный пакет входит и библиотека HP Message Passing Interface (HP-MPI), оптимизированная как для серверов с общей памятью, так и для кластерных систем на базе серверов HP ProLiant и Integrity. Она поддерживает различные способы привязки процессов и потоков к процессорам, что делает ее оптимальным решением для многоядерных сред. Кроме того, интегрированный в кластерное ПО HP XC System Software на базе ОС Linux инструмент управления очередями (Simple Linux Utility for Resource Management) расширен и оптимизирован для поддержки многоядерных систем. Усовершенствования, сделанные компанией HP, были внесены в открытый код.
HP также расширила свой портфель средств разработки, включающий компиляторы, программы отладки и математические библиотеки, которые теперь доступны для ряда процессорных и системных архитектур, ОС и сетей передачи сообщений. Расширенный набор решений, входящий в комплект инструментов для разработки многоядерных приложений, планируется выпустить к концу текущего года. В комплект будут включены продукты компании HP и ведущих разработчиков ПО для высокопроизводительных вычислений (например, TotalView Technologies). Напомним, что HP также предоставляет услуги технической поддержки, призванные оптимизировать производительность приложений от независимых разработчиков ПО для многоядерных платформ. Многолетний опыт и эффективная поддержка корпорации помогут независимым производителям ПО эффективно использовать сложные многоядерные технологии, удовлетворяя неизменную потребность заказчиков в повышении производительности приложений.
Использование InfiniBand
Уже почти два десятка лет корпорации Cisco (www.cisco.com) и HP совместно работают над глобальными интегрированными решениями и продуктами в области ИТ, которые предоставляют аналитические средства для ИТ-инфраструктур, давая пользователям возможность защитить, оптимизировать и адаптировать среду для ведения бизнеса. Новые соглашения, ориентированные на быстрорастущий рынок решений для высокопроизводительных вычислений, предусматривают совместное использование аппаратного обеспечения HP и продуктов Cisco InfiniBand.
Не секрет, что конфигурации HPC используются в проектах, которые требуют одновременно миллионов вычислительных операций, — это, например, анализ финансовой информации и данных о рынках, извлечение данных, вычислительная химия и вычислительная гидрогазодинамика. Кластерные решения стали одной из движущих сил рынка HPC благодаря своей гибкости и высокой производительности. Совместные предложения HP и Cisco позволят ускорить рост бизнеса в сегменте высокопроизводительных вычислений, гарантируя максимальную пропускную способность, низкую латентность, отличную масштабируемость и стабильность фабрики InfiniBand.
В рамках соглашений HP, во-первых, планирует предлагать коммутаторы InfiniBand DDR семейства Cisco Server Fabric Switches (SFS) как часть своего универсального кластерного портфеля Unified Cluster Portfolio. Адаптеры и коммутаторы InfiniBand DDR характеризуются минимальной латентностью при передаче сообщений между узлами сети и лучшей в отрасли пропускной способностью, что помогает оптимизировать работу распределенных ресурсоемких приложений. Исключительно низкий уровень ошибок в них обеспечивает большую доступность фабрики и меньшее время счета, причем положительный эффект особенно ощутим по мере увеличения размера сети. Во-вторых, блейд-серверы HP BladeSystem c-Class теперь будут поддерживать пакет драйверов Cisco InfiniBand. Стоечные и блейд-серверы HP в сочетании с коммутаторами Cisco DDR обеспечивают простоту обслуживания и высокую надежность. В результате заказчики получают предсказуемую и устойчивую фабрику, что становится все более важным условием для выполнения сложных расчетов и обеспечения одновременной работы множества приложений, а также быстрого вывода решений на рынок.
Кроме семейства коммутаторов Cisco SFS DDR, компания Cisco предлагает решение SFS High Performance Subnet Manager, обеспечивающее синхронизацию и быстрое восстановление соединения, что повышает устойчивость сети и позволяет успешно вести вычисления в сетях больших размеров — от 1000 до 5000 узлов. Коммутаторы Cisco SFS DDR InfiniBand поставляются в различных конфигурациях — от 24-портового фиксированного коммутатора до 288-портового модульного шасси. Cisco полностью поддерживает как драйверы Open Fabric, так и свои собственные комплекты драйверов для обеспечения доступности и поддержки технологий виртуализации. Интерфейсная плата HP 4X DDR IB Mezzanine, которая теперь поставляется вместе с пакетом драйверов Cisco InfiniBand, позволяет применять на серверах HP BladeSystem c-Class коммерческие драйверы Cisco IB на базе Linux, Cisco Open Fabrics Enterprise Edition IB на базе Linux и Cisco IB на базе Windows. Эти драйверы тесно интегрируются с ПО Cisco InfiniBand Fabric Manager, что обеспечивает высокий уровень масштабируемости, производительности и надежности.
HPC: подход IBM
Суперкомпьютер IBM Blue Gene/L четвертый год подряд занимает лидирующие позиции в списке 500 самых мощных суперкомпьютеров мира. Согласно 29-му рейтингу, опубликованному в июне 2007 г., на системы IBM (www.ibm.com) приходится 42% совокупной вычислительной производительности самых мощных суперкомпьютеров планеты — больше, чем у систем какого-либо другого поставщика. Кроме того, находившееся еще в стадии разработки новейшее решение IBM Blue Gene/P буквально «с ходу» заняло в рейтинге 31-е место. Эта экспериментальная система, состоящая из двух стоек, имеет мощность в 20,86 TFLOPS при размерах в два бытовых холодильника. В основу системы положены процессоры, содержащие четыре ядра PowerPC 450 с тактовой частотой 850 МГц. Комплекс, насчитывающий 294912 процессоров и занимающий 72 стойки, теоретически сможет выполнять до одного квадриллиона операций с плавающей запятой в секунду (1 PFLOPS), а система, состоящая из 216 стоек и содержащая в общей сложности 884736 процессора, будет обладать производительностью до 3 PFLOPS. Одна из первых систем Blue Gene/P будет смонтирована в Аргоннской национальной лаборатории департамента энергетики США до конца текущего года. Кроме того, аналогичные вычислительные комплексы планируется установить в Университете штата Нью-Йорк в Стони-Брук, Брукхейвенской национальной лаборатории и других научно-исследовательских организациях США.
В первой десятке 29-й редакции списка TOP500 IBM занимает доминирующие позиции: ей принадлежит шесть систем, из которых четыре — суперкомпьютеры Blue Gene. Самая мощная система Blue Gene/L, установленная в Ливерморской национальной лаборатории в Калифорнии, имеет установившуюся производительность в 280,6 TFLOPS. В этом году в десятку вошли два новых суперкомпьютера — New York Blue из Центра компьютерных наук в Стони-Брук (шт. Нью-Йорк) и из Вычислительного центра нанотехнологических инноваций в Ренсслеровском политехническом институте в Трое (шт. Нью-Йорк). Всего в первой сотне рейтинга системы IBM занимают 46 позиций; из них 39 построены на аппаратной платформе IBM POWER и работают под управлением ОС Unix (AIX) и Linux.
В основу суперкомпьютера New York Blue положена система IBM Blue Gene. В настоящее время этот вычислительный комплекс состоит из восемнадцати стоек, в которых размещено в общей сложности 36 тыс. процессоров; производительность его достигает 100 TFLOPS. Разработчики говорят, что New York Blue станет самым мощным из всех существующих суперкомпьютеров общего назначения. Кроме того, как ожидается, вычислительный комплекс войдет в десятку самых производительных суперкомпьютеров мира. Строительство системы осуществлялось при поддержке властей штата Нью-Йорк, которые выделили на реализацию проекта 26 млн долл. New York Blue планируется использовать в исследованиях в сферах медицины, биологии, материаловедения, нанотехнологий и т. п.
Кроме системы Blue Gene/L Ливерморской национальной лаборатории, в первую десятку списка TOP500 входит собственная система Blue Gene корпорации IBM с производительностью 91,29 TFLOPS, установленная в Исследовательской лаборатории IBM им. Уотсона. Помимо систем Blue Gene в десятке (на шестом месте) присутствует суперкомпьютер ASC Purple Ливерморской национальной лаборатории на базе архитектуры IBM POWER.
Cуперкомпьютер IBM MareNostrum Барселонского суперкомпьютерного центра, построенный на основе блейд-серверов IBM BladeCenter JS21, сохранил свои позиции самого мощного суперкомпьютера в Европе, заняв в общем списке девятое место. В IBM создавалась и самая мощная система в Китае — кластер BladeCenter в Институте геофизических исследований компании Sinopec ShengLI Oilfield Branch Company. Напомним, что основанное на архитектуре IBM POWER решение IBM System Blue Gene оптимизировано с точки зрения пропускной способности, масштабируемости и возможностей обработки больших объемов данных и при этом требует значительно меньше энергии и площадей, чем другие ведущие суперкомпьютерные системы. Компьютеры Blue Gene используются во множестве отраслей для решения задач в области медико-биологических наук, финансового моделирования, гидродинамики, квантовой химии, молекулярной динамики, астрономии, космических исследований и исследований климата.
Расширение возможностей кластеров
IBM уже более шести лет успешно создает для клиентов кластеры, предназначенные для решения ресурсоемких суперкомпьютерных задач. Настало время распространить возможности высокопроизводительных кластерных вычислений на еще более широкий круг заказчиков. Так, в июне этого года IBM объявила о начале поставок решения Windows Compute Cluster Server 2003 для IBM System Cluster 1350, которое поможет большему числу компаний — как малых и средних, так и больших, в том числе в сегментах медико-биологических наук, инженерного проектирования и финансовых услуг, — использовать высокопроизводительные кластерные вычислительные технологии. IBM также объявила о расширении выбора серверов, устройств хранения данных и сетевых средств для своего кластерного решения. Это обеспечит новый уровень быстродействия и гибкости для высокопроизводительных вычислительных сред.
Кластеры для высокопроизводительных вычислений могут насчитывать от двух до нескольких тысяч связанных между собой серверов, обеспечивающих высокую производительность, необходимую для широкого спектра приложений. Среди аппаратных средств, которые IBM предлагает в этой области, система IBM System Cluster 1350 — интегрированный, собранный в заводских условиях и протестированный кластер с сетевыми средствами от ведущих поставщиков, а также серверы System x, System p и BladeCenter и системы хранения IBM System Storage. Для заказчиков, которые хотели бы использовать Microsoft Windows CCS вместе с новейшими кластерными технологиями IBM, центр тестирования корпорации IBM в Монпелье (Франция) недавно ввел новую программу тестирования клиентских решений на кластерах на базе решений Microsoft.
Подразделение Microsoft Research использует решение IBM System Cluster 1350 в исследованиях, направленных на поиск вакцины против ВИЧ. Для моделирования мутаций вируса в ответ на атаки со стороны иммунной системы исследователям Microsoft нужна была система, способная выполнять большие объемы вычислений и имеющая удобный технологический интерфейс. Решение Windows Compute Cluster Server 2003 (CCS) на кластере IBM позволило исследователям менее чем за два года выполнить объем вычислительных задач, эквивалентный как минимум 100 годам процессорного времени, и увеличить скорость моделирования на 50%.
Обновленное решение Cluster 1350 включает серверы BladeCenter и System x с многоядерными процессорами, продукты IBM System Storage и сетевые технологии от Cisco, SMC и Voltaire. Новые системы поддерживают процессоры Quad-Core Intel Xeon, обеспечивающие еще более высокий уровень производительности. Кластерное решение теперь также поддерживает ОС Novell SUSE Linux Enterprise Server 10. Кроме того, в число представленных продуктов из портфеля IBM System Cluster 1350 вошли:
- серверы IBM BladeCenter и System x с многоядерными и двухъядерными процессорами от AMD и Intel, в частности, BladeCenter HS21-XM, HS21, LS21, LS41; System x3550, x3650, x3455, x3655, x3755;
- новые средства хранения данных: интерфейс IBM System Storage DS3400 SAS/SATA Fiber Channel Host Interface, интерфейс DS3200 SAS Host Interface, системы хранения EXP 3000 (SAS/SATA);
- новые варианты сетевого оборудования, в частности, ряд коммутаторов Ethernet и InfiniBand от Cisco, SMC и Voltaire.
Суперкомпьютерный кластер в Кентукки
Установив новый суперкомпьютер IBM, Университет штата Кентукки стал одним лидеров среди государственных и частных университетов США по мощности вычислительных ресурсов. Система IBM System Cluster 1350 позволяет ускорить выполнение научных исследований в широком спектре научных дисциплин и расширить доступ к исследовательским проектам, обеспечивая теоретическую пиковую производительность в 16 TFLOPS. Руководство Центра научных вычислений Университета отмечает, что новый суперкомпьютер выводит университет в первый эшелон американских учебных заведений, использующих суперкомпьютеры для проведения исследований. Кроме того, на основании полугодового рейтинга можно предположить, что суперкомпьютер Университета штата Кентукки займет место среди крупнейших суперкомпьютеров мира, установленных в военных, правительственных, производственных и академических организациях.
Новый суперкомпьютер может применяться для исследований в самых разных областях, например, в биохимии, фармацевтике, медицине, инженерной механике, физике, астрономии и других науках. Кроме того, через вычислительную систему Университета штата Кентукки, входящую в сеть исследовательских суперкомпьютеров, новый суперкомпьютер смогут использовать сотрудники других университетов страны и всего мира. Университет установил новую машину в рамках двухлетнего договора аренды на общую сумму 2,6 млн долл.
Платформа IBM Cluster 1350 объединяет восемь серверов IBM p575 на базе процессоров Power5+ и систему IBM BladeCenter, включающую 340 блейд-серверов IBM HS21 на базе двухъядерных процессоров Intel с тактовой частотой 3 ГГц (в общей сложности 1488 процессорных ядер). Кроме того, кластер включает подсистему хранения System Storage DS4800 емкостью 30 Тбайт и сетевое решение 4X InfiniBand компании Voltaire. В состав HPC-кластера может входить от двух до нескольких тысяч серверов, совместно обеспечивающих высокую производительность в самых различных областях применения.
Суперкомпьютер для европейских ученых
Общество Макса Планка (www.mpg.de), одна из самых авторитетных научных организаций мира, обратилось к услугам IBM для построения мощного суперкомпьютера, предназначенного для решения сложнейших научных задач в различных областях — от исследований процесса образования Вселенной до анализа чрезвычайно малых наносред. Общество Макса Планка проводит фундаментальные исследования, значимые для развития науки, в таких областях, как естествознание, биология и медицина, гуманитарные науки. Эта независимая некоммерческая организация уделяет особое внимание новым областям знаний, работы в которых по тем или иным причинам не могут надлежащим образом проводиться силами университетов Германии. В состав Общества помимо собственных исследовательских институтов входит административное подразделение и ряд других.
Новый суперкомпьютер — система System p — имеет расчетную пиковую производительность более 100 TFLOPS, что позволит в 20 раз увеличить скорость выполнения приложений по сравнению с суперкомпьютером, имеющимся в распоряжении Общества Планка в настоящее время. Как ожидается, новая система на платформе IBM POWER6 по завершении развертывания (2008 г.) станет одним из самых мощных суперкомпьютеров Европы. Общество Макса Планка по содействию развитию науки заключило с IBM многомиллионный контракт после тщательного изучения предложений от нескольких потенциальных поставщиков.
Этот суперкомпьютер IBM нового поколения поможет ученым решать ряд сложнейших задач. В области материаловедения исследователи смогут углубить понимание свойств и функций наноматериалов, а также полимерных и коллоидных систем и мембран. Кроме того, суперкомпьютер будет использоваться для автоматизированного проектирования материалов и распознавания трехмерных образов в макромолекулярных системах. Ученые Института физики плазмы имени Макса Планка будут использовать новую систему для реалистичного имитационного моделирования турбулентности в устройствах термоядерного синтеза, которое проводится в интересах крупного международного проекта — экспериментального термоядерного реактора ITER. В рамках астрофизических проектов будут моделироваться процессы формирования космологических структур во Вселенной, сложные процессы взаимодействия в сверхновых звездах и их последствия для космологии, гравитационные коллапсы и гравитационные волны. Предполагается также проводить численные космологические эксперименты для расшифровки природы так называемой темной энергии. Как ожидается, изучение равновесных свойств в неупорядоченных квантовых структурах приведет к новым открытиям в области квантовых компьютеров.
В дополнение к большому суперкомпьютеру Общество Макса Планка получит систему Blue Gene нового поколения, на которой будет выполняться ряд специальных высокомасштабируемых приложений с интенсивной коммуникационной нагрузкой.
Суперкомпьютерная служба IBM
Корпорация IBM сообщила о наращивании ресурсов своей суперкомпьютерной службы Deep Computing Capacity on Demand (DCCoD). В сотрудничестве с Intel она планирует предложить клиентам, арендующим машинное время в хостинговых центрах IBM DCCoD, двухъядерные и четырехъядерные процессоры Intel Xeon в своих серверах System x. Это предложение рассчитано в первую очередь на финансовые компании, которым требуются дополнительные высокопроизводительные вычислительные ресурсы, например, для приложений оперативного и углубленного бизнес-анализа. Платформа IBM/Intel позволяет заказчикам быстро расширить возможности своей вычислительной инфраструктуры. Ресурсы DCCoD могут приобретаться на срок не менее 8 ч в день и доступны пять дней в неделю. Наращивание ресурсов DCCoD позволит компаниям получать гибкий доступ к вычислительным мощностям по мере необходимости, не увеличивая рабочие площади своих ЦОД и расходы на электроэнергию.
Новые возможности суперкомпьютерного центра
Суперкомпьютерному центру при Калифорнийском университете в Сан-Диего постоянно приходится решать проблему непрерывного роста объемов данных. Это объясняется усложнением исполняемых в центре приложений и расширением полосы пропускания, а также увеличением объема хранимых массивов оцифрованной информации и результатов экспериментов. Одним из инструментов для решения этой задачи стали новые ленточные носители IBM. В результате модернизации технических ресурсов Суперкомпьютерного центра удалось повысить общую производительность установленной в нем системы Blue Gene до уровня 17 TFLOPS, а сам центр стал одной из первых организаций в мире, где применяется новое мощное решение IBM для хранения данных на ленте. Предполагается, что в результате Суперкомпьютерный центр Сан-Диего будет располагать ресурсами хранения, превышающими возможности любого другого учебного заведения в мире.
В настоящее время Суперкомпьютерный центр Сан-Диего внедряет новые носители IBM System Storage 3599 Tape Media — первые енточные носители с собственной физической емкостью 700 Гбайт. На сегодняшнем рынке носителей с линейным доступом это самая большая физическая емкость, она на 40% превышает емкость моделей предыдущего поколения. Эти носители расширят возможности входящих в инфраструктуру центра шести ленточных библиотек, каждая из которых содержит примерно 6 тыс. магнитных лент. Новые 700-Гбайт ленточные носители и высокоскоростные ленточные накопители IBM TS1120 позволят довести общую емкость хранения на ленте до 25 Пбайт, что более чем на 350% превышает емкость использовавшегося ранее хранилища (7 Пбайт). Наращивание ресурсов хранения позволит Центру в Сан-Диего обслуживать более 10 тыс. исследователей из 300 образовательных, правительственных и промышленных организаций США и других стран.
В настоящее время в Центре применяются вычислительные ресурсы высшего класса, включая модернизированную систему Blue Gene, а также DataStar — суперкомпьютер на базе процессоров IBM POWER с общей производительностью 15,6 TFLOPS. Обе системы входят в число самых мощных суперкомпьютеров мира и используются для выполнения крупномасштабных научно-исследовательских приложений с интенсивной обработкой данных. Кроме того, Центр служит ведущей площадкой для финансируемого Национальным научным фондом США проекта TeraGrid — многолетней программы построения первой в мире крупномасштабной производственной grid-инфраструктуры для открытых научных исследований. В рамках этого проекта в Сан-Диего развернут Linux-кластер на базе процессоров с архитектурой IA 64 общей производительностью 4,4 TFLOPS, онлайновая дисковая система хранения емкостью 2,4 Пбайт, система архивного хранения емкостью 25 Пбайт и инфраструктура хранения на базе файловой системы General Parallel File System емкостью 220 Тбайт, доступ к которой имеют все
участники проекта TeraGrid. Центр подключен к своим партнерам по проекту TeraGrid из США с помощью общенациональной магистрали с пропускной способностью 10 Гбит/с.
Компьютеры для усовершенствования компьютеров
Компьютерное моделирование стало возможным уже в 1980-х гг., однако только сегодня — благодаря эволюции алгоритмов и их адаптации к широко масштабируемой и сбалансированной архитектуре компьютеров Blue Gene — у исследователей появилась возможность создавать реалистичные модели из нескольких тысяч частиц, основанные на фундаментальных законах природы. Так, в корпорации IBM получили новые результаты компьютерного моделирования, позволяющие существенно улучшить характеристики процессорных микросхем с точки зрения производительности и функциональности. Группа ученых из исследовательской лаборатории IBM в Цюрихе (www.zurich.ibm.com) впервые в мире выполнила моделирование на суперкомпьютере, чтобы углубить знания о поведении нового многообещающего материала, диоксида гафния, в кремниевых транзисторах — базовых компонентах современных компьютерных микросхем. Новый материал играет ключевую роль в недавно представленной корпорацией IBM технологии high-k/metal-gate (диэлектрик с высоким значением k/металлический затвор). Это первое крупное изменение в конструкции транзистора с момента появления кремниевых полупроводников, и оно обещает существенно улучшить характеристики микросхем, применяемых в компьютерах и других электронных системах. В настоящее время IBM занимается внедрением этой технологии, рассчитывая применить ее в своей продукции в 2008 г.
В течение долгого времени полупроводниковая отрасль прилагала значительные усилия к отысканию новых материалов для важнейшего компонента полевого транзистора — изолирующего слоя затвора. Диоксид гафния представляется идеальным вариантом для затворов транзисторов нового поколения, однако внедрение любого нового материала в полупроводниковые компоненты может иметь непредсказуемые последствия, поэтому этот вопрос предварительно следует тщательно изучить. Одним из важнейших факторов, способствовавших решению весьма сложных задач интеграции новых материалов, стало проведенное в IBM моделирование взаимодействия диоксида гафния с другими материалами на атомарном уровне.
Ученые лаборатории IBM в Цюрихе, где накоплен богатый опыт в области компьютерного моделирования, использовали мощности суперкомпьютера IBM Blue Gene, чтобы выяснить, почему диоксид гафния работает существенно лучше, чем остальные материалы с высоким значением k, возможность применения которых изучалась ранее. В результате моделирования исследователи впервые получили ясную картину основополагающих физических процессов, определяющих уникальные электрические свойства диоксида гафния при его взаимодействии с кремнием. На вычисление одного значения диэлектрической постоянной уходило всего пять дней машинного времени на двухстоечном суперкомпьютере Blue Gene/L (4096 процессоров), установленном в лаборатории IBM в Цюрихе; полный цикл моделирования с применением всех 50 моделей занял примерно 250 дней (для сравнения: самому мощному ноутбуку понадобилось бы на решение этой задачи 700 лет). Общий объем вычислений — 200 млрд операций — просто поражает воображение. Эти исследования хорошо иллюстрируют возможности суперкомпьютерного моделирования для совершенствования любых современных технологий.