Проектирование современных решений охлаждения ЦОД. Михаил Балкаров Системный Инженер APC by Schneider Electric.

Презентация:



Advertisements
Похожие презентации
All content in this presentation is protected – © 2009 APC by Schneider Electric Core | Virtualization-Consolidation | Rev 0 Системы кондиционирования.
Advertisements

Практический опыт и особенности построения Суперкомпьютерного центра СГАУ «Сергей Королев» Колпащиков Андрей главный инженер компании «ПАРУС»
All content in this presentation is protected – © 2008 American Power Conversion Corporation Концепция построения инженерной инфраструктуры Центров Обработки.
Решения компании «Т-Платформы» для высокопроизводительных вычислений: взаимовыгодное сотрудничество отечественной науки и бизнеса.
Игорь Каменский Масштабируемая Архитектура для защиты центров обработки данных.
Институт программных систем имени А.К.Айламазяна РАН Суперкомпьютерные системы класса «Top1–10» подсистема охлаждения 1.
Мы наш, мы новый ЦОД построим из опыта проектирования Трунин Виталий Алексеевич Руководитель направления инженерных инфраструктур СП «Бевалекс» ООО.
Эволюция систем охлаждения суперкомпьютеров и ЦОД С.М.Абрамов, С.А.Амелькин (ИПС имени А.К.Айламазяна РАН) А.А.Чичковский (группа компаний «Сторус»)
RC Group - ВЕНТСПЕЦСТРОЙ People for Quality П. Л. Ронжин Директор ООО «ВЕНТСПЕЦСТРОЙ»
ТЕХНОЛОГИИ ЭНЕРГОЭФФЕКТИВНОСТИ СОВРЕМЕННЫХ СИСТЕМ ОХЛАЖДЕНИЯ Энергосберегающие, экологически чистые установки, разработанные на основе уникальных технологий.
All content in this presentation is protected – © 2008 American Power Conversion Corporation APC by Schneider Electric. «Кризис среднего возраста» инженерной.
© a company of Schneider Electric Системы охлаждение Особенности решений APC Михаил Балкаров.
Инженерная инфраструктура. Направления развития рынка. Воробьев Андрей, APC CIS SE Manager.
InfraStruXure TM Инновационный подход в обеспечении высокого уровня готовности ИТ-инфраструктур Алексей Прашек Региональный менеджер АРС по Уралу и Западной.
1Emerson Confidential Новые Центры Обработки Данных Вызов системам охлаждения –Тепловая нагрузка стоек имеет нелинейную зависимость –Высокая плотность.
0 Вычислительные ресурсы как сервис От собственного ЦОД к ИТ мощностям как услуга Шумилин Алексей 0.
ХОЛОДИЛЬНЫЕ СИСТЕМЫ И ТЕПЛОВЫЕ НАСОСЫ РАБОТАЮЩИЕ НА CO 2 В КАЧЕСТВЕ ХЛАДАГЕНТА С. Жиротто Enex S.r.l., Италия
Стратегия развития и эффективное планирование работы ЦОД службы IT корпорации Intel Леонид Шишлов, Менеджер по развитию ЦОД 6 Сентября 2011, Москва.
Безопасность жизнедеятельности Кондиционирование комнаты Длина помещения 10,7 м, ширина – 5,9 м, высота помещения – 3,1 м. В помещении имеется два окна.
1 Системы внутрирядного прецизионного кондиционирования COOLSIDE EVO.
Транксрипт:

Проектирование современных решений охлаждения ЦОД. Михаил Балкаров Системный Инженер APC by Schneider Electric

Программа Обзор текущего положения дел с энергопотреблением. Case study параметров запускаемого в настоящего время в МГУ им. М.В.Ломоносова суперкомпьютера Т-500: расчетная производительность 500 ТФлоп/с, около 3МВт потребляемой мощности, отвод тепла от стоек с блейд-серверами с пиковым тепловыделением до 75 кВт на стойку. Сравнение эффективности построения схем охлаждения с контейнеризацией холодного и горячего коридоров. Сравнение применимости чиллерных систем охлаждения и фреоновых (DX) для современных приложений. Обзор классических систем охлаждения Заключение: выводы и рекомендации

Динамика роста тепловой плотности ИТ-продуктах (прогноз 1999г.)

Динамика роста тепловой плотности в ИТ- продуктах (прогноз 2005г.)

Реалии сегодняшнего дня кВт для 1-2 RU серверов (pizza) 15…20 кВт для blade-серверов

HPC (High Performance Computing) Полигон «Formula 1» для многих технологий Наиболее «горячие» серверы

Энергопотребление 1 PFlop/s компьютера Энергопотребление компьютера с производительностью 1 Pflop/s = 2.5 … 15 MВт Энергопотребление 19 стойки с серверами – CRAY XT5 (#2): 32…43 кВт – SGI Pleiades (#4): 21 кВт – T60 (#82): 33 кВт

Программа Обзор текущего положения дел с энергопотреблением. Case study параметров запускаемого в настоящего время в МГУ им. М.В.Ломоносова суперкомпьютера Т-500: расчетная производительность 500 ТФлоп/с, около 3МВт потребляемой мощности, отвод тепла от стоек с блейд- серверами с пиковым тепловыделением до 70 кВт на стойку. Сравнение эффективности построения схем охлаждения с контейнеризацией холодного и горячего коридоров. Сравнение применимости чиллерных систем охлаждения и фреоновых (DX) для современных приложений. Обзор классических систем охлаждения Выводы и рекомендации

Проект Т-500 Заказчик: МГУ им. М.В.Ломоносова Генеральный контрактор: Т-Платформы Расчетная производительность 500 ТФлоп/с Энергопотребление вычислителя: до 2.4 МВт, общее потребление площадки около 4 МВт Горячие серверные стойки кВт (!!), конфигурация рассчитана на теплосъем до 75 кВт со стойки

(фото с площадки)

T-500: энергетика 60 стоек с нагрузкой, 40 внутрирядных кондиционеров Средняя нагрузка ~40 кВт/стойку с активным оборудованием В каждом «островке» 8 горячих стоек, по кВт тепловыделения

T-500 APC InRow RC, 600mm, Chilled Water, V, 50Hz Штатная производительность по холоду 37 кВт 37кВт х 10 = 370кВт Тепловыделение одного «островка» = кВт В чем же фокус?...

Программа Обзор текущего положения дел с энергопотреблением. Сравнение применимости чиллерных систем охлаждения и фреоновых (DX) для суперкомпьютерных приложений. Сравнение эффективности построения схем охлаждения с контейнеризацией холодного и горячего коридоров. Case study параметров запускаемого в настоящего время в МГУ им. М.В.Ломоносова суперкомпьютера Т-500: расчетная производительность 500 ТФлоп/с, около 3МВт потребляемой мощности, отвод тепла от стоек с блейд-серверами с пиковым тепловыделением до 75 кВт на стойку. Сравнение применимости чиллерных систем охлаждения и фреоновых (DX) для современных приложений. Обзор классических систем охлаждения Выводы и рекомендации

Контейнеризация горячего коридора

Контейнеризация холодного коридора

Горячий коридор Производительност ь кондиционера ~ ΔT = 35˚C

Холодный коридор Производительность кондиционера ~ ΔT = 20…25˚C

Холодный или горячий? Выигрыш в производительности кондиционера в 1.5 раза (в данном примере; выигрыш может быть существеннее) Пример: APC InRow CW ACRC501: – 44 кВт при ΔT = 22˚C; 11 кондиционеров для 500 кВт тепла – 71 кВт при ΔT = 35˚C; 7 кондиционеров для 500 кВт тепла В 1.5 раза меньше кондиционеров для отвода того же количества тепла Экономия площади, денег, энергопотребления

Программа Обзор текущего положения дел с энергопотреблением. Case study параметров запускаемого в настоящего время в МГУ им. М.В.Ломоносова суперкомпьютера Т-500: расчетная производительность 500 ТФлоп/с, около 3МВт потребляемой мощности, отвод тепла от стоек с блейд-серверами с пиковым тепловыделением до 75 кВт на стойку. Сравнение эффективности построения схем охлаждения с контейнеризацией холодного и горячего коридоров. Сравнение применимости чиллерных систем охлаждения и фреоновых (DX) для современных приложений. Обзор классических систем охлаждения Выводы и рекомендации

Ограничения фреоновых систем охлаждения Ограничение по температуре входного воздуха: не выше 30˚С, со склонностью к «эффекту домино». Требование к избытку воздуха, с ростом потребления вентиляторов Реализация бесперебойного охлаждения В данном проекте дополнительная мощность на выходе ИБП для реализации непрерывного охлаждения составила 120 кВт (кондиционеры, циркуляционные насосы), или 5% от мощности нагрузки Реализация непрерывного охлаждения с фреоновыми кондиционерами потребовала бы ~1.6 МВт дополнительной мощности ИБП для поддержки ВСЕЙ системы кондиционирования

Программа Обзор текущего положения дел с энергопотреблением. Case study параметров запускаемого в настоящего время в МГУ им. М.В.Ломоносова суперкомпьютера Т-500: расчетная производительность 500 ТФлоп/с, около 3МВт потребляемой мощности, отвод тепла от стоек с блейд-серверами с пиковым тепловыделением до 75 кВт на стойку. Сравнение эффективности построения схем охлаждения с контейнеризацией холодного и горячего коридоров. Сравнение применимости чиллерных систем охлаждения и фреоновых (DX) для современных приложений. Обзор классических систем охлаждения Выводы и рекомендации

Фальшпол Большое перемешивание Следовательно вынужденное занижение выходной температуры и завышение объема воздуха Следовательно низкая эффективность кондиционера и высокое потребление вентиляторов Неравномерность подачи

Фальшпол + контейнеризация Высокое сопротивление систем трубопроводов Следовательно вынужденное завышение давления подачи воздуха Следовательно высокое потребление вентиляторов Неравномерность подачи

Серверы с прямым водяным охлаждением 75 кВт на стойку => при ΔТ сервера = 20˚С => скорость воздуха 2.4 м/с на входе стойки IBM, Supermicro, Sun Microsystems,... выводят на рынок серверы с прямым водяным охлаждением

IBM Aquasar (BladeCenter with water cooling) 2009

IBM Bluefire 2008

Скиф-Аврора (Скиф ряд 4) ИПС РАН, 2009

Прямое водяное охлаждение серверов На ближайшие ~10 лет – ТОЛЬКО для HPC (высокопроизводительные вычисления) Почему? Представьте себе установку 1 (одного) нового сервера с водяным охлаждением в существующей серверной... Представьте себе сервер(ы) с водяным охлаждением в hosting/co-lo ЦОДе... Доказано: 40 и даже 60 кВт/стойку снимаются воздухом

Выводы и рекомендации Глобальное потепление продолжается кВт/стойку, далее?.. In-row (внутрирядное) кондиционирование доказало свою применимость для решения широкого круга задач Герметизация горячего коридора, кондиционеры на чиллерной воде – составляющие рецепта Самое важное: использованы ИСКЛЮЧИТЕЛЬНО серийные компоненты без какой-либо доработки

Сервера с прямым водяным охлаждением Применимость в обозримом будущем – лишь HPC-приложения

Текущая отметка 65 кВт/стойку, среднее тепловыделение 40 кВт/стойку Что дальше?