Институт теоретической и прикладной механики Российская Академия наук, Сибирское отделение Новосибирск Параллелизация континуальных и кинетических алгоритмов.

Презентация:



Advertisements
Похожие презентации
Исследование эффективности параллельного алгоритма Монте-Карло моделирования внутренних свободномолекулярных течений Хохлов И.А. 4-й курс Московский физико-технический.
Advertisements

Расчеты развития неустойчивости на границе раздела газов по методике МЕДУЗА с выделением контактной линии в смешанных ячейках Барабанов Роман Анатольевич,
1 Локализация разрывов в газодинамических полях полученных методом сквозного счета и адаптация расчетной сетки к положению разрывов Плёнкин Андрей Валерьевич.
Р ОССИЙСКАЯ А КАДЕМИЯ Н АУК, СИБИРСКОЕ ОТДЕЛЕНИЕ. И НСТИТУТ Т ЕПЛОФИЗИКИ ИМ. С.С.К УТАТЕЛАДЗЕ. VII МЕЖДУНАРОДНАЯ КОНФЕРЕНЦИЯ ПО НЕРАВНОВЕСНЫМ ПРОЦЕССАМ.
1 ФГУП «НАУЧНО-ИССЛЕДОВАТЕЛЬСКИЙ ТЕХНОЛОГИЧЕСКИЙ ИНСТИТУТ им. А.П. Александрова» Ю.В. ЮДОВ DIRECT NUMERICAL SIMULATION DNS 5-я международная научно-техническая.
Интернет Университет Суперкомпьютерных технологий Лекция 4 Методы построения параллельных программ (продолжение) Учебный курс Введение в параллельные алгоритмы.
Динамическая балансировка загрузки процессоров для распределенных параллельных вычислений на нескольких кластерах при численном решении задач с помощью.
Динамическая модель накопителя тепловой энергии РОССИЙСКАЯ АКАДЕМИЯ НАУК Объединенный институт высоких температур РАН Иванин О.А. Научный руководитель.
Параллельная реализация расчета задач аэроакустики на неструктурированных сетках Кафедра: ВМ Студент: Рябинин А. А. Научный руководитель: Четверушкин Б.Н.
Расчет турбулентных течений Проблемы расчета нестационарных переходных и турбулентных течений вязких жидкостей и газов многие годы находятся в центе внимания.
Математическое моделирование в задаче ультразвуковой диагностики 3D сред на суперкомпьютере Романов С.Ю. (докладчик) Серёжников С.Ю. Конференция "Ломоносовские.
Об одном методе построения разностных схем для уравнений МГД в условиях сильного фонового магнитного поля и гравитационной правой части Кафедра вычислительной.
Работу выполнил: Вилданов В.Р. Научный руководитель: Сергеев О.Б.
Сравнительный анализ некоторых методов композиции вычислительных подобластей студент: Данилин Александр научный руководитель: Илюшин Александр Иванович.
Интернет Университет Суперкомпьютерных технологий Лекция 3 Методы построения параллельных программ (продолжение) Учебный курс Введение в параллельные алгоритмы.
Интернет Университет Суперкомпьютерных технологий Лекция 3 Методы построения параллельных программ Учебный курс Введение в параллельные алгоритмы Якобовский.
Стр. 1 Часть 14 – Основы метода Эйлера. Стр. 2 Часть 14 – Основы метода Эйлера СОДЕРЖАНИЕ Основные положения метода Эйлера Основы метода конечных объёмов.
Интернет Университет Суперкомпьютерных технологий Лекция 3 Методы построения параллельных программ (продолжение) Учебный курс Введение в параллельные алгоритмы.
Антон Сухинов, Московский физико-технический институт Научный руководитель: Б.Н. Четверушкин, Институт математического моделирования РАН.
Карельский К. В. Петросян А. С.Славин А. Г. Численное моделирование течений вращающейся мелкой воды Карельский К. В. Петросян А. С. Славин А. Г. Институт.
Транксрипт:

Институт теоретической и прикладной механики Российская Академия наук, Сибирское отделение Новосибирск Параллелизация континуальных и кинетических алгоритмов решения задач сверхзвуковой аэродинамики М.С.Иванов, А.Н.Кудрявцев, П.В.Ващенков, Д.В.Хотяновский, Е.А.Бондарь Семинар «Постановки задач, допускающих распараллеливание на многопроцессорных вычислительных системах» ИМ СО РАН, 3 декабря 2004 г.

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике Иванов Михаил Самуилович, Кудрявцев Алексей Николаевич, Ващенков Павел Валерьевич, Хотяновский Дмитрий Владимирович, Бондарь Евгений Александрович, Лаборатория вычислительной аэродинамики ИТПМ СО РАН

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике Континуальный и кинетический подходы Континуальный: решение нестационарных уравнений Эйлера и Навье- Стокса с помощью конечноразностных и конечнообъемных схем сквозного счета (TVD, ENO, WENO) высоких (от второго до пятого) порядков. Явное интегрирование по времени (TVD схемы Рунге-Кутты). Многоблочная сетка. Параллелизация: domain decomposition + MPI. Кинетический: прямое статистическое моделирование течений газа в свободномолекулярном, переходном и околоконтинуальном режимах методом Монте-Карло. Модельные частицы, представляющие каждая определенное число молекул. Может рассматриваться как способ решения уравнения Больцмана. Декартова прямоугольная сетка с адаптивным сгущением. Параллелизация: domain decomposition + статическая или динамическая балансировка загрузки + MPI.

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике Параллельные компьютеры Intel Paragon XP/S35: 512 ЦП, США SPP-1600: 8 ЦП PA-RISC 7200 СКЦ Института высокопроизво- дительных вычислений и баз данных, Санкт-Петербург Illiac 8: 64 ЦП SGI Origin 2000, CRIHAN, Руан, Франция Cray T3E: 256 ЦП, IDRIS, Орсэ, Франция Alpha-64 кластер МВС1000-М, 32 ЦП Compaq Alpha 833MHz, Myrinet, ССКЦ, Новосибирск МВС 1000-М: 768 ЦП Alpha 2164, Межведомственный СКЦ РАН, Москва IA-32 кластер Platinum Национального центра суперкомпь- ютерных приложений NCSA, США(1024 ЦП Intel Pentium III, 1GHz, Myrinet) Институтский и лабораторный кластеры

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике Необходимые формулировки Ускорение (speedup): S = T 1 /T P T 1 время счета на 1 процессоре, T P время счета на P процессорах Эффективность: E = S/P S = P линейное или идеальное ускорение. В реальности S < P (сублинейное ускорение). Иногда бывает S > P (суперлинейное ускорение), например из-за фокусов с кэшем.

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике Необходимые формулировки Время выполнения задачи: T = f (N,P,…) Время работы процессора состоит из времени счета T calc, времени передачи сообщений T comm и времени ожидания T idle : T = T j calc + T j comm + T j idle T = (T calc +T comm +T idle )/P = (Σ T j calc + Σ T j comm + Σ T j idle )/P E = T calc /(T calc + T comm +T idle ) Таким образом, основная цель при разработки эффективного параллельного алгоритма состоит в минимизации T comm и T idle.

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике Схемы сквозного счета

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике Конвекция вихря Изэнтропический вихрь переносится вдоль диагонали квадрата с наложенными дважды периодическими граничными условиями средним полем скорости u=1, v=1

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике Дифракция ударной волны Экспериментальная теневая фотография Численная шлирен-визуализация

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике Ударная волна (M s =1,5) в круглой трубе

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике Ударная волна (M s =1,5) в круглой трубе

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике Параллельная реализация Domain decomposition для четырех ЦП в простейшем случае Достоинства: простота реализации, высокая эффективность.

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике Масштабированное параллельное ускорение NcpuNx×Ny×NzВремя счета, Tomcat Время счета, ССКЦ 1120×40× ×40× ×40× ×40× Tomcat: IA-32 кластер МВС-1000/16, 16 ЦП Intel Pentium III, 800MHz, Gigabit Ethernet ССКЦ: Alpha-64 кластер МВС1000-М, 32 ЦП Compaq Alpha 833MHz, Myrinet

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике Процесс запуска отражающего сопла Экспериментальная (Amann, 1969) и численная (невязкий расчет) шлирен-визуализации PS: первичная ударная волна CD: контактный разрыв SS: вторичная ударная волна IS: внутренний скачок SLR: отраженный контактный разрыв

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике Процесс запуска отражающего сопла Сравнение экспериментальных и численных результатов: (x-t) диаграмма местоположений ударных волн на оси

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике Исследования перехода между стационарными регулярной и маховской конфигурациями ударных волн под действием возмущений При отражении сильных ударных волн существует область двойного решения, где возможны и регулярный, и маховский тип стационарного отражения при одних и тех же параметрах потока. Короткий лазерный импульс, сфокусированный в потоке может быть использован для осуществления контролируемого перехода между регулярным и маховским отражениями (?) Численные шлирены для регулярного (слева) и маховского (справа) отражений ?

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике Параллельное ускорение Измерялось масштабированное ускорение при различной загрузке одного процессора (40 3, 80 3 и ячеек сетки на 1 процессор) IA-32 кластер Platinum Национального центра суперкомпьютерных приложений NCSA, США(1024 ЦП Intel Pentium III, 1GHz, Myrinet)

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике Воздействие лазерного импульса на регулярное отражение – переход к маховскому отражению Число Маха потока M=4. Энергия лазерного импульса E = 0.1 Дж. 16 CPU и 14 млн. ячеек сетки.

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике Воздействие лазерного импульса на маховское отражение – переход к регулярному отражению (?) Число Маха потока M=3.45. Энергия лазерного импульса E = Дж. 32 CPU и 35 млн. ячеек сетки. Разрешение Δy min =2×10 -3.

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике Расчеты с высоким разрешением – маховское отражение сохраняется Параметры потока идентичны предыдущему случаю. 64 CPU и 120 млн. ячеек сетки. Разрешение Δy min =1.3× Вывод: разрешение тонких деталей течения является определяющим в данной задаче!

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике Изменение высоты ножки Маха в расчете и эксперименте

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике Вязкая ударная труба Начальные условия (Daru & Tenaud, 1999) (x-t) диаграмма плотности в невязком расчете

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике Вязкая ударная труба Re=200Re=1000 Цветные шлирен-визуализации

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике Вязкая ударная труба, Re=200 Распределение плотности вдоль нижней стенки в момент времени t =1

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике Плоская струя со спутным потоком M j =2,5, M =1,5, Re=(U j -U )H/ν=5000 Поле энтропии, изгибная мода неустойчивости Поле энтропии, варикозная мода неустойчивости

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике Плоская струя со спутным потоком M j =4,5, M =1,5, Re=(U j -U )H/ν=5000 Поле энтропии, изгибная мода неустойчивости Поле энтропии, варикозная мода неустойчивости

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике Моделирование крупных вихрей (LES) Основная идея: движение крупных вихрей рассчитывается прямо их нестационарных уравнений Навье-Стокса, вклад мелкомасштабной турбулентности учитывается с помощью подсеточной модели Выделение крупномасштабных движений производится с помощью процедуры фильтрации Примеры фильтров: при иначе После фильтрации в уравнениях появляются новые неизвестные члены. Для их вычисления используются подсеточные модели.

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике LES сверхзвуковой турбулентной струи Моделируется сверхзвуковая турбулентная струя с числом Маха M=1.5, истекающая в затопленное пространство. Степень нерасчетности струи p j /p a варьируется. Уровень турбулентных пульсаций во входном сечении струи 5%. Расчет проводился с помощью WENO схемы 5-го порядка. Моделируется плоская струя. Течение предполагается периодичным по трансверсальной координате. Размер вычислительной области L x ×L y ×L z =10h×5h×2h, где hвысота струи. Число ячеек сетки в расчетной области N x ×N y ×N z =312×161×643.2×10 6 Расчет проводился на 8 ЦП МВС-1000 в течение нескольких суток

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике Идеально расширенная струя p j =p a Изоповерхности завихренности

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике Недорасширенная струя. p j /p a =2

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике Влияние продольного градиента давления на характеристики турбулентности Усредненная продольная скорость на оси струи Усредненные пульсации продольной скорости на оси струи

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике Метод прямого статистического моделирования Метод ПСМ традиционно рассматривается как метод компьютерного моделирования поведения большого числа модельных молекул. Обычно число модельных частиц является достаточно большим (порядка миллионов), но оно мало в сравнении с числом молекул реального газа. Каждая модельная частица представляет определенное число реальных молекул. Моделируемый объем физического пространства разбивается на ячейки, размеры которых такие, чтобы изменение параметров течения в каждой ячейке было малым. Изменение времени проводится дискретными шагами dt, малыми по сравнению со средним временем между столкновениями молекул.

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике Метод ПСМ Движение молекул и межмолекулярные столкновения на интервале dt разделены и проводятся последовательно: 1) Все молекулы перемещаются на расстояние, определяемое их скоростями и шагом по времени dt. Проводятся определенные действия, если молекулы пересекают поверхности твердого тела, линии или поверхности симметрии, либо внешние границы течения. Новые молекулы генерируются на границах, через которые есть поток молекул внутрь области. 2) Производятся столкновения между молекулами, соответствующие интервалу dt. Скорости молекул до столкновения заменяются скоростями, приобретаемыми ими после столкновения. Так как изменения параметров течения в ячейках малы, то все молекулы в ячейке определяют одно и тоже состояние, соответствующее положению ячейки. Это дает возможность не учитывать относительные расстояния между частицами при выборе пары молекул для столкновения.

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике Метод ПСМ

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике Параллелизация алгоритмов ПСМ Особенностью метода ПСМ является неравномерное распределение модельных частиц по вычислительной области. Возможны два подхода к его параллелизации: 1.Каждый процессор рассчитывает перенос некоторой порции частиц, а затем моделирует столкновения частиц в этой порции. Большие затраты на переиндексацию частиц. 2.Расчетная область разбивается на непересекающиеся подобласти, которые назначаются соответствующим процессорам. Процессы столкновения частиц и их переноса осуществляются каждым процессором независимо от других, и обмен информацией между процессорами состоит в передаче частиц, покидающих подобласть. П озволяет достичь высокой эффективности при условии, что все процессоры используют примерно одинаковое время для расчета временной эволюции частиц и время на передачу сообщений между процессорами мало.

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике Балансировка загрузки Основным способом уменьшения различий в T calc и, следовательно, уменьшения времени синхронизации T idle является использование балансировки загрузки процессоров. Различные алгоритмы БЗП можно объединить в две группы: 1.Статические, в которых область разбивается на подобласти до начала расчета; 2.Динамические, когда балансировка процессоров осуществляется во время расчета по мере необходимости. Прост в реализации и обладает хорошей эффективностью для не очень большого числа процессоров статический алгоритм с вероятностным распределением кластеров ячеек по процессорам.

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике Динамическая балансировка загрузки В начале расчета вычислительная область разделена на одинакового размера подобласти, число которых равно числу процессоров. При изменении структуры течения и, следовательно, загрузки процессоров во время расчета, кластеры перераспределяются между процессорами. В качестве критерия для балансировки загрузки используется время счета процессора T j calc. Для определения количества передаваемых кластеров и направления их передачи решается уравнение теплопроводности для времени счета. Решение ищется на сетке, являющейся физической сетью процессоров. Используется разностная схема второго порядка точности.

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике Обтекание капсулы «Союз» H = 85 км, α = -20º, изолинии плотности

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике Влияние алгоритма балансировки на ускорение

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике Время счета процессоров T calc /T N=256, статическая загрузка N=256, динамическая загрузка N=64, статическая загрузка N=64, динамическая загрузка

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике Функция распределения числа процессоров N = 64 N = 256

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике Моделирование обтекания носовой части космического аппарата Прогресс после сброса створок головного обтекателя на высоте 83 км

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике Основные характеристики задачи. Расчетное поле состояло из 8 млн. ячеек Моделировалось 60 млн. частиц. Использовалось 10 процессоров кластера МВС- 1000/М Процессоры Alpha 833 МГц, 1 Гб оперативной памяти на процессор. Требуемое количество памяти – 7 Гб. Использованное процессорное время около 1500 ч.

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике Адаптивная расчетная сетка

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике Сравнение результатов моделирования с трубным экспериментом. Эксперимент проведен в ЦАГИ. Угол атаки 7.5 град. Упрощенная модель.

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике Поле давления около носовой части космического аппаратаПрогресс.

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике Сравнение полного давления, полученного в расчете с результатами натурного эксперимента. (Запуск проводился г.)

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике Космическая станция «Мир» Геометрия

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике Космическая станция «Мир» Контуры давления

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике Обтекание надувной спускаемой капсулы в марсианской атмосфере

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике Гиперзвуковое обтекание клина Параметры течения: диссоциирующий азот N 2 ; число Маха M=7,7; число Кнудсена Kn=0,00065 Вычисления проводились в Межведомственном Суперкомпьютерном Центре РАН на многопроцессорной ЭВМ МВС1000М (768 процессоров Alpha 21264). Параллельная версия программного пакета для вычислений методом ПСМ реализована с использованием библиотеки MPI. Во всех расчетах использовался алгоритм разбиения расчетной области со случайным распределением ячеек по процессорам. В расчетах использовано до 70 миллионов моделирующих молекул и до 20 миллионов столкновительных ячеек. Максимальное число использованных процессоров: 200 (при эффективности параллелизации более 60 %).

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике Гиперзвуковое обтекание клина Поля числа Маха δ w =47° δ w =53,5°δ w =62,5°

Институт теоретической и прикладной механики СО РАН Параллелизация континуальных и кинетических алгоритмов в сверхзвуковой аэродинамике СПАСИБО ЗА ВНИМАНИЕ !