1 SCTeMM 2012, Yakutsk, Russia, November 28-30, 2011 Т.К. Козубская Институт прикладной математики им. М.В.Келдыша СуперКомпьютерные ТЕхнологии для Математического.

Презентация:



Advertisements
Похожие презентации
Параллельная реализация расчета задач аэроакустики на неструктурированных сетках Кафедра: ВМ Студент: Рябинин А. А. Научный руководитель: Четверушкин Б.Н.
Advertisements

М ОДЕЛИРОВАНИЕ ГАЗОВОГО ПОТОКА ЗА СОПЛОМ Кондаков В.Г. Якутск, ноября 2011 г.
1 Локализация разрывов в газодинамических полях полученных методом сквозного счета и адаптация расчетной сетки к положению разрывов Плёнкин Андрей Валерьевич.
Методы интерактивной визуализации динамики жидких и газообразных сред Костикова Елена Юрьевна, 521 гр. Научный руководитель: Игнатенко Алексей Викторович.
Интернет Университет Суперкомпьютерных технологий Лекция 1 Основные понятия Учебный курс Введение в параллельные алгоритмы Якобовский М.В., д.ф.-м.н. Институт.
Математическое моделирование в задаче ультразвуковой диагностики 3D сред на суперкомпьютере Романов С.Ю. (докладчик) Серёжников С.Ю. Конференция "Ломоносовские.
1 Тема 1.7. Алгоритмизация и программирование Информатика.
Интернет Университет Суперкомпьютерных технологий Лекция 4 Методы построения параллельных программ (продолжение) Учебный курс Введение в параллельные алгоритмы.
Интернет Университет Суперкомпьютерных технологий Лекция 3 Методы построения параллельных программ (продолжение) Учебный курс Введение в параллельные алгоритмы.
Этапы решения задач на компьютере.
Интернет Университет Суперкомпьютерных технологий Лекция 3 Методы построения параллельных программ Учебный курс Введение в параллельные алгоритмы Якобовский.
Московский государственный университет им. М. В. Ломоносова Факультет вычислительной математики и кибернетики Кафедра вычислительных методов Дипломная.
Теория статистики Корреляционно-регрессионный анализ: статистическое моделирование зависимостей Часть 1. 1.
V Всероссийская конференция молодых ученых А. А. Давыдов ИССЛЕДОВАНИЕ ВОЗМОЖНОСТЕЙ УСКОРЕНИЯ РАСЧЕТА ЗАДАЧ АЭРО-ГАЗОДИНАМИКИ С ПОМОЩЬЮ ВЕКТОРНЫХ СОПРОЦЕССОРОВ.
1 «Разработка методического и технологического обеспечения размещения и сбора сведений об образовательных организациях, используемых в процедурах государственной.
1 Параллельное программирование Минакова Е.О. Студентка 6 курса ОНУ им.И.И.Мечникова.
Интернет Университет Суперкомпьютерных технологий Лекция 3 Методы построения параллельных программ (продолжение) Учебный курс Введение в параллельные алгоритмы.
Интернет Университет Суперкомпьютерных технологий Якобовский Михаил Владимирович проф., д.ф.-м.н. Институт прикладной математики им. М.В.Келдыша РАН, Москва.
Учебный курс Объектно-ориентированный анализ и программирование Лекция 4 Трансформация логической модели в программный код Лекции читает кандидат технических.
Санкт-Петербургский государственный университет информационных технологий, механики и оптики Санкт-Петербург 2009 Санкт-Петербургский государственный университет.
Транксрипт:

1 SCTeMM 2012, Yakutsk, Russia, November 28-30, 2011 Т.К. Козубская Институт прикладной математики им. М.В.Келдыша СуперКомпьютерные ТЕхнологии для Математического Моделирования задач аэродинамики и аэроакустики в комплексе программ NOISEtte

2 SCTeMM 2012, Yakutsk, Russia, November 28-30, 2011 Сектор вычислительной аэроакустики И.В. Абалакинс.н.с., к.ф.-м.н., ИПМ РАН А.В. Горобецс.н.с., к.ф.-м.н., ИПМ РАН С.А.Суковн.с., к.ф.-м.н., ИПМ РАН А.П. Дубень½ м.н.с, ИПМ РАН; аспирант, МГТУ СТАНКИН П.А. Бахваловаспирант, МФТИ Соавторы

3 SCTeMM 2012, Yakutsk, Russia, November 28-30, 2011 Введение Исследовательский комплекс программ NOISEtte. Общая характеристика. Особенности. Суперкомпьютерные технологии, реализованные в NOISEtte Примеры решаемых задач Заключение Содержание

4 SCTeMM 2012, Yakutsk, Russia, November 28-30, 2011 Цели и задачи наука разработка новых моделей, методов и алгоритмов, технологий образованиеобучение студентов и аспирантов промышленностьрешение прикладных задач, обеспечение вычислительного эксперимента Введение Отличие от коммерческого пакета Как правило, более современные солверы Меньше технологических «хитростей» Как правило, «спартанский» пользовательский интерфейс Исследовательский комплекс программ (in-house code) Комплекс программ NOISEtte для расчета задач аэродинамики и аэроакустики - пример исследовательского кода. Развитие началось около 10 лет назад, активно разрабатывается последние 5 лет

5 SCTeMM 2012, Yakutsk, Russia, November 28-30, 2011 Разработан в ИММ / ИПМ им. М.В. Келдыша РАН, при участии INRIA, Sophia-Antipolis, Франция Вычислительное ядро Работа с сетками Параллельные средства для измельчения, декомпозиции, построения коммуникационной схемы, операторов перехода … Обработка данных Распределенное хранение, параллельная обработка сверхбольшого объема данных, анализ динамических данных, Фурье-анализ, визуализация… Постановка задачи Параметры схемы, моделей, граничных условий, средних полей, начальных данных, источников, выдачи результатов,… Ввод-вывод Платформонезависимая подсистема ввода/вывода, рестарты, средние поля, моментальные поля, эволюция во времени, диагностическая информация … Комплекс программ NOISEtte для математического моделирования задач аэродинамики и аэроакустики Комплекс программ NOISEtte для математического моделирования задач аэродинамики и аэроакустики Структура

6 SCTeMM 2012, Yakutsk, Russia, November 28-30, 2011 Математические модели Численные методы Параллельная реализация SMP системы (OpenMP), MPP системы (MPI), гибридные системы (MPI + OpenMP), гетерогенные компьютеры (OpenCL) EBR (Edge-Based Reconstruction) схемы повышенной точности – для всех моделей Явный метод Рунге-Кутты 4 го порядка и его линейная версия произвольно высокого порядка точности Неявный метод 2 го порядка точности интегрирования по времени, основанный на линеаризации по Ньютону с блочными линейными солверами (методы верхней релаксации (SOR) и сопряженных градиентов (BiCGStab)) Предобуславливатель Туркеля для маломаховых течений Неотражающие граничные условия (характеристические, на основе расщепления потока, «входные» и «излучательные» условия К.Тама) Уравнения Эйлера/Навье-Стокса для сжимаемого газа (EE, NSE) Нелинейные уравнения для возмущений (NLDE) – различные формулировки Линеаризованные уравнения Эйлера/Навье-Стокса (LEE, LNSE) Осредненные уравнения Рейнольдса (RANS) с моделью турбулентности Спаларта-Аллмараса Моделирование крупных вихрей (LES) Гибридная RANS-LES модель – моделирование отсоединенных вихрей ((D)DES) Модель Ффокса-Уильямса-Хоккингса для дальнего акустического поля Модель SNRG для моделирования поля скорости синтетической турбулентности Языки программирования Моделирование турбулентных течений DNS RANS (SRANS, URANS) LES гибридные RANS-LES подходы (DES, DDES) Сетки Неструктурированные треугольные и тетраэдральные (до миллиарда элементов); структурированные как подмножество FORTRAN95 С++ Общие сведения: сетки, модели, алгоритмы, … Вычислительное ядро

7 SCTeMM 2012, Yakutsk, Russia, November 28-30, 2011 Состав инфраструктуры для работы с сетками Параллельное средство для разбиения неструктурированной сетки На основе библиотек METIS, ParMETIS Параллельное средство для равномерного измельчения сетки Построение последовательности сеток с операторами перехода Сглаживание твердых поверхностей Построение коммуникационной схемы для заданной ширины интерфейса Средство для построения буферной зоны для периодических Г. У. (топологическое замыкание) Построение блочно-структурированных сеток с автоматической сшивкой блоков Построение 3D сетки по базовой 2D сетке Посредством вытягивания призматических элементов и разбиением на тетраэдры Конвертеры сеточных форматов

8 SCTeMM 2012, Yakutsk, Russia, November 28-30, 2011 Средства визуализации На всей сетке и неогрубленных подобластях На огрубленных сетках (с использованием операторов перехода) На заданных поверхностях и сечениях Обработка и распределенное хранение результатов Динамические данные в контрольных точках Динамические данные на контрольных поверхностях Динамические контрольные параметры – подъемная сила, сопротивление, и т.д. Статистика первого порядка – осредненные поля течения Статистика второго порядка – тензор рейнольсовых напряжений, и т.д. Моментальные поля течения Конвертеры сеточных форматов Платформонезависимая подсистема ввода-вывода Модульная система постановки задачи Задача разделяется на блоки – NMS, ID, MF, REF, BC, SRC, ES, IO, VIS, HIST, TURB, IMPL, PAR, GEOM, FF Встроенные возможности для свободного порядка именованных параметров. Значения по умолчанию позволяют не задавать параметры без необходимости Состав инфраструктуры ввода/вывода

9 SCTeMM 2012, Yakutsk, Russia, November 28-30, 2011 Управление версиями – Subversion IDE – MVS 2008, 2010; Code::Blocks Средства отладки – MVS, Intel Parallel Studio Средства тестирования – внутренняя функциональность для модульного тестирования Набор микротестов для автоматизированного контроля корректности Выполняется только 1 шаг по времени на контрольных тестах и сравниваются результаты Набор верификационных тестов для более полной проверки Расчеты выполняются полностью для проверки правильности конечного решения Профилирование – внутренние инструментальные средства Встроенная система таймирования с высоким разрешением для множественных каналов, идентифицируемых по текстовым меткам. Позволяет проводить измерения для каждой нити/процесса, собирать статистику в параллельном режиме и, таким образом, измерять сбалансированность загрузки. Документация для разработчиков и пользователей, описание мат. моделей, правила работы с кодом, КМБ. Средства визуализации – Tecplot, Origin Среда разработки

10 SCTeMM 2012, Yakutsk, Russia, November 28-30, 2011 Переносимость Может работать на различных системах от рабочих станций до суперкомпьютеров, Windows, Linux,…, прямой/обратный порядок байтов, MPI, OpenMP, MPI+OpenMP, OpenCL*. Автономность Может работать без дополнительных библиотек Высокая степень параллелизма Рассчитан на системы с 10 5 процессорных ядер и более Совмещенное ядро для 2D/3D расчетов Предназначен для фундаментальных исследований Возможность использование подробных сеток с числом тетраэдров более миллиарда, программная реализация позволяет легко добавлять новые модели и численные методы Может применяться для промышленных приложений Неструктурированные сетки позволяют работать со сложной геометрией Обратная совместимость Параметры задаются набором файлов со свободным порядком значений Значения по умолчанию для пропущенных параметров Основные особенности NOISEtte

11 SCTeMM 2012, Yakutsk, Russia, November 28-30, 2011 Задача струя, набегающая на цилиндр Тесты выполнены на примере реальной задачи об обтекании цилиндра дозвуковой струей. Сетка 16M узлов, 100M тетраэдров, 4-шаговый явный метод Runge-Kutta 4-го порядка по времени, схема повышенного порядка по пространству. Характерное время вычислений: 26.8 сек. на шаг по времени на 64 ядрах, сек. на 12800, нормализованное ускорение Ускорение OpenMP: число MPI процессов фиксировано 128, число OpenMP нитей меняется от 1 до 8. MPI работает на первом уровне, объединяя группу параллельных процессов, запущенных на разных узлах суперкомпьютера. OpenMP работает на втором уровне – внутри узлов, обеспечивая распараллеливание на многопроцессорных узлах в рамках модели с общей памятью. Двухуровневое распараллеливание MPI+OpenMP Ускорение MPI, 8 OpenMP нитей. (логарифмическая шкала) Ускорение (нормализованное по 64 ядрам) Тесты на суперкомпьютере Ломоносов до ядер

12 SCTeMM 2012, Yakutsk, Russia, November 28-30, 2011 Тесты на суперкомпьютере Ломоносов до 30 тысяч ядер Сетка 1.5 миллиарда контрольных объемов Схема с центрами в элементах Характерное время вычислений: 0.4 сек. на шаг по времени на 1000 ядрах, 0.02 сек. на 29600, нормализованное ускорение 19.6, параллельная эффективность 67%. Сетка 16 миллионов узлов / 100 млн. тетраэдров Схема с центрами в узлах повышенного порядка Ускорение (нормализованное) Ускорение MPI, 8 OpenMP нитей

13 SCTeMM 2012, Yakutsk, Russia, November 28-30, 2011 MPI подобласти разбиваются далее для OpenMP Узлы сетки каждой MPI подобласти разделяются на P t наборов Элементы сетки, содержащие узлы из разных наборов становятся интерфейсными Разбиение 2-го уровня Возможны различные варианты избежать пересечения: 1.Последовательная обработка интерфейсных элементов Каждая нить обрабатывает только свои внутренние элементы, а главная нить затем обрабатывает интерфейсные. 2.Наложение вычислений Каждая нить обрабатывает внутренние элементы, и интерфейсные элементы, имеющие узлы, принадлежащие нити. Нить пишет результаты только для своих узлов. 3.Репликация данных Интерфейсные элементы также распределяются между нитями, каждая нить пишет результаты в свой отдельный массив по узлам, затем главная нить суммирует результаты. 4.Потактовое вычисление Элементы делятся на группы, не имеющие пересечений Вариант 1 Вариант 2 Вариант 3 Двухуровневое MPI+OpenMP распараллеливание

14 SCTeMM 2012, Yakutsk, Russia, November 28-30, 2011 Узлы суперкомпьютера становятся гетерогенными Узлы суперкомпьютера объединяются с помощью MPI в рамках модели с распределенной памятью и MIMD параллелизма OpenMP обеспечивает распараллеливание внутри многопроцессорного узла в рамках модели с общей памяти и того же MIMD параллелизма OpenCL задействует GPU устройства, в которых также используется SIMD параллелизм на уровне потоковых процессоров. обычный компьютер гетерогенный компьютер Расширение параллельной модели

15 SCTeMM 2012, Yakutsk, Russia, November 28-30, 2011 Программа для гетерогенной системы состоит из кода для CPU – host кода и кода для GPU – kernel кода, другими словами вычислительных ядер Рассматривались следующие средства: CUDA - Compute Unified Device Architecture Является наиболее популярным средством в настоящее время. Может применяться только на оборудовании NVidia OpenCL - Open Computing Language Позволяет использовать оборудование как NVidia, так и ATI (AMD) Выбран OpenCL для обеспечения переносимости Тестовая реализация алгоритма была выполнена и на CUDA и на OpenCL для сравнения По производительности версия на OpenCL не уступила CUDA версии в тестах на NVidia Tesla C1060 Модель памяти OpenCL Выбор средства разработки Использование графических процессоров

16 SCTeMM 2012, Yakutsk, Russia, November 28-30, 2011 Математическая модель - система безразмерных уравнений Эйлера Дискретизация по пространству - конечно-объемный метод с центрами в элементах сетки Сетки – неструктурированные гибридные (от тетраэдров до гексаэдров) Тестовая задача - сверхзвуковое обтекание сферы (число Маха равно 2.75) Применение GPU исследуется на упрощенном, но репрезентативном примере Тетраэдральная сетка: узлов, элементов, внутренних граней расчетных Картина течения Алгоритм для тестовой реализации

17 SCTeMM 2012, Yakutsk, Russia, November 28-30, 2011 Поток через общую грань ячеек i и j суммируется по схеме Роу в массивы потоков по ячейкам, которые далее используются для нахождения значений газодинамических переменных на новом слое по времени. Если параллельно вычислять потоки через грани между ячейками i - j и i - k, то возникнет ошибка при одновременном суммировании потоков для ячейки i двумя разными нитями Проблема была решена двумя способами: вычисление потоков с репликацией данных и суммирование по графу связей Посчитанные потоки записываются в дополнительный массив по граням, а затем суммируются в массив по узлам. потактовым вычислением потоков К дуальному графу сетки применяется алгоритм раскраски ребер для разделения множества ребер на подмножества, в которых каждый из узлов встречается не более одного раза. Вычисление потоков через грани контрольных объемов Пример подмножества Декомпозиция на восемь тактов Адаптация программных алгоритмов к GPU

18 SCTeMM 2012, Yakutsk, Russia, November 28-30, 2011 Оборудование CPU Intel Xeon E GHz Intel Xeon X GHz Кластер ИММ4 Суперкомпьютер К100 GPU NVidia Tesla C2050 (K100) NVidia Tesla C1060 (ИММ4) NVidia GeForce GTX470 (НИИСИ) ATI Radeon 5870 (НИИСИ) AMD Radeon 6970 (НИИСИ) Суперкомпьютер К100 ( Вычислительный стенд НИИСИ РАН 515GF ~ 80GF ~ 125GF 544GF 675GF Производительность вычислений на GPU

19 SCTeMM 2012, Yakutsk, Russia, November 28-30, 2011 Измерялось время вычислений на GPU и CPU с помощью таймирования с высоким разрешением Измерения усреднялись на интервале 100 шагов по времени Замеры выполнены для всего шага по времени и для отдельных операций: расчет потоков через грани контрольных объемов суммирование потоков с граней в ячейки граничные условия (ГУ) переход на новый временной слой по схеме Рунге-Кутты (Р-К) Программа запускалась на одном CPU ядре и одном GPU устройстве Все вычисления - для чисел с плавающей точкой двойной точности (double, 64 бита) Измерение производительности на тестовой задаче Операция Intel Xeon E GHz Intel Xeon X GHz NVidia C1060 NVidia GTX470 NVidia C2050 ATI Radeon 5870 AMD Radeon 6970 Расчет потоков Суммирование ГУ Р-К Всего Время вычислений на шаг по времени (сек.) на GPU и CPU Производительность вычислений на GPU

20 SCTeMM 2012, Yakutsk, Russia, November 28-30, 2011 На АMD получена более высокая производительность хотя С2050 примерно в 10 раз дороже Замена переменных на константы в OpenCL Компиляция выч. ядер выполняется в режиме runtime CPU программы, поэтому размеры массивов и различные коэффициенты дописываются в исходный код ядер как #define константы. Это дало выигрыш около 5%. Минимизация числа операций деления На CPU разница в скорости между умножением и делением сказывается намного меньше, чем на GPU Добавление директивы #pragma unroll Для циклов с фикс. числом итераций, например, по граням для каждого контрольного объема. Оказало существенное влияние на ATI, на NVidia не имело эффекта Анализ результатов профайлера и устранение фиктивных регистров На NVidia действия по оптимизации кода имели намного меньший эффект чем на AMD На AMD доработка кода повысила производительность в ~2 раза, в то время как на NVidia только на 10%. Ускорение раз по сравнению с CPU ядром максимальное ускорение отдельных операций до 40~50 раз Корректность работы GPU устройств требует внимания реализована дополнительная функциональность для проверки корректности вычислений Сравнение различных моделей GPU на тестовой задаче Сравнение CPU и GPU на тестовой задаче Производительность вычислений на GPU

21 SCTeMM 2012, Yakutsk, Russia, November 28-30, 2011 Мин.конфигурация кода Схема с центрами в элементах Схема с центрами в узлах MPI+OpenMP+OpenCL Переносимый код, который работает на всем: Windows, Linux, рабочие станции, кластеры, суперкомпьютеры, гетерогенные системы на GPU NVidia и AMD (ATI)…. Минимальные требования: ускорение хотя бы в раз по сравнению с CPU ядром NVidia Fermi стоит ~2K E, 6-ядерный Xeon ~600E разница ~20 раз в стоимости Fermi ~300Вт, 6-ядерный Xeon ~15Вт на ядро разница ~20 раз по энергопотреблению GPU от AMD стоит ~200E, но все равно ~200Вт. GPU часть только начала работать, пока ускорение 7-8 раз Ускорение раз Заканчивается работа по версии на C++ Перенос вычислений на GPU

22 SCTeMM 2012, Yakutsk, Russia, November 28-30, Численное моделирование взаимодействия турбулентной струи с поперечно расположенным круглым цилиндром бесконечной длины Модели: DNS, implicit LES, DDES Грант РФФИ_офи, совместные исследования с ЦАГИ, Москва 2.Численное исследование ячеек звукопоглощающих конструкций (ЗПК) Модели: DNS, DDES Договор с ОАО «Авиадвигатель», Пермь 3. Численное моделирование турбулентного течения вокруг обратных уступов и выемок (дозвуковые и сверхзвуковые режимы) Модели: DES, DDES Грант РФФИ, работы с ОАО «ОКБ Сухого» и ЦНИИМаш, Москва 4.Задачи проекта 7-ой рамочной программы Евросоюза VALIANT* 4.1 Численное моделирование акустических полей течения при взаимодействия турбулентного течения с зазором в механизации крыла 4.2 Численное моделирование акустических полей течения при обтекании турбулентным потоком системы двух цилиндров с квадратным сечением под разными углами атаки (имитация стоек шасси) Модели: DES, DDES 5.Солверы и тестовые задачи для пакета LOGOS Договорные работы с РЦЯФ-ВНИИЭФ, Саров 6.Тестовые задачи по внешним течениям вокруг профилей Совместные работы с МФТИ, ФАЛТ и ОКБ «Камов» *VALIANT – VALidation and Improvement of Airframe Noise prediction Tools Задачи, решаемые в настоящее время

23 SCTeMM 2012, Yakutsk, Russia, November 28-30, 2011 Исследования звукопоглощающих конструкций авиадвигателей

24 SCTeMM 2012, Yakutsk, Russia, November 28-30, 2011 Вид сбоку Вид сверху Вид сетки 3.4М узлов / 20М тетраэдров для конфигурации ячейки с 11 отверстиями Моделируется прохождение акустической волны в канале с перфорированной ячейкой ЗПК На вход подается широкополосный шум и измеряется коэффициент прохождения сигнала Характеристики прохождения сигнала для полосы частот Расчеты по звукопоглощающим конструкциям (ЗПК) авиадвигателей Совместные с ОАО Авиадвигатель, Пермь, исследования ЗПК Сетка в области отверстия Вихревые кольца, возникающие в горле резонатора Схема расчетной области для перфорированной ячейки

25 SCTeMM 2012, Yakutsk, Russia, November 28-30, 2011 Конфигурация перфорированной ячейки с 11 отверстиями Вид сбоку Вид сверху Визуализация течения в отверстиях ЗПК панели при прохождении акустической волны Сетка: 3.4 млн. узлов, 20 млн. тетраэдров, 256 CPU, МВС-100К и Кант (Калининград) Показано поле плотности в центральном сечении трехмерной расчетной области вдоль оси волновода, прохождение акустических волн и возникновение турбулентного течения через отверстия ячейки ЗПК

26 SCTeMM 2012, Yakutsk, Russia, November 28-30, 2011 Вид сбоку Вид сверху Расположение массива контрольных точек в следе за цилиндром Совместные с ЦАГИ исследования модельной конфигурации струя, набегающая на цилиндр, имитирующей обтекание стойки шасси самолета Воспроизводятся механизмы генерации аэродинамического шума при обтекании шасси самолета. Расчеты и соответствующие эксперименты, выполненные в ЦАГИ, нацелены на определение позиции источников шума в турбулентном следе за цилиндром. Параметры задачи Число Маха: М=0.206 Число Рейнольдса: Re = Размер сетки: до 16 млн. узлов, 100 млн. тетраэдров Период интегрирования по времени: 1700 Количество контрольных точек: 1400 Задействовано процессоров: до Поле модуля скорости, вид сверху Поле модуля скорости, вид сбоку Поле завихренности, вид сбоку Неструктурированная адаптированная тетраэдральная сетка Изоповерхности модуля скорости

27 SCTeMM 2012, Yakutsk, Russia, November 28-30, 2011 Визуализация течения, имитирующего обтекание стойки шасси самолета Показано поле модуля скорости и поле завихренности Сетка: 9 млн. узлов, 55 млн. тетраэдров, 1024 процессора, суперкомпьютер Ломоносов

28 SCTeMM 2012, Yakutsk, Russia, November 28-30, 2011 Взаимодействие турбулентности с зазором в конструкции планера Вид сбоку Вид сверху Схема расчетной области Исследуется один из основных источников аэродинамического шума Турбулентная вязкость в центральном сечении Изоповерхности турбулентной вязкости

29 SCTeMM 2012, Yakutsk, Russia, November 28-30, 2011 Вид сбоку Вид сверху VALIANT1: Визуализация турбулентного течения в зазоре Сетка: 5.5 млн. узлов, 32 млн. тетраэдров, 256 CPU, Ломоносов, К100 Показано поле модуля скорости, турбулентной вязкости и энтропии

30 SCTeMM 2012, Yakutsk, Russia, November 28-30, 2011 VALIANT1: Взаимодействие турбулентности с двумя стойками Вид сверху Вид блочной тетраэдральной сетки (огрубленной в 8 раз) Моментальная картина течения Воспроизводятся механизмы возникновения аэродинамического шума при обтекании стоек шасси самолета центральное сечение Схема расчетной области

31 SCTeMM 2012, Yakutsk, Russia, November 28-30, 2011 Вид сбоку VALIANT2: Визуализация течения вокруг двух стоек Сетка: 9.5 млн. узлов, 60 млн. тетраэдров, 1024 CPU, суперкомпьютер Ломоносов Показано поле модуля скорости, турбулентной вязкости и энтропии

32 SCTeMM 2012, Yakutsk, Russia, November 28-30, 2011 Что есть? Достаточно сильный, постоянно развиваемый исследовательский код, технологически пригодный приложений. Конкурентоспособный даже на мировом уровне. Заключение Область приложений Задачи, связанные с высокоскоростными течениями. В основном, приложения в авиационной промышленности Полигон для разработки новых моделей, методов и алгоритмов? - Да Полигон для разработки новых технологий параллельных вычислений и проведения крупномасштабных расчетов? - Да Нужен для образовательного процесса? - Да Нужен ли код или расчеты с его помощью промышленности? - Казалось бы, да …

33 SCTeMM 2012, Yakutsk, Russia, November 28-30, 2011