Кафедра ЮНЕСКО по НИТ1 Эффективность и ускорение параллельных программ параллельное программирование.

Презентация:



Advertisements
Похожие презентации
Кафедра ЮНЕСКО по НИТ1 Передача упакованных данных Параллельное программирование.
Advertisements

Кафедра ЮНЕСКО по НИТ1 Коллективные коммуникационные операции параллельное программирование.
Кафедра ЮНЕСКО по НИТ1 Коллективные коммуникационные операции. Редукционные операции параллельное программирование Часть2.
Кафедра ЮНЕСКО по НИТ1 Производные типы данных Параллельное программирование.
Лекция 6 Множественное распараллеливание на Linux кластере с помощью библиотеки MPI 1. Компиляция и запуск программы на кластере. 2. SIMD модель параллельного.
Введение в параллельные вычисления. Технология программирования MPI (день второй) Антонов Александр Сергеевич, к.ф.-м.н., н.с. лаборатории Параллельных.
Кафедра ЮНЕСКО по НИТ1 Коммуникационные операции «точка-точка» параллельное программирование.
Интернет Университет Суперкомпьютерных технологий Лекция 1 Основные понятия Учебный курс Введение в параллельные алгоритмы Якобовский М.В., д.ф.-м.н. Институт.
Табличный процессор Электронные таблицы. Электронные таблицы – это программы для обработки числовой информации, представленной в табличном виде.
Параллельное программирование с использованием технологии MPI Аксёнов Сергей Владимирович к.т.н., доцент каф.ОСУ ТПУ Лекция 4 Томский политехнический университет.
Кафедра ЮНЕСКО по НИТ1 Создание групп и коммуникаторов Параллельное программирование.
Массивы Массив это величины объединенные общим именем и различаемые порядковыми номерами. Номера называются индексами. В зависимости от количества индексов.
Написанная Дж. Нейманом часть отчета по машине содержала общее описание ЭДВАКа и основные принципы построения машины (1945г.). Она была размножена Г. Голдстайном.
Колмыкова С.М. ЧИСЛЕННЫЕ ПЕРЕМЕННЫЕ И ТИПЫ ДАННЫХ Язык программирования PASCAL.
Одной из возможностей текстового процессора MS Word являются расчеты в таблицах.
Массивы и строки Лекция 5. Одномерные массивы. Объявление. Общая форма объявления: тип имя_переменной[размер]; Пример: double balance[100]; balance[3]
Проект: Система управления распределенными структурами данных (СУРД) «Разработка MPI-приложения для численного решения уравнения Пуассона» Выполнил: Халяпин.
Алгоритмы параллельных вычислений степени инвариантности кристаллических структур Сомов Н.В., Носов С.С., Чупрунов Е.В. Физический факультет, Нижегородского.
План: 1.Понятие первообразной функции. Неопределенный интеграл. 2.Методы интегрирования (по формулам, заменой переменной, по частям). 3.Понятие определенного.
Предел функции Лекция 1. Ведение в Математический анализ – часть математики, в которой функции и их обобщения изучаются с помощью пределов. § Понятие.
Транксрипт:

кафедра ЮНЕСКО по НИТ1 Эффективность и ускорение параллельных программ параллельное программирование

кафедра ЮНЕСКО по НИТ 2 Задачи Определение латентность сети Замер скорости передачи данных Суммирование ряда чисел. Определение времени вычислений, подсчет ускорения и эффективности.

кафедра ЮНЕСКО по НИТ 3 Задача 1. Определение латентность сети. Для определения латентности (времени подготовки пакета данных) необходимо отправить с нулевого процессора данных на первый нуль байт. Использовать функции: MPI_Send, MPI_Recv. Замечание: время замеряется функцией MPI_Wtime на нулевом процессоре до и после выполнения функции MPI_Send. Листинг части кода программы: double t1=MPI_Wtime() MPI_Send (&a,0,MPI_INT,1,1,MPI_COMM_WORLD) double t2=MPI_Wtime() Double t=t2-t1 01

кафедра ЮНЕСКО по НИТ 4 Задача 1. Определение латентность сети. (2) Порядок проведения: Провести несколько испытаний, вычислить среднюю величину. Определить время затрачиваемое на прием данных. Разность времени работы функции приема MPI_Send и функции отправки MPI_Recv есть время, пересылки сообщения нулевой длины.

кафедра ЮНЕСКО по НИТ 5 Задача 2. Замер скорости сети передачи данных Написать программу заполнения и пересылки одномерного массива с нулевого процессора на первый. Размер массива изменять от 1 до Замерить время, затрачиваемое на пересылку данных. Построить таблицу: Сделать вывод о скорости передачи массива данных. Замечание: для чистоты эксперимента замеры проводить по очереди. Скорость пересылки = размер массива * размер типа данных / время пересылки Размер данных, байт Скорость пересылки, Mb/sec

кафедра ЮНЕСКО по НИТ 6 Задача 3. Суммирование ряда чисел. Написать параллельную программу вычисления суммы ряда чисел. Определить время затрачиваемое выполнение всей программы. Пересылки организовать используя функции: MPI_Send, MPI_Recv. MPI_Reduce. Провести расчеты параллельной программы с использованием 1, 2, 4, 6. Построить графики: Зависимость времени от размера задачи Зависимость ускорения и эффективность от размера задачи Вычислить производительность MFLOPS

кафедра ЮНЕСКО по НИТ 7 Задача 3. Суммирование ряда чисел. Порядок проведения: Для вычислений использования только вещественные числа с плавающей точкой. Провести несколько испытаний, вычислить среднюю величину. Производительность MFLOPS вычисляется по формуле: P = количество элементов массива * размер типа данных * количество элементарных операций (4, для выражения типа: s=s+i) / время расчета Заменить операцию «сложение» на операцию «умножение» и «деление», определить разницу в производительности. Сделать вывод о целесообразности применения кластера для решения данной задачи.