Посыпкин М.А. (С) Многопоточное программирование.

Презентация:



Advertisements
Похожие презентации
Многопоточное программирование. Виды параллелизма. Общая память Распределенная память.
Advertisements

Посыпкин М.А. (С) 2006 Многопоточное программирование.
POSIX Threads. Общая модель Программа Общая память Поток 1 CPU Поток 2 Поток N Потоки – наборы инструкций, исполняющиеся на CPU. Все потоки одной программы.
POSIX Threads & OpenMP Общая память Сергей Петрович Нечаев, Сибирский Суперкомпьютерный центр.
POSIX Threads МО ВВС ИВМ и МГ СО РАН Городничев Максим Александрович.
Блокировки чтения-записи Введение Получение и сброс блокировки чтения-записи Атрибуты блокировки чтения-записи Реализация Отмена выполнения потоков Пример.
Многопоточное программирование в OpenMP Киреев Сергей ИВМиМГ.
Лекция 6 Функции. Объявления и определения Объявление функции – указание имени функции, а также входных и выходных параметров Определение функции – указание.
Создание и завершение нитей Программирование с использованием POSIX thread library Иртегов Д.В. Учебное пособие подготовлено по заказу и при.
Параллельное программирование с использованием технологии OpenMP Аксёнов Сергей Владимирович к.т.н., доцент каф.ОСУ ТПУ Лекция 3 Томский политехнический.
Лекция 9 Функции. Массивы-параметры функции Передача массива в функцию Пример: void array_enter(int a[], int size) { int i; for (i = 0; i < size; i++)
Основы операционных систем. Тема 6. Механизмы синхронизации.
Лекция 6 Функции. Объявления и определения Объявление функции – указание имени функции, а также входных и выходных параметров Определение функции – указание.
OpenMPOpenMPРазличие между тредами и процессами ПроцессыТреды.
Управление процессами Синхронизация процессов и потоков.
Многопоточное программирование Java Advanced. 2Georgiy Korneev Краткое содержание 1.Введение 2.Классические задачи многопоточного программирования 3.Атомарные.
Многопоточное программирование Синхронизация потоков Лекция 11.
Параллельное программирование с использованием технологии MPI Аксёнов Сергей Владимирович к.т.н., доцент каф.ОСУ ТПУ Лекция 4 Томский политехнический университет.
Лекция 6 Множественное распараллеливание на Linux кластере с помощью библиотеки MPI 1. Компиляция и запуск программы на кластере. 2. SIMD модель параллельного.
Система реального времени QNX/Neutrino (QNX6). QNX Микpоядеpная Cетевая Мyльтизадачная Многопользовательcкая.
Транксрипт:

Посыпкин М.А. (С) Многопоточное программирование

Посыпкин М.А. (С) Резюме PTHREADS – переносимая библиотека системного уровня для разработки многопоточных программ Дает возможность получить эффективность близкую к максимально-возможной, но при этом требуется серьезная переработка кода

Посыпкин М.А. (С) Виды параллелизма. Общая память Распределенная память

Посыпкин М.А. (С) Средства параллельного программирования Общая памятьРаспределенная память Системные средства threadssockets Специальные библиотеки OpenMPMPI PVM

Посыпкин М.А. (С) ПРОЦЕССЫ В ОПЕРАЦИОННОЙ СИСТЕМЕ Процесс – это экземпляр выполняемой программы. Контекст: регистры; таблица трансляции адресов памяти;... Адресное пространство: текст программы; статические данные; стек; разделяемая память; динамическая память (куча).

Посыпкин М.А. (С) ПЛАНИРОВАНИЕ ПРОЦЕССОВ время процесс # 1 процесс # 2 процесс # 3 CPU

Посыпкин М.А. (С) ПЛАНИРОВАИЕ ПРОЦЕССОВ В МНОГОПРОЦЕССОРНОЙ СИСТЕМЕ время процесс # 1 процесс # 2 процесс # 3 CPU

Посыпкин М.А. (С) ТРЕДЫ Тредами (потоки, нити) называются параллельно выполняющиеся потоки управления в рамках одного процесса. Треды одного процесса разделяют его адресное пространство.

Посыпкин М.А. (С) ПЛАНИРОВАИЕ ТРЕДОВ время тред # 1 тред # 2 тред # 3 CPU процесс #2 процесс #1

Посыпкин М.А. (С) Треды и процессы обмен через общую память обмен через посылку сообщений

Посыпкин М.А. (С) Различие тредов и процессов Различные треды выполняются в одном адресном пространстве. Различные процессы выполняются в разных адресных пространствах. Треды имеют «собственный» стек и набор регистров. Глобальные данные являются общими. Как локальные, так и глобальные переменные процессов являются «собственными».

Посыпкин М.А. (С) Средства многопоточного программирования Треды поддерживаются практически всеми современными операционными системами. Средства для многопоточного программирования встроены в язык Java. Переносимая библиотека pthreads, разработанная Xavier Leroy, предоставляет средства для создания и управления тредами.

Посыпкин М.А. (С) Создание и завершение тредов int pthread_create ( pthread_t * outHandle, pthread_attr_t *inAttribute, void *(*inFunction)(void *), void *inArg ); void pthread_exit(void *inReturnValue) int pthread_join( pthread_t inHandle, void **outReturnValue, ); pthread_create pthread_join pthread_exit родительский тред тред-потомок

Посыпкин М.А. (С) Создание треда int pthread_create ( pthread_t * outHandle, pthread_attr_t *inAttribute, void *(*inFunction)(void *), void *inArg); outHandle – используется для возвращение в тред-родитель идентификатора треда потомка; inAttribute – атрибуты треда; inFunction – указатель на функцию, содержащую код, выполняемый тредом; inArg – указатель на аргумент, передаваемый в тред;

Посыпкин М.А. (С) Завершение треда void pthread_exit(void *inReturnValue) Вызов этой функции приводит к завершению треда. Процесс-родитель получает указатель в качестве возвращаемых данных. Обычное завершение функции и возврат указателя на void*, выполняемой тредом эквивалентно вызову функции pthread_exit, которая используется в случае, когда надо завершить тред из функций, вызванных этой функцией.

Посыпкин М.А. (С) Обработка завершения треда на треде-родителе int pthread_join( pthread_t inHandle, void **outReturnValue); Вызов этой функции приводит к блокировке родительского треда до момента завершения треда-потомка, соответствующего индентификатору inHandle. В область, указанную параметром outReturnValue, записывается указатель, возвращенный завершившимся тредом. pthread_join приводит к освобождению ресурсов, отведенных на тред (в частности сохранненого возращаемого значения). Необходимо выполнять также для синхронизации основного треда и тредов- потомков.

Посыпкин М.А. (С) Пример: вычисление определенного интеграла y = f(x) abxixi x i+1 SiSi x i-1

#include double a = 0.0, b = 1.0, h, *r; int *nums, numt, n; double f(double x) { return 4 / (1 + x * x); }

void* worker(void* p) { int my, i; double s; my = *(int*)p; s = 0.0; for(i = my; i < n; i += numt) s += f(i * h * h); r[my] = s; return NULL; }

main(int arc, char* argv[]) { double S; pthread_t *threads; int i, rc; numt = atoi(argv[1]); n = atoi(argv[2]); threads = (pthread_t*)malloc(numt * sizeof(pthread_t)); nums = (int*)malloc(numt * sizeof(int)); r = (double*)malloc(numt * sizeof(double)); h = (b - a) / n; for(i = 0; i < numt; i ++) { nums[i] = i; rc = pthread_create(threads + i, NULL, worker, nums + i); if(rc != 0) { fprintf(stderr, "pthread_create: error code %d\n", rc); exit(-1); }

for(i = 0; i < numt; i ++) { rc = pthread_join(threads[i], NULL); if(rc != 0) { fprintf(stderr, "pthread_join: error code %d\n", rc); exit(-1); } S = 0; for(i = 0; i < numt; i ++) S += r[i]; printf("pi = %lf\n", S * h); }

Посыпкин М.А. (С) Проблема недетерминизма Программа называется недетерминированной, если при одних и тех же входных данных она может демонстрировать различное наблюдаемое поведение

a read write increment read increment write a = a + 1 a = 0 a = 1

a read write increment read increment write a = a + 1 a = 0 a = 2

Посыпкин М.А. (С) a:=a+1 a=0 a=2 Неделимой называется операция, в момент выполнения которой состояние общих переменных не может «наблюдаться» другими тредами Неделимая операция

Посыпкин М.А. (С) Семафоры Семафорами называются общие переменные, которые принимают неотрицательные значение целого типа для работы с которыми предусмотрены две неделимые операции: 1)увеличить значение семафора на 1; 2)дождаться пока значение семафора не станет положительным и уменьшить значение семафора на 1.

Посыпкин М.А. (С) Поддержка семафоров в библиотеке pthreads sem_t – тип семафора sem_init(sem_t* semaphor, int flag, int value) semaphor – семафор, flag – флаг (0 – внутри процесса, 1 – между процессами) value – начальное значение sem_post(sem_t* semaphor) – увеличение семафора sem_wait(sem_t* semaphor) – уменьшение семафора

Посыпкин М.А. (С) Кольцевой буфер frontrear producerconsumer

#include #define N 3 static int buf[N]; static int rear; static int front; static sem_t empty; static sem_t full; void init () { front = 0; rear = 0; sem_init (&empty, 0, N); sem_init (&full, 0, 0); }

void process(int number) { sleep(number); } void * consumer (void *arg) { int i = 0; while (i != -1) { sem_wait (&full); i = buf[rear]; process(i); printf ("consumed: %d\n", i); rear = (rear + 1) % N; sem_post (&empty); }

void * producer (void *arg) { int i; i = 0; while (i != -1) { sem_wait (&empty); printf ("Enter number:"); scanf ("%d", &i); buf[front] = i; front = (front + 1) % N; sem_post (&full); }

main (int argc, char *argv[]) { pthread_t pt; pthread_t ct; init (); pthread_create (&pt, NULL, producer, NULL); pthread_create (&ct, NULL, consumer, NULL); pthread_join (ct, NULL); pthread_join (pt, NULL); }

Посыпкин М.А. (С) Критические секции Критической секцией называется фрагмент кода программы, который может одновременно выполнятся только одним тредом.

Посыпкин М.А. (С) Поддержка критических секций в pthreads «Мютекс» - mutex – mutual exclusion (взаимное исключение); Объявление и инициализация: pthread_mutex_t – тип для взаимного исключения; pthread_mutex_init(pthread_mutex_t* mutex, void* attribute); pthread_mutex_destroy(pthread_mutex_t* mutex); Захват и освобождение мютекса: pthread_mutex_lock(pthread_mutex_t* mutex); pthread_mutex_unlock(pthread_mutex_t* lock); Освобождение мютекса может быть осуществлено только тем тредом, который производил его захват.

Посыпкин М.А. (С) Пример: умножение матриц C C = A * B каждый тред вычисляет свою строку матрицы

Посыпкин М.А. (С) Умножение матриц: код программы #include "stdafx.h" #include pthread_mutex_t mut; static int N, nrow; static double *A, *B, *C;

void setup_matrices () { int i, j; A = (double*)malloc (N * N * sizeof (double)); B = (double*)malloc (N * N * sizeof (double)); C = (double*)malloc (N * N * sizeof (double)); for (i = 0; i < N; i++) for (j = 0; j < N; j++) { A[i * N + j] = 1; B[i * N + j] = 2; } void print_result () { … }

worker (void *arg) { int i; while (1) { int oldrow; pthread_mutex_lock (&mut); if(nrow >= N) { pthread_mutex_unlock (&mut); break; } oldrow = nrow; nrow++; pthread_mutex_unlock (&mut);

for (i = 0; i < N; i++) { int j; double t = 0.0; for (j = 0; j < N; j++) t += A[oldrow * N + j] * B[j * N + i]; C[oldrow * N + i] = t; } return NULL; }

void main (int argc, char *argv[]) { DWORD start, end; int i, nthreads; pthread_t *threads; pthread_mutex_init(&mut, NULL); nthreads = atoi (argv[1]); threads = (pthread_t*) malloc (nthreads * sizeof (pthread_t)); N = atoi (argv[2]); setup_matrices (); start = GetTickCount(); for (i = 0; i < nthreads; i++) pthread_create (threads + i, NULL, worker, NULL); for (i = 0; i < nthreads; i++) pthread_join (threads[i], NULL); end = GetTickCount() - start; if (argc > 3) print_result (); printf("%d ms\n", end); pthread_mutex_destroy(&mut); }

for (i = 0; i < nthreads; i++) pthread_create (threads + i, NULL, worker, NULL); for (i = 0; i < nthreads; i++) pthread_join (threads[i], NULL); if (argc > 3) print_result (); pthread_mutex_destory(&mut); }

Посыпкин М.А. (С) Условные переменные Условные переменные – специальные переменные, которые служат для синхронизации и передачи сигналов между потоками.

Посыпкин М.А. (С) Реализация барьерной синхронизации (мьютексы) void barrier() { pthread_mutex_lock(&bar); num ++; pthread_mutex_unlock(&bar); while(1) { if(num == N) break; } } проблема – неэффективное использование процессорного ресурса

Посыпкин М.А. (С) Реализация барьерной синхронизации (мьютексы) void barrier() { pthread_mutex_lock(&bar); num ++; pthread_mutex_unlock(&bar); while(1) { if(num == N) break; sleep(1); } } проблема – ненужные ожидания Нужен механизм сигналов!!!

Посыпкин М.А. (С) Инициализация условной переменной в pthread int pthread_cond_init(pthread_cond_t* cv, pthread_cond_attr_t* attr); cv – указатель на инициализируемую условную переменную attr – атрибуты (по умолчанию NULL)

Посыпкин М.А. (С) Освобождение условной переменной в pthread int pthread_cond_destroy(pthread_cond_t* cv); cv – указатель на освобождаемую условную переменную

Посыпкин М.А. (С) Ожидание на условной переменной в pthread int pthread_cond_wait(pthread_cond_t* cv pthread_mutex_t* m) Освобождает мьютекс и переходит в режим ожидания (всегда вызывается с заблокированным мьютексом m); cv – указатель на условную переменную; m – указатель на мьютекс, соответствующий критической секции; по завершению – захватывает мьютекс m.

Посыпкин М.А. (С) Семантика ожидания Операция pthread_cond_wait производит динамическое связывание мьютекса и условной переменной. Нельзя одновременно связывать разные мьютексы с одной и той же условной переменной.

Посыпкин М.А. (С) Сигнализация по условной переменной в pthread int pthread_cond_signal(pthread_cond_t* cv); разблокирует как минимум один поток, ожидающий условную переменную; int pthread_cond_broadcast(pthread_cond_t* cv); разблокирует все потоки, ожидающие переменные; cv – указатель на условную переменную; Лучше вызывать из критической секции (того же мьютекса, с которым связана условная переменная).

Посыпкин М.А. (С) Реализация барьерной синхронизации при помощи условных переменных void barrier() { pthread_mutex_lock(&bar); num ++; if(num < N) pthread_cond_wait(&go, &bar); else { num = 0; pthread_cond_broadcast(&go); } pthread_mutex_unlock(&bar); }

Посыпкин М.А. (С) Реализация Метода Гаусса с помощью условных переменных

#include #define N 1000 double A[N][N], B[N], X[N]; void init() { int i, j; for(i = 0; i < N; i ++) { for(j = 0; j < N; j ++) { A[i][j] = 1.; } A[i][i] = 10.; B[i] = N + 9.; } void printres() { int i; for(i = 0; i < N; i ++) { printf("%lf ", X[i]); } printf("\n"); } ПОСЛЕДОВАТЕЛЬНЫЙ ВАРИАНТ main() { init(); gauss(); printres(); }

void gauss() { int i, j, k, si; double maxnorm, e; for(i = 0; i < (N - 1); i ++) { maxnorm = 0.; for(j = i; j < N; j ++) { e = fabs(A[j][i]); if(e > maxnorm){ maxnorm = e; si = j; } if(maxnorm == 0.) { fprintf(stderr, "Singular matrix!\n"); exit(-1); } if(si != i) { e = B[i]; B[i] = B[si]; B[si] = e; for(j = i; j < N; j ++) { e = A[i][j]; A[i][j] = A[si][j]; A[si][j] = e; } for(j = i + 1; j < N; j ++) { e = A[j][i] / A[i][i]; B[j] -= e * B[i]; for(k = i; k < N; k ++) { A[j][k] -= e * A[i][k]; } for(i = N - 1; i >= 0; i --) { X[i] = B[i]; for(j = N - 1; j > i; j --) { X[i] -= X[j] * A[i][j]; } X[i] /= A[i][i]; }

double A[N][N], B[N], X[N]; pthread_mutex_t mut, mute; pthread_cond_t cv, cve; int i, counter, tcnt = 0, numt, dogauss = 0; main() { pthread_t mthread; pthread_t* threads; int j; numt = 4; threads = (pthread_t*)malloc(numt * sizeof(pthread_t)); pthread_mutex_init(&mut, NULL); pthread_mutex_init(&mute, NULL); pthread_cond_init(&cv, NULL); pthread_cond_init(&cve, NULL); init(); ПАРАЛЛЕЛЬНЫЙ ВАРИАНТ: ФУНКЦИЯ main

pthread_create(&mthread, NULL, gaussm, NULL); for(j = 0; j < numt; j ++) { pthread_create(threads + j, NULL, gauss, NULL); } for(j = 0; j < numt; j ++) { pthread_join(threads[j], NULL); } pthread_join(mthread, NULL); pthread_cond_destroy(&cv); pthread_cond_destroy(&cve); pthread_mutex_destroy(&mut); pthread_mutex_destroy(&mute); free(threads); } ПАРАЛЛЕЛЬНЫЙ ВАРИАНТ: ФУНКЦИЯ main

void* gaussm(void* arg) { int j, k, si; double maxnorm, e; for(i = 0; i < (N - 1); i ++) { maxnorm = 0.; for(j = i; j < N; j ++) { e = fabs(A[j][i]); if(e > maxnorm){ maxnorm = e; si = j; } if(maxnorm == 0.) { fprintf(stderr, "Singular matrix!\n"); exit(-1); } if(si != i) { e = B[i]; B[i] = B[si]; B[si] = e; for(j = i; j < N; j ++) { e = A[i][j]; A[i][j] = A[si][j]; A[si][j] = e; } ПАРАЛЛЕЛЬНЫЙ ВАРИАНТ: УПРАВЛЯЮЩИЙ ПОТОК

pthread_mutex_lock(&mut); counter = 0; dogauss = 1; pthread_cond_broadcast(&cv); pthread_mutex_unlock(&mut); pthread_mutex_lock(&mute); while(counter != numt) { pthread_cond_wait(&cve, &mute); } pthread_mutex_unlock(&mute); } for(i = N - 1; i >= 0; i --) { X[i] = B[i]; for(j = N - 1; j > i; j --) { X[i] -= X[j] * A[i][j]; } X[i] /= A[i][i]; } return NULL; } ПАРАЛЛЕЛЬНЫЙ ВАРИАНТ: УПРАВЛЯЮЩИЙ ПОТОК

void* gauss(void* arg) { int myn, j, k, si, cond = 1; double maxnorm, e; pthread_mutex_lock(&mut); myn = tcnt ++; pthread_mutex_unlock(&mut); while(cond) { pthread_mutex_lock(&mut); while(dogauss == 0) pthread_cond_wait(&cv, &mut); pthread_mutex_unlock(&mut); for(j = i myn; j < N; j += numt) { e = A[j][i] / A[i][i]; B[j] -= e * B[i]; for(k = i; k < N; k ++) { A[j][k] -= e * A[i][k]; } pthread_mutex_lock(&mute); counter ++; if(i == (N -2)) cond = 0; if(counter == numt){ dogauss = 0; pthread_cond_broadcast(&cve); } else { pthread_cond_wait(&cve, &mute); } pthread_mutex_unlock(&mute); } return NULL; } ПАРАЛЛЕЛЬНЫЙ ВАРИАНТ: РАБОЧИЙ ПОТОК

Посыпкин М.А. (С) Зачем нужен while ? Конструкция while(GUARD) pthread_cond_wait используется для того, чтобы пропускать блокировку при выполненном GUARD и возобновлять ее при срабатывании сигнала, но не выполненном GUARD Программа ждет выполнения некоторого условия.

Посыпкин М.А. (С) Результаты эксперимента (HP Superdome) numt (после довате льный) Время (сек)