Параллельные и распределенные вычисления на кафедре вычислительной физики Физического факультета СПбГУ С.А.Немнюгин Санкт-Петербургский государственный.

Презентация:



Advertisements
Похожие презентации
ДИНАМИЧЕСКИ ФОРМИРУЕМЫЕ ПАРАЛЛЕЛЬНЫЕ СРЕДЫ В УСЛОВИЯХ ГРИД-ПОЛИГОНОВ, ПРОБЛЕМЫ И РЕШЕНИЯ Варламов Дмитрий Волохов В.М., Пивушков А.В., Сурков Н.Ф., Волохов.
Advertisements

ТЕХНОЛОГИЯ ЗАПУСКА ПАРАЛЛЕЛЬНЫХ ЗАДАЧ В РАЗЛИЧНЫХ РАСПРЕДЕЛЕННЫХ СРЕДАХ Институт проблем химической физики РАН, г. Черноголовка Пивушков Александр Викторович,
РОССИЙСКАЯ АКАДЕМИЯ НАУК ПЕТЕРБУРГСКИЙ ИНСТИТУТ ЯДЕРНОЙ ФИЗИКИ им Б.П.Константинова Вычислительные мощности ПИЯФ для эксперимента АТЛАС Доклад для совещания.
ОБЩИЕ ПРИНЦИПЫ ДЕЯТЕЛЬНОСТИ НИЖЕГОРОДСКОГО ГОСУДАРСТВЕННОГО УНИВЕРСИТЕТА ПО РАЗВИТИЮ РАБОТ В ОБЛАСТИ ПАРАЛЛЕЛЬНЫХ ВЫЧИСЛЕНИЙ Высокопроизводительные вычислительные.
Архитектура LCG Ткачев Игорь ОИЯИ, Дубна, Россия 16 мая 2006 г.
23 декабря 2009г. Сессия ОФВЭ Ю.Ф.Рябов ГРИД в ПИЯФ РАН Предложение в планы по направлению:Стратегические и компьютерные технологии и программное обеспечение.
Запуск коллайдера LHC 13 декабря 2009 года получены первые стокновения пучков при энергии 1.18 ТэВ ТэВ.
Использование программы CompHEP для распределенных вычислений процессов столкновения элементарных частиц на коллайдерах высоких энергий Дипломная работа.
Характеризуя работы в рамках проекта PHENIX следует отметить, что только в 2005 году были опубликованы следующин работы: 1. Nuclear Physics A Volume 757,
Назначение и классификация компьютерных сетей Современное производство требует высоких скоростей обработки информации, удобных форм её хранения и передачи.
В.И. Саврин, Совет информационых систем МГУ, 26 октября 2007 Суперкомпьютинг в физике высоких энергий, ядерной физике и космофизике всегда играл и играет.
Региональный сегмент научного GRID в Санкт-Петербурге Кирьянов А.К. ПИЯФ РАН.
28 декабря 2011 г. Грид в ПИЯФ Грид в ПИЯФ 2011 год А.К. Кирьянов, Ю.Ф. Рябов.
А.Минаенко 17 мая 2005 ИФВЭ, Протвино Модель компьютинга эксперимента АТЛАС.
Методы построения и программное обеспечение вычислительных кластеров Дмитрий Лайком гр. 8ВМ23.
Виды ЭВМ Работу выполнила ученица 10 класса Борейко Мария.
Enabling Grids for E-sciencE GILDA Grid Demonstrator Олешко Сергей Петербургский институт ядерной физики РАН.
INFSO-RI Enabling Grids for E-sciencE ИТЭФ как партнер EGEE Оборудование, программы, каналы связи, перспективы. А.Селиванов, ИТЭФ,
КОМПЬЮТЕРНЫЕ СЕТИ. Компьютерная сеть – физическое соединение двух или более компьютеров.
Исследование эффективности параллельного алгоритма Монте-Карло моделирования внутренних свободномолекулярных течений Хохлов И.А. 4-й курс Московский физико-технический.
Транксрипт:

Параллельные и распределенные вычисления на кафедре вычислительной физики Физического факультета СПбГУ С.А.Немнюгин Санкт-Петербургский государственный университет 2005

О чем пойдет речь Генератор событий PSM Расчеты с использованием GEANT Моделирование процессов в микроканальных пластинах LCG

Параллельная версия генератора событий на основе партонно-струнной модели С.А.Немнюгин, В.М.Солодков, Г.А.Феофилов, А.Асрян

О проекте Работа выполняется в рамках сотрудничества с Европейским центром ядерных исследований (ЦЕРН) и связана с подготовкой к проведению исследований на Большом Адронном Коллайдере (LHC) на детекторе ALICE. Цель исследований – изучение фундаментальных свойств материи при сверхвысоких энергиях

Генератор событий PSM Программный монте-карловский генератор событий (последовательная версия) разработан Н.Амелиным на основе партонно-струнной модели, модификация которой предложена: М.А.Брауном (СПбГУ) и К.Пахаресом (Университет Сантьяго де Компостелла) [N. S. Amelin, H. Stocker, W. Greiner, N. Armesto, M. A. Braun and C. Pajares, Phys. Rev. C52 (1995) 362]

Вычислительные проблемы Для получения физически значимых результатов требуется большая статистика (10 4 – 10 6 событий) Трудоемкость моделирования велика (>13 сек/событие на 600МГц процессоре), если учтены: слияние (перколяция) струн жесткое перерассеяние глюонов резонансные распады перерассеяние вторичных частиц

Вычислительные проблемы

Большой объем файлов с результатами расчетов: 1 Гбайт для событий 20 Гбайт для событий

Решение вычислительных проблем Разработано несколько параллельных версий генератора PSM с использованием библиотеки MPICH 1.2.4: для кластера без файлового сервера для кластера с файловым сервером

Параллельный PSM

Параллельный кластер Расчеты проводились на кластере ALICE (Петродворцовый Телекоммуникационный Центр СПбГУ): 7 двухпроцессорных вычислительных узлов (2х600 МГц, 512 Мбайт ОЗУ, 2х4,5 Гбайт жесткие диски) + 1 сервер (1,2 ГГц, 256 Мбайт ОЗУ, 40 Гбайт жесткие диски Гбайт)

Ускорение A) HARD PART: True/False; B) STRING FUSION; C) RESONANCE DECAY; D) RESCATTERING

Ускорение 1000 событий TTTT m21.353s m13.243s m59.043s m s m67.012s m71.642s m32.502s

Генератор событий PSM BEAM: N,P,PBAR,D,HE,BE,B,C,O,AL,SI,S,AR,CA,CU,AG,XE,W,AU,PB,U TARGET: N,P,PBAR,D,HE,BE,B,C,O,AL,SI,S,AR,CA,CU,AG,XE,W,AU,PB,U Ecm/NUCLEON: 10. < Ecm/NUCLEON (GeV) < IMPACT PARAMETER: FIXB or RANB bmin: added by PAB B: GeV WITHOUT CARE) NUCLEON PDF SET: PDFLIB NUMBERING SCHEME AS NPTYPE*1000+NGROUP*100+NSET (D: 1505, GRV 94 LO), in case of HARD PART=T NUCLEAR SF CORRECTIONS: 0=NO CORRECTION, 1=EKS98 CORRECTIONS (D), 2=ESKOLA-QIU-CZYZEWSKI CORRECTION AS F2, in case of HARD PART=T

Генератор событий PSM PB 17.3 FIXB T

Расчеты с использованием GEANT В.Галицын, Ф.Ф.Валиев, С.А.Немнюгин,

О проекте Данная работа составляет часть исследований процессов формирования импульсов микроскопического тока, формируемых при поглощении гамма- излучения средой Актуальность обусловлена возросшим вниманием к детекторам элементарных частиц, создаваемым на основе излучения вторичных электронов

GEANT GEANT – свободно-распространяемая библиотека, предназначенная для моделирования процессов взаимодействия излучения с веществом

Расчеты Расчеты проводились на кластере кафедры вычислительной физики (20 вычислительных узлов, 1,7 ГГц каждый)

Расчеты процессов формирования электронной лавины в микроканальных пластинах К.Зуев, Ф.Ф.Валиев, С.А.Немнюгин,

МКП

Импульс тока на выходе МКП

LCG NorduGrid М.М.Степанова, С.Лодыгин, С.А.Немнюгин,

На физическом факультете СПбГУ создается учебный центр технологий GRID. Базой учебного центра является ресурсный центр GRID. В настоящее время ресурсный центр имеет следующую конфигурацию: серверы служб CE (Computing Element) и SE (StorageElement) узел с пользовательским интерфейсом (UI, User Interface) два рабочих узла (WN, WorkNode). Узлы объединены через коммутируемый FastEthernet 100Mbps и расположены в выделенном сегменте локальной сети. Комплекс имеет подключение к внешнему каналу. Планируется увеличение числа рабочих узлов за счет двух вычислительных кластеров физического факультета СПбГУ. Каждый кластер содержит 10 узлов на основе Pentium с тактовой частотой 1.7 Ггц.

Установлено программное обеспечение промежуточного уровня (middleware) для GRID- систем LCG-2 v Базовая операционная система Linux RedHat 7.3, тестируется вариант на ScientificLinux3. Интеграция ресурсного центра в GRID EGEE осуществляется подключением к брокеру ресурсов в Институте Ядерной физики (ПИЯФ РАН, Гатчина).