А.Минаенко 17 мая 2005 ИФВЭ, Протвино Модель компьютинга эксперимента АТЛАС.

Презентация:



Advertisements
Похожие презентации
А.Минаенко Совещание по физике и компьютингу, 18 января 2007 г., МИФИ, Москва Текущее состояние и ближайшие перспективы компьютинга для АТЛАСа в России.
Advertisements

АТЛАС DC2 ˜Основные особенности 10 млн. физических событий несколько миллионов событий для калибровки (частицы, di-jets) полностью проводился на Gridе:
РОССИЙСКАЯ АКАДЕМИЯ НАУК ПЕТЕРБУРГСКИЙ ИНСТИТУТ ЯДЕРНОЙ ФИЗИКИ им Б.П.Константинова Вычислительные мощности ПИЯФ для эксперимента АТЛАС Доклад для совещания.
Архитектура LCG Ткачев Игорь ОИЯИ, Дубна, Россия 16 мая 2006 г.
SQL SERVER И ПРОДУКТЫ 1С 1. 1С + Microsoft = ПАРТНЕРСТВО 2 Сотрудничество 15+ лет Совместный продукт с 1998 года + Гибкость лицензирования Отдельная закупка.
19 September 2000 Reporter: -- From: Состояние проекта «Вычислительные ресурсы для БАК в С.Петербурге»
ТОП кварк на LHC : от наблюдения к точным измерениям В.Щегельский Сессия Ученого Совета ОФВЭ 25 Декабря 2008.
28 декабря 2011 г. Грид в ПИЯФ Грид в ПИЯФ 2011 год А.К. Кирьянов, Ю.Ф. Рябов.
GRID для ФИЗИКИ ВЫСОКИХ ЭНЕРГИЙ Ю.Ф.Рябов Петербургский институт ядерной физики им.Б.П.Константинова РАН (ПИЯФ РАН).
LHC LHC 22 Расчетные параметры LHC Протон-протонный коллайдер Энергия 7 ТэВ + 7ТэВ см -2 сек-1 (LHCb) Светимость.
Организация данных на жестком диске компьютера Макаренков Д.Е.
Распределенная обработка информации Разработано: Е.Г. Лаврушиной.
Обработка и представление результатов измерений. Оценка случайной погрешности измерений Полученные при непосредственном измерении величины неизбежно содержат.
Компьютерная система экспериментов Большого Адронного Коллайдера. ГРИД Юлия Андреева ЦЕРН В презентации использованы слайды коллег из IT отдела ЦЕРНа.
© 2009 Grid Dynamics Scaling Mission Critical Systems Алексей Рагозин Oracle Day, 2009.
Российские сайты будут выполнять определенный объем планового массового Монте-Карло моделирования физических событий и отправлять эти данные в ЦЕРН. На.
Учебный курс Объектно-ориентированный анализ и программирование Лекция 4 Трансформация логической модели в программный код Лекции читает кандидат технических.
РЕАЛИЗАЦИЯ GRID-СЕРВИСОВ В ОКЕАНОГРАФИЧЕСКОЙ ИНФОРМАЦИОННО-АНАЛИТИЧЕСКОЙ СИСТЕМЕ ДВО РАН Антушев С. Г., Голик А. В
GRID для LHC и участие ПИЯФ Ю.Ф.Рябов.. 25 декабря 2008 г. Содержание сообщения Проект LCG и модель обработки данных с LHC; Российский сегмент проекта;
ОБРАЗОВАТЕЛЬНАЯ ПРОГРАММА ГИМНАЗИИ 2005 – 2010 гг. Есть ли необходимость в программе 2009 г.?
Транксрипт:

А.Минаенко 17 мая 2005 ИФВЭ, Протвино Модель компьютинга эксперимента АТЛАС

Основные особенности Модель обработки данных АТЛАСа (и других экспериментов на БАК) характеризуется высокой степенью децентрализации компьютерных ресурсов и совместным их использованием. Такая модель обусловлена как техническими, так и политическими причинами Объединение ресурсов в единую вычислительную среду осуществляется на основе Gridа АТЛАС использует в настоящее время 3 Gridа: LCG, NorduGrid, Grid3, каждый из которых включает как инфраструктуру (сети, вычислительные кластеры), так и соответствующее матобеспечение - middleware Функционально вычислительные кластеры классифицируются в соответствии с иерархической трёхуровневой системой: Tier-0, Tier-1 и Tier-2 (Tier-3)

Условия набора данных –Энергия взаимодействий 14 ТэВ –Светимость0.5*10 33 см -1 сек -1 в 2007 г. – 2.0*10 33 см -1 сек -1 в 2008 и 2009 гг. – см -1 сек -1 в 2010 г. и далее –Частота взаимодействий Гц при проектной светимости –Скорость записи данных событий в секунду независимо от светимости –Число записанных событий в 2007 г. –2*10 9 в 2008 г. и далее

Типы данных и их характеристики RAWСырые данные, как они записаны первоначально SIMДанные моделирования, аналогичные RAW ESDРезультат полной реконструкции сырых данных AODФормат, содержащий характеристики восстановленных физических объектов и используемый для физического анализа TAGКраткие суммарные характеристики событий, используемые для их отбора DPDУпрощённые форматы, создаваемые исследовательскими группами для специфических выборок событий, используемых в анализах данных групп

Основные параметры Параметр Единица измерения Величина на одно событие RAW объём данныхМБ1.6 ESD объём данныхМБ0.5 AOD объём данныхКБ100 TAG объём данныхКБ1 SIM RAW объём данныхМБ2.0 SIM ESD объём данныхМБ0.5 Реконструкция (CPU) kSI2k*sec15 Моделирование (CPU)kSI2k*sec100 Анализ (CPU)kSI2k*sec0.5 1 kSI2k = Pentium IV 2.5 GHz Параметры приведены для данных, полученных при светимостях 2008, 2009 гг. При проектной светимости объём данных (RAW, ESD) возрастает на 50%, а процессорное время на реконструкцию (анализ) – на 75% из-за наложения дополнительных фоновых событий.

Рост объёмов данных в RAW ESD AOD SIM SIM ESD

Основные задачи Tier-0 Хранение одной копии RAW данных на лентах Копирование в режиме реального времени всех сырых данных в Tier-1s Хранение на дисках калибровочных данных Быстрое первоначальное определение параметров калибровок/выравнивания и первоначальная реконструкция событий (создание ESD) Распределение ESD во внешние Tier-1s

Основные задачи Tier-1 АТЛАС планирует использовать 10 Tier-1s Хранение 1/10 RAW данных на лентах Обеспечение повторной реконструкции своей доли данных и доступа к реконструированным ESD, AOD, TAG Хранение 20% последних версий ESD и AOD на дисках и 10% предыдущей версии на лентах Обеспечение организованного доступа групп физического анализа к ESD Осуществление поддержки 3-4 прикреплённых Tier-2s Хранение SIM данных, произведенных в прикреплённых Tier-2s Повторная реконструкция осуществляется примерно 2 раза в год

Основные задачи Tier-2 АТЛАС планирует использовать 30 Tier-2s (по 20 пользователей) Возможно использование распределённого Tier-2 Хранение 1/4 AOD и всех TAG данных на дисках Хранение на дисках небольшой выборки ESD Обеспечение возможности (CPU, дисковое пространство) физического анализа и MC симуляции данных для отдельных пользователей (20/Tier-2) Обеспечение централизованной MC симуляции данных Распределённый анализ физических данных также осуществляется с использованием Grid middleware Возможна обработка калибровочных данных

Tier2 Centre ~200kSI2k Event Builder Event Filter ~7.5MSI2k T0 ~5MSI2k UK Regional Centre (RAL) US Regional Centre French Regional Centre Dutch Regional Centre SheffieldManchest er Liverpool Lancaster ~0.25TIPS Workstations 10 GB/sec 320 MB/sec MB/s links Some data for calibration and monitoring to institutes Calibrations flow back Each Tier 2 has ~20 physicists working on one or more channels Each Tier 2 should have the full AOD, TAG & relevant Physics Group summary data Tier 2 do bulk of simulation Physics data cache ~Pb/sec ~ 75MB/s/T1 for ATLAS Tier2 Centre ~200kSI2k 622Mb/s links Tier 0 Tier 1 Deskto p PC (2004) = ~1 kSpecInt2k Northern Tier ~200kSI2k Tier 2 ~200 Tb/year/T2 ~2MSI2k/T1 ~2 Pb/year/T1 ~5 Pb/year No simulation 622Mb/s links The System 10 Tier-1s reprocess house simulation Group Analysis