GRID для LHC и участие ПИЯФ Ю.Ф.Рябов.. 25 декабря 2008 г. Содержание сообщения Проект LCG и модель обработки данных с LHC; Российский сегмент проекта;

Презентация:



Advertisements
Похожие презентации
GRID для БАК и участие ПИЯФ. Рябов Ю.Ф., заведующий Отделом Информационных Технологий и Автоматизации.
Advertisements

23 декабря 2009г. Сессия ОФВЭ Ю.Ф.Рябов ГРИД в ПИЯФ РАН Предложение в планы по направлению:Стратегические и компьютерные технологии и программное обеспечение.
GRID для ФИЗИКИ ВЫСОКИХ ЭНЕРГИЙ Ю.Ф.Рябов Петербургский институт ядерной физики им.Б.П.Константинова РАН (ПИЯФ РАН).
28 декабря 2011 г. Грид в ПИЯФ Грид в ПИЯФ 2011 год А.К. Кирьянов, Ю.Ф. Рябов.
INFSO-RI Enabling Grids for E-sciencE ИТЭФ как партнер EGEE Оборудование, программы, каналы связи, перспективы. А.Селиванов, ИТЭФ,
РОССИЙСКАЯ АКАДЕМИЯ НАУК ПЕТЕРБУРГСКИЙ ИНСТИТУТ ЯДЕРНОЙ ФИЗИКИ им Б.П.Константинова Вычислительные мощности ПИЯФ для эксперимента АТЛАС Доклад для совещания.
Распределенные вычисления, облака и Грид Сергей Белов, ЛИТ ОИЯИ
Enabling Grids for E-sciencE Обучение пользователей в РДИГ Олешко С.Б. Петербургский институт ядерной физики РАН, Гатчина.
А.Минаенко 17 мая 2005 ИФВЭ, Протвино Модель компьютинга эксперимента АТЛАС.
Enabling Grids for E-sciencE Проект EGEE – новый этап развития GRID технологий в Европе С.Б. Олешко (ПИЯФ РАН)
1 Министерство связи и массовых коммуникаций Российской Федерации «О создании и развитии инфраструктуры для высокопроизводительных вычислений с использованием.
Региональный сегмент научного GRID в Санкт-Петербурге Кирьянов А.К. ПИЯФ РАН.
В.И. Саврин, Совет информационых систем МГУ, 26 октября 2007 Суперкомпьютинг в физике высоких энергий, ядерной физике и космофизике всегда играл и играет.
NA3 Induction Courses in the St. Petersburg,24 Октября 2006 г. Введение в EGEE проект Ю.Ф.Рябов.
Enabling Grids for E-sciencE Отчетный доклад SA1/ROC RDIG за первый период. Ю. А. Лазин ИФВЭ.
Перспективные информационно-сетевые технологии в космических исследованиях Институт космических исследований РАН, Телекоммуникационные сети и системы Москва,
"EGEE/WLCG Infrastructure: the Experience of Usage by ATLAS " N. GROMOVA, DUBNA
Архитектура LCG Ткачев Игорь ОИЯИ, Дубна, Россия 16 мая 2006 г.
EGEE is a project funded by the European Union under contract IST Introduction to the content and aims of EGEE course Yu.Ryabov (PNPI, Gatchina,
"EGEE/WLCG Infrastructure: the Experience of Usage by ATLAS " N. GROMOVA, DUBNA
Транксрипт:

GRID для LHC и участие ПИЯФ Ю.Ф.Рябов.

25 декабря 2008 г. Содержание сообщения Проект LCG и модель обработки данных с LHC; Российский сегмент проекта; Кластер ПИЯФ и коннективность с внешним миром; О использовании Грид-структур для LHC;

25 декабря 2008 г. LHC Computing Grid Project (LCG) Основной задачей проекта LCG является создание глобальной инфраструктуры региональных центров для обработки, хранения и анализа данных физических экспериментов LHC. Новейшие технологии GRID являются основой построения этой инфраструктуры. Проект LCG осуществляется в две фазы. 1 фаза ( гг.) - создание прототипа и разработка проекта системы (LCG TDR). 2 фаза ( гг.) - создание инфраструктуры LCG, готовой к обработке, хранению и анализу данных на момент начала работы ускорителя.

25 декабря 2008 г. Online system Tier 0 Tier 1 Tier 2 Tier 3 Offline farm Церн вычисл.центр. Tier2 Center InstituteB InstituteA... workstation Regional Center Regional Center Regional Center recorded data Модель обработки данных

25 декабря 2008 г. RAL IN2P3 BNL FZK CNAF PIC ICEPP FNAL LHC Computing Model (simplified!!) Tier-0 – the accelerator centre Filter raw data Reconstruction summary data (ESD) Record raw data and ESD Distribute raw and ESD to Tier-1 Tier-1 – Permanent storage and management of raw, ESD, calibration data and databases grid-enabled data service Data-heavy analysis Re-processing raw ESD managed mass storage Tier-2 – Well-managed disk storage grid-enabled Simulation, End-user analysis – batch and interactive (High performance parallel analysis ) USC NIKHEF Krakow CIEMAT Rome Taipei TRIUMF CSCS Legnaro UB IFCA IC MSU Prague Budapest Cambridge Tier-1 small centres Tier-2 desktops portables

25 декабря 2008 г. Архитектура ГРИД БАК

25 декабря 2008 г. Всемирный компьютинг для БАК The EGEE and OSG projects are the basis of the Worldwide LHC Computing Grid Project( WLCG) Inter-operation between Grids is working!

25 декабря 2008 г. Топология сети для обработки данных с БАК

Распределение процессорного времени между ВО в EGEE за 2008 г.

25 декабря 2008 г. Участие России в проекте EGEE/LCG В целях обеспечения полномасштабного участия России в этом проекте был образован консорциум РДИГ (Российский ГРИД для интенсивных операций с данными – Russian Data Intensive GRID, RDIG) для эффективного выполнения работ по проекту и развитию в России инфраструктуры EGEE, с вовлечением на следующих этапах проекта других организаций из различных областей науки, образования и промышленности. Консорциум РДИГ, согласно принятой в проекте EGEE структуре, входит в проект в качестве региональной федерации Россия (Russia). Главной задачей РДИГ является участие в обработке данных с Большого Андронного Коллайдера(БАК)

25 декабря 2008 г. Участники РДИГ RDIG Resource Centres: ITEP JINR-LCG2 Kharkov-KIPT RRC-KI RU-Moscow-KIAM RU-Phys-SPbSU RU-Protvino-IHEP RU-SPbSU Ru-Troitsk-INR ru-IMPB-LCG2 ru-Moscow-FIAN ru-Moscow-GCRAS ru-Moscow-MEPHI ru-PNPI-LCG2 ru-Moscow-SINP

25 декабря 2008 г. Российский региональный центр LCG Tier1/Tier2 cloud CERN … 1Gbps FZK Внутри региона: Бэкбон – 1Gbps До лабораторий – 100–1000 Mbps GRID PNPI ITEP IHEP RRC KI SPbSU JINR SINP MSU RDIG Tier2 cluster Collaborative centers

25 декабря 2008 г. Распределение процессорного времени между ВО в Российском сегменте за 2008 г.

25 декабря 2008 г. Распределение процессорного времени между Российскими участниками за 2008 г. ПИЯФ: 14,3% (2-е место)

25 декабря 2008 г. Задачи кластера ПИЯФ Участие в инфраструктуре RDIG в качестве элемента российского центра Tier 2 для обработки данных БАК; Обеспечение работы задач и хранения данных четырёх экспериментов БАК через ВО atlas, alice, cms и lhcb; Поддержка локальных пользователей ПИЯФ через региональную ВО nw_ru.

25 декабря 2008 г. Структура кластера ПИЯФ RunNet Управляющий узел СХД Управляющий узел кластера Сервисные Узлы Grid СХД Счётные узлы Площадка ПИЯФ 8 Gbps 2 Gbps 1 Gbps Grid

25 декабря 2008 г. Аппаратное обеспечение Счётные узлы с многоядерными процессорами Intel P4; 1 или 2 Gb памяти на ядро; Локальные жёсткие диски на 200 Gb; Сеть на технологии Gigabit Ethernet; СХД (RAID 6) через 4 Gbps FO SCSI; На начало 2009 года кластер будет состоять из 284-х ядер и 120 Tbyte памяти

25 декабря 2008 г. Программное обеспечение ОС Scientific Linux 4 (аналог RHEL 4); Система управления пакетными заданиями Torque; Grid ПО gLite 3.1 SRM-интерфейс к СХД В текущий момент установлена 32-битная версия ОС, хотя многие узлы поддерживают 64-битный режим.

25 декабря 2008 г. Распределение процессорного времени между ВО в ПИЯФ за 2008 г. Региональная ВО nw_ru: 16,5%

25 декабря 2008 г. Распределение процессорного времени между ВО в ПИЯФ за 2008 г. Региональная ВО nw_ru: 16,5%

25 декабря 2008 г. Количество обработанных заданий по месяцам в ПИЯФ за 2008 г.

25 декабря 2008 г. Распределение процессорного времени в ПИЯФ за 2008 г.

25 декабря 2008 г. Коннективность ПИЯФ с внешним миром Catalyst WS-C3750G Схема внешних каналов ПИЯФ Cisco 2651XM 1000 Mbps Cisco Catalyst 2970G Интернет ОАО СЗТ ЛВС ПИЯФ Опорная сеть СПбНЦ Интернет RUNNET 1000 MBps MBps 1000 Mbps Вычислительный кластер 100 Mbps Catalyst WS-C2950G (СПб) ИК 100 Mbps

Статистика трафика ПИЯФ РАН за 2008 г

25 декабря 2008 г. Ресурсы России для БАК Институт 2008 наличие закупки, min поставки по контракту БАК 2008 закупки из собств.средст в Начало 2009 DISC/CPU CPU (KSI2K)DISC (Tbyte) CPUDISCCPUDISCCPUDISC РНЦ КИ ,334 ОИЯИ , ИТЭФ , ИФВЭ , ПИЯФ , НИИЯФ , МИФИ , ИЯИ , СпбГУ , ФИАН , ИЯФ (пока вне WLCG) ,

25 декабря 2008 г. Финансовое обеспечение работ по ГРИД в ПИЯФ Оплата телекоммуникационных услуг осуществляется по проекту Программа Совета РАН «Высокопроизводительные вычисления, научные телекоммуникации и информационная инфраструктура» Развитие аппаратных средств для БАК осуществлялось за счет: Целевых средств Минобрнауки РФ (в 2007 году через КИАЭ, в 2008 через ОИЯИ)

25 декабря 2008 г. Текущие и базовые задачи -Запуск полученной техники в эксплуатацию на новых площадях; -Поднятие канала связи по Санкт-Петербург- внешний мир до 1Gbps; -Распределение ресурсов кластера между экспериментами (с участием руководителей экспериментов в ПИЯФ и координаторов прикладного ПО экспериментов БАК в России); -Координация работ с Российскими участниками экспериментов по выбору каналов обработки данных и совместному использованию Российских Грид-ресурсов ( руководители экспериментов БАК в ПИЯФ).

25 декабря 2008 г. В России выдан 201 пользовательский сертификат В ПИЯФ сертификаты РДИГ имеют 14 человек. (ЛИВС- 6, ОФВЭ-5, ОНИ и ОМРБ-3) имеется несколько(?) сартификатов,полученных сотрудниками ПИЯФ в ЦЕРНе

25 декабря 2008 г. ОБУЧЕНИЕ технологии ГРИД в ПИЯФ Вводные лекции о технологии Практические занятия : Запуск задач в ГРИД; Управление данными в ГРИД; Информационное обеспечение ГРИД Учебные пособия Введение в ГРИД ( Как стать пользователем ГРИД( Для обучения в ЛИВС имеется сетевой компьютерный класс (6 рабочих мест) Для контактов по ДОБРО ПОЖАЛОВАТЬ!

25 декабря 2008 г. Уважаемые коллеги! В пятницу 26 декабря в 10.00, корпус ИК, к.324 (3-й этаж, конференц -зал) проводятся занятия «Pабота в LHC Computing Grid c gLite 3.1» ЗАНЯТИЕ