23 декабря 2009г. Сессия ОФВЭ Ю.Ф.Рябов ГРИД в ПИЯФ РАН Предложение в планы по направлению:Стратегические и компьютерные технологии и программное обеспечение.

Презентация:



Advertisements
Похожие презентации
28 декабря 2011 г. Грид в ПИЯФ Грид в ПИЯФ 2011 год А.К. Кирьянов, Ю.Ф. Рябов.
Advertisements

INFSO-RI Enabling Grids for E-sciencE ИТЭФ как партнер EGEE Оборудование, программы, каналы связи, перспективы. А.Селиванов, ИТЭФ,
GRID для LHC и участие ПИЯФ Ю.Ф.Рябов.. 25 декабря 2008 г. Содержание сообщения Проект LCG и модель обработки данных с LHC; Российский сегмент проекта;
РОССИЙСКАЯ АКАДЕМИЯ НАУК ПЕТЕРБУРГСКИЙ ИНСТИТУТ ЯДЕРНОЙ ФИЗИКИ им Б.П.Константинова Вычислительные мощности ПИЯФ для эксперимента АТЛАС Доклад для совещания.
Enabling Grids for E-sciencE Обучение пользователей в РДИГ Олешко С.Б. Петербургский институт ядерной физики РАН, Гатчина.
Российский ЦБГС. Отчет за 2004 год А.Крюков
СИСТЕМА НАУЧНЫХ ТЕЛЕКОММУНИКАЦИЙ И ИНФОРМАЦИОННАЯ ИНФРАСТРУКТУРА РАН (Современное состояние, задачи и перспективы) М.В. Кулагин Отдел информационных технологий.
E-АРЕНА – Национальная ассоциация исследовательских и научно- образовательных электронных инфраструктур.
Запуск коллайдера LHC 13 декабря 2009 года получены первые стокновения пучков при энергии 1.18 ТэВ ТэВ.
1 Министерство связи и массовых коммуникаций Российской Федерации «О создании и развитии инфраструктуры для высокопроизводительных вычислений с использованием.
Enabling Grids for E-sciencE Проект EGEE – новый этап развития GRID технологий в Европе С.Б. Олешко (ПИЯФ РАН)
GRID для БАК и участие ПИЯФ. Рябов Ю.Ф., заведующий Отделом Информационных Технологий и Автоматизации.
Университетский кластер Ответственный от института Носовский А.
ПРЕЗЕНТАЦИЯ выполненных работ по 1 этапу Государственного контракта на выполнение работ (оказание услуг) от «13» октября 2011 г. 06.Р «Создание.
Управление инновационной деятельностью в современных условиях 25 сентября 2014.
Формирование образовательной информационной среды : проблемы взаимодействия региональных и федеральных программ Агапонов Сергей Викторович Декан ф - та.
Проект «Дубна-Грид» Зрелов П.В., Иванов В.В., Черемисина Е.Н , Дубна, ОИЯИ.
В.И. Саврин, Совет информационых систем МГУ, 26 октября 2007 Суперкомпьютинг в физике высоких энергий, ядерной физике и космофизике всегда играл и играет.
Информация для пользователей ЦИВК ОИЯИ – участников экспериментов на LHC Конференция пользователей ЦИВК ОИЯИ 6 февраля 2008 года.
Стратегическая цель: Привлечь частный венчурный капитал в инновационные проекты на всех стадиях их реализации в России с созданием условий для саморазвития.
Транксрипт:

23 декабря 2009г. Сессия ОФВЭ Ю.Ф.Рябов ГРИД в ПИЯФ РАН Предложение в планы по направлению:Стратегические и компьютерные технологии и программное обеспечение.

23 декабря 2009г. Сессия ОФВЭ Ю.Ф.Рябов Стратегические и компьютерные технологии и ПО Международный проекты: Разработка и эксплуатация ГРИД-платформы для создания и использования научно-исследовательских мегаустановок в международных проектах XFEL, FAIR, ITER, CERN. Участники:РНЦ КИ,ИТЭФ,ИФВЭ,ПИЯФ ( ) Проект НИЦ: Создание и эксплуатация предметно-ориентированных Грид-систем НИЦ КИ. Создание Центра компетенции по внедрению и эксплуатации грид-технологий для научных программ. Участники:РНЦ КИ,ИТЭФ,ИФВЭ,ПИЯФ ( )

23 декабря 2009г. Сессия ОФВЭ Ю.Ф.Рябов Работы по Грид тематике в 2009 году - Подготовка помещений для техники(косметика,электрика,кондиционирование); - Установка и запуск в эксплуатацию компьютерного оборудования; - Выполнено подключение кластера к каналу 1Гбит/сек; - Эксплуатация кластера в рамках инфраструктуры WLCG/EGEE; - Участие в работах по разработке и тестированию программного обеспечения Грид для LCG (gLite).

23 декабря 2009г. Сессия ОФВЭ Ю.Ф.Рябов Участники и ресурсы WLCG/EGEE 120 институтов в 35 странах ~ ядер ~ 25PB дисковой памяти >150 ВО из различных областей науки( пользователи из 50 стран ) 250k зад./день

23 декабря 2009г. Сессия ОФВЭ Ю.Ф.Рябов Участники Российского Грида для интенсивных вычислений РДИГ(RDIG) RDIG входит в WLCG/EGEE в качестве региональной Грид структуры Сейчас в РДИГ ( входят 15 институтов (в 2003 году - 8)

23 декабря 2009г. Сессия ОФВЭ Ю.Ф.Рябов Вклад России в работу научной инфраструктуры Грид (WLCG/EGEE )

23 декабря 2009г. Сессия ОФВЭ Ю.Ф.Рябов Ресурсы РДИГ Институт 2008 наличие закупки, 2009 поставки по контракту 2008 закупки из собств.средст в На конец 2009 года DISC/CPU CPU (KSI2K)DISC (Tbyte) CPUDISCCPUDISCCPUDISC РНЦ КИ ,334 ОИЯИ , ИТЭФ , ИФВЭ , ПИЯФ , НИИЯФ , МИФИ , ИЯИ , СпбГУ , ФИАН , ИЯФ ,

23 декабря 2009г. Сессия ОФВЭ Ю.Ф.Рябов Институты НИЦ КИ (ВО LCG за 2009 год)

23 декабря 2009г. Сессия ОФВЭ Ю.Ф.Рябов Выделение ресурсов кластера ПИЯФ РАН по виртуальным организациям ALICE ядер ATLAS ядер CMS ядер LHC-b ядер nw-ru ядер fusion ядер biomed ядер OPS ядер (тестовая)

23 декабря 2009г. Сессия ОФВЭ Ю.Ф.Рябов Процессорное время кластера PNPI по ВО (2009 год)

23 декабря 2009г. Сессия ОФВЭ Ю.Ф.Рябов СПб Боровая 57 Москва РАН ПИЯФ Москва М9- Radio-MSU GEANT Интернет 20Мб/c 1ГБ/c1Гб/c1ГБ/c Схема внешних каналов ПИЯФ РАН

23 декабря 2009г. Сессия ОФВЭ Ю.Ф.Рябов К настоящему времени на нашем кластере хранится ~85Тбайт данных с ЦЕРНа Объемы переданных и хранящихся данных на кластере

23 декабря 2009г. Сессия ОФВЭ Ю.Ф.Рябов Проблемы функционирования ГРИД кластера в 2009 г. -Нестабильность прохождения функцион. тестов. -Не сертифицированы для production в эксперименте CMS -Плохие результаты тестирования по АТЛАСУ(step 09). -Не осуществлен переход рабочих узлов на SL5 и 64 р-да (Эти проблемы радикальным образом не отражаются пока на прохождении задач на нашем кластере) Для решения этих проблем была необходима радикальная реорганизация кластера.

23 декабря 2009г. Сессия ОФВЭ Ю.Ф.Рябов Планы по реорганизации Грид кластера ПИЯФ РАН Выполнить работы по разделению кластера: -организовать отдельный кластер для БАК с включением в его состав только процессоров с 64-разрядной сеткой; - организовать кластер для работы сотрудников ПИЯФ, не участвующих в программе БАК; - организовать учебный и тестовый кластер

23 декабря 2009г. Сессия ОФВЭ Ю.Ф.Рябов Работы по кластеру БАК Включить в его состав все процессоры,полученные по программе БАК(176 ядер,64-разрядных). Установить на нем новый коммутатор,поставка которого ожидается в январе 2010 года. Увеличить связность между СЕ и SE. Перейти на SL5 и 64-х разрядную сетку. Установить новые версии системного ГРИД ПО(gLite). Обеспечить связность с научным интернетом не менее 1Гбита/сек. Обеспечить настройки для установки прикладного ПО экспериментов.

23 декабря 2009г. Сессия ОФВЭ Ю.Ф.Рябов Финансовое обеспечение работ по телекоммуникации и технике Оплата телекоммуникационных услуг: связь с Санкт-Петербургом и выход в интернет для института) осуществлялся ( гг) по проекту: Программа Совета РАН «Высокопроизводительные вычисления, научные телекоммуникации и информационная инфраструктура» ; интеграция ГРИД кластера в сетевую научную инфраструктуру (связь Санкт-Петербург-Москва) Программа РАН > Развитие аппаратных средств для БАК осуществлялось за счет: Целевых средств Минобрнауки РФ (в 2007 году через КИАЭ, в 2008 и 2009 через ОИЯИ)

23 декабря 2009г. Сессия ОФВЭ Ю.Ф.Рябов Смета затрат по внешним каналам ПИЯФ РАН на 2010г ( по ценам 2009 года) Наименование услугиТыс. руб/год 1 Оплата аренды темного волокна на участке Гатчина – Санкт-Петербург ($1180/мес курс 32 руб/USD) Доступ к инфраструктуре на Боровой 57 и public Интернет-канал 20 MBps 300 ! 3 Аренда канала Боровая д.57 – Москва М91200 ! 4 Поддержка блока адресов /24 и AS в РОСНИИРОС 10 ИТОГО: 1970

23 декабря 2009г. Сессия ОФВЭ Ю.Ф.Рябов. СПАСИБО ЗА ВНИМАНИЕ