ДИНАМИЧЕСКИ ФОРМИРУЕМЫЕ ПАРАЛЛЕЛЬНЫЕ СРЕДЫ В УСЛОВИЯХ ГРИД-ПОЛИГОНОВ, ПРОБЛЕМЫ И РЕШЕНИЯ Варламов Дмитрий Волохов В.М., Пивушков А.В., Сурков Н.Ф., Волохов.

Презентация:



Advertisements
Похожие презентации
ТЕХНОЛОГИЯ ЗАПУСКА ПАРАЛЛЕЛЬНЫХ ЗАДАЧ В РАЗЛИЧНЫХ РАСПРЕДЕЛЕННЫХ СРЕДАХ Институт проблем химической физики РАН, г. Черноголовка Пивушков Александр Викторович,
Advertisements

ГРИД-СЕРВИСЫ В ВЫЧИСЛИТЕЛЬНОЙ ХИМИИ: ДОСТИЖЕНИЯ И ПЕРСПЕКТИВЫ Институт проблем химической физики РАН г. Черноголовка Д.ф.-м.н. Волохов В.М. Варламов Д.А.,
ВЫЧИСЛИТЕЛЬНАЯ ХИМИЯ В ГРИД СРЕДАХ Институт проблем химической физики РАН г. Черноголовка Д.ф.-м.н. Волохов Вадим Маркович, зав. отделом вычислительных.
Высокопроизводительные вычисления в исследованиях наноструктур. Институт проблем химической физики РАН г. Черноголовка Д.ф.-м.н. Волохов В.М., зав. отделом.
Autodesk ФОРУМ ТЕХНОЛОГИИ ПРОЕКТИРОВАНИЯ Москва, 22 и 23 сентября 2010 Повышение производительности расчетных задач в Autodesk Algor при использовании.
Технопарк в сфере высоких технологий «ИТ-парк» 28 мая 2014, г.Казань.
ALT Linux Дистрибутив для вычислительных кластеров Станислав Иевлев
Владимир Костюков, АлтГТУ АлтГТУ им И. И. Ползунова Распределенная система мониторинга и диспетчерезации процессов гетерогенной среды.
Enabling Grids for E-sciencE GILDA Grid Demonstrator Олешко Сергей Петербургский институт ядерной физики РАН.
1. Теоретические основы операционных систем (планирование заданий и использования процессора, обеспечение программ средствами коммуникации и синхронизации,
Разработка учебно-лабораторного стенда для проведения тестов на проникновение в типовую корпоративную локально- вычислительную сеть предприятия Научный.
Кафедра информатики МФТИ, Техническая организация поддержки практических занятий на компьютерах в МФТИ. Внедрение виртуализации. Андрей Зырянов начальник.
Разработка методологии переноса вычислительно сложных SPMD задач на GPE Grid Власов Всеволод, 544 группа Научный руководитель: Краснощеков В.Е. Рецензент:
Институт Проблем Химической Физики РАН Волохов В.М. Волохов В.М., д.ф.-м.н., зав. отделом вычислительных и информационных ресурсов Дубна, декабрь 2010,
Многоуровневое мандатное управление доступом в многооконной графической среде ОС класса Linux Авторы: к.т.н., доцент Д. В. Ефанов * аспирант кафедры 36.
Нагрузочное тестирование информационных систем с использованием облачных вычислений Исполнитель: Макрушин Д.Н. Руководитель: д.т.н., проф. Запечников С.В.
ГРУППОВАЯ ПОЛИТИКА Лекция # 4. Совокупность параметров, используемых для формирования рабочего окружения пользователя, его прав и настройки функциональности.
Сервис On-Line доступ ПП Парус 8 Применение для разработки WEB- интерфейса.
Операционная система MS-DOS Не управляя оборудованием, программа остается всего лишь литературным произведением, написанным на особом формальном языке.
Виртуализация в SQA Плюсы и минусы. Виртуализация?
Транксрипт:

ДИНАМИЧЕСКИ ФОРМИРУЕМЫЕ ПАРАЛЛЕЛЬНЫЕ СРЕДЫ В УСЛОВИЯХ ГРИД-ПОЛИГОНОВ, ПРОБЛЕМЫ И РЕШЕНИЯ Варламов Дмитрий Волохов В.М., Пивушков А.В., Сурков Н.Ф., Волохов А.В. Институт проблем химической физики РАН, г. Черноголовка Отдел вычислительных и информационных ресурсов ИПХФ РАН Сектор вычислительной химии ПаВТ'2011, март 2011, Московский Государственный университет им.М.В.Ломоносова

разнородность распределенных вычислительных ресурсов сужение круга доступных ресурсов; необходимость предварительной установки прикладных пакетов (ПП) на ресурсный сайт, часто включая настройку всех расчетных узлов требование наличия специфичных параллельных сред и дополнительных библиотек при запуске ПП на произвольном грид-ресурсе могут отсутствовать; ПаВТ'2011, март 2011, Московский Государственный университет им.М.В.Ломоносова Некоторые проблемы запуска прикладных пакетов в распределенных средах

необходимость создания сложной информационной среды из конфигурационных настроек, дополнительных служб, хранилищ данных и прочих компонентов; невозможность /трудоемкость перенастройки работающих ресурсов для нужд распределенных вычислений и под конкретные прикладные пакеты; особенности лицензирования; конфликты приложений Итог – запуск прикладного пакета в Грид-среду, как правило, не будет успешным ПаВТ'2011, март 2011, Московский Государственный университет им.М.В.Ломоносова Некоторые проблемы запуска прикладных пакетов в распределенных средах (часть 2)

Конечный Грид пользователь Брокеры ресурсов Грид полигонов Разнородные Linux (и Windows) ластеры Суперкомпьютеры Разнообразие ресурсов и вычислительных сред ПаВТ'2011, март 2011, Московский Государственный университет им.М.В.Ломоносова ???? ???? ????

Программа фундаментальных исследований Президиума РАН 13 ( ) «Проблемы создания национальной научной распределенной информационно-вычислительной среды на основе развития грид-технологий и современных телекоммуникационных сетей» Тема: «Исследования по применимости различных методов виртуализации в условиях распределенных сред»: адаптация прикладных квантово-химических пакетов к работе в условиях разных распределенных сред, в том числе с использованием динамически формируемых переносимых параллельных сред – «виртуализация» приложений; создание и применение виртуальных машин в качестве ресурсных узлов распределенных сред для расширения их функциональности – «виртуализация» ресурсов ПаВТ'2011, март 2011, Московский Государственный университет им.М.В.Ломоносова

ТЕСТИРУЕМЫЕ ВЫЧИСЛИТЕЛЬНЫЕ ПОЛИГОНЫ ПаВТ'2011, март 2011, Московский Государственный университет им.М.В.Ломоносова Национальная нанотехнологическая сеть (ННС) EGI/RU-NGI Грид-центр ИПХФ РАН объединяет ресурсные сайты и UI нескольких грид- полигонов: Грид middleware – gLite Грид middleware – modified Globus GT4 Грид middleware – Unicore

ПаВТ'2011, март 2011, Московский Государственный университет им.М.В.Ломоносова Был проведен анализ процедуры исполнения типичного параллельного задания на ресурсном грид-узле (для сред gLite, Unicore, Globus GT4) была выбрана параллельнаясреда Mpich-2 и сформирован перемещаемый программный пакет MPI-2 была разработана технология создания динамически формируемых образов исполняемых сред, или виртуальных «контейнеров», создан прототип подобных образов Создан «контейнер» для квантово-химического пакета GAMESS-US

Окончательные результаты Формирование и запуск виртуального вычислительного «контейнера» User Interface (в том числе в составе WWW портала) Пакет GAMESS Конфигурационные файлы Параллельные библиотеки Данные ГРИД среды Произвольный Linux кластер MPICH-2 «кольцо» GECP портал Виртуальный вычислительный «контейнер» Скрипты настройки и запуска Бинарные файлы GAMESS, скомпилированные с поддержкой MPI-2 Конфигурационные файлы GAMESS Исполняемые файлы и бинарные библиотеки пакета Mpich-2 Скрипты распаковки контейнера, развертывания MPI и GAMESS, настроек удаленного узла Пользовательские данные 114 групп, более 500 параметров Упаковка «контейнера», подготовка задачи распределенной среды Передача задачи на брокер ресурсов распределенной среды Передача задачи на ресурсный сайт распределенной среды Запуск задачи распределенной среды на ресурсном сайте 1.сбор начальной информации о текущем ресурсном узле 2.распаковка модуля в рабочей директории и перемещение библиотек в /tmp на текущем локальном узле (ТЛУ); 3.подготовка файла mpd.conf на ТЛУ для запуска MPI сервера mpd; 4.переопределение на ТЛУ ряда переменных среды окружения для GRID пользователя; 5.запуск сервера mpd (с правами пользователя) на стартовом узле и проведение его runtime тестирования; 6.сбор информации о доступных узлах и их текущем состоянии в файл mpd.hosts Распределение по ssh необходимых библиотек по списку свободных узлов запуск «кольца» серверов mpd и проведение runtime тестирования запуск параллельного GAMESS и работа как распределенного задания удаление всех библиотек и созданных временных файлов со всех узлов Передача результатов расчета на пользовательский интерфейс ПаВТ'2011, март 2011, Московский Государственный университет им.М.В.Ломоносова

ПРОБЛЕМЫ И НЕДОСТАТКИ МЕТОДА Ограничения : аппаратные архитектуры x86 и em64t; грид-ресурсы на базе Linux; коммуникации между расчетными узлами используется интерфейс TCP/IP и беспарольный доступ по ssh (включая копирование файлов), поддержка NFS ресурсов; Особенности реализации MPI для различных прикладных пакетов (включая доступ к исходным текстам) Политики безопасности разных кластеров Реализация доступа к общим дисковым ресурсам Возможность передачи файлов между расчетными узлами Особенности запусков низкоуровневых сценариев Некоторые настройки PBS кластеров и др.

Метод формирования «виртуального» приложения, которое в виде единого «контейнера» доставляется на ресурсный узел вместе со всеми конфигурационными настройками, относящимися к ОС и ПП, включая поддержку необходимых параллельных протоколов, и не требуя процедуры предварительной установки и настройки – решены проблемы установки и настройки ПП. Частично преодолена разнородность доступных распределенных вычислительных ресурсов; Отсутствует необходимость создания дополнительной системы из конфигурационных настроек, служб, хранилищ данных и прочих компонентов информационно- вычислительной инфраструктуры для конкретного ПП (например, поддержка различных параллельных протоколов); Устранена возможность конфликтов приложений (как между программами, так и экземплярами одного приложения) Результаты и перспективы ПаВТ'2011, март 2011, Московский Государственный университет им.М.В.Ломоносова

Создание «контейнеров» для прикладных пакетов с доступным кодом – возможно, для других параллельных сред; Реализация метода в виде запуска виртуальных машин (недостатки – объем трафика и накладные расходы на виртуализацию) Результаты и перспективы ПаВТ'2011, март 2011, Московский Государственный университет им.М.В.Ломоносова