ТЕХНОЛОГИЯ ЗАПУСКА ПАРАЛЛЕЛЬНЫХ ЗАДАЧ В РАЗЛИЧНЫХ РАСПРЕДЕЛЕННЫХ СРЕДАХ Институт проблем химической физики РАН, г. Черноголовка Пивушков Александр Викторович,

Презентация:



Advertisements
Похожие презентации
ДИНАМИЧЕСКИ ФОРМИРУЕМЫЕ ПАРАЛЛЕЛЬНЫЕ СРЕДЫ В УСЛОВИЯХ ГРИД-ПОЛИГОНОВ, ПРОБЛЕМЫ И РЕШЕНИЯ Варламов Дмитрий Волохов В.М., Пивушков А.В., Сурков Н.Ф., Волохов.
Advertisements

Высокопроизводительные вычисления в исследованиях наноструктур. Институт проблем химической физики РАН г. Черноголовка Д.ф.-м.н. Волохов В.М., зав. отделом.
ВЫЧИСЛИТЕЛЬНАЯ ХИМИЯ В ГРИД СРЕДАХ Институт проблем химической физики РАН г. Черноголовка Д.ф.-м.н. Волохов Вадим Маркович, зав. отделом вычислительных.
ГРИД-СЕРВИСЫ В ВЫЧИСЛИТЕЛЬНОЙ ХИМИИ: ДОСТИЖЕНИЯ И ПЕРСПЕКТИВЫ Институт проблем химической физики РАН г. Черноголовка Д.ф.-м.н. Волохов В.М. Варламов Д.А.,
Autodesk ФОРУМ ТЕХНОЛОГИИ ПРОЕКТИРОВАНИЯ Москва, 22 и 23 сентября 2010 Повышение производительности расчетных задач в Autodesk Algor при использовании.
Enabling Grids for E-sciencE GILDA Grid Demonstrator Олешко Сергей Петербургский институт ядерной физики РАН.
ALT Linux Дистрибутив для вычислительных кластеров Станислав Иевлев
Институт Проблем Химической Физики РАН Волохов В.М. Волохов В.М., д.ф.-м.н., зав. отделом вычислительных и информационных ресурсов Дубна, декабрь 2010,
Разработка методологии переноса вычислительно сложных SPMD задач на GPE Grid Власов Всеволод, 544 группа Научный руководитель: Краснощеков В.Е. Рецензент:
Методы построения и программное обеспечение вычислительных кластеров Дмитрий Лайком гр. 8ВМ23.
EGEE is a project funded by the European Union under contract IST An introduction to Grid computing using the GENIUS portal and the GILDA testbed.
GridCom, Grid Commander – графическая оболочка для работы с задачами и данными в Гриде Галактионов В.В. ОИЯИ, Дубна.
ГРУППОВАЯ ПОЛИТИКА Лекция # 4. Совокупность параметров, используемых для формирования рабочего окружения пользователя, его прав и настройки функциональности.
Опыт использования Globus Toolkit при организации распределенных вычислений на ресурсах междисциплинарного сегмента RGrid А.В. Жучков, Н.В. Твердохлебов,
Миграция с Windows XP на Windows 8 при помощи ConfigMgr 2012 SP1 Евгений Ляшов
System Center 2012 SP1 Configuration Manager Установка пакетов Ляшов Евгений
GLite - EGEE middleware 22/12/2004, PNPI, Gatchina А. Кирьянов ОИТА ПИЯФ.
Многоуровневое мандатное управление доступом в многооконной графической среде ОС класса Linux Авторы: к.т.н., доцент Д. В. Ефанов * аспирант кафедры 36.
Технические спецификации и программные комплексы E2EDM Белов С.В., Сухоносов С.В., Булгакова К.В ЦОД ВНИИГМИ-МЦД,2006.
Инструкция по развертыванию и настройке системы дистанционного обучения Moodle.
Транксрипт:

ТЕХНОЛОГИЯ ЗАПУСКА ПАРАЛЛЕЛЬНЫХ ЗАДАЧ В РАЗЛИЧНЫХ РАСПРЕДЕЛЕННЫХ СРЕДАХ Институт проблем химической физики РАН, г. Черноголовка Пивушков Александр Викторович, к.ф.-м.н., с.н.с. Волохов В.М., Варламов Д.А., Волохов А.В., Сурков Н.Ф. Отдел вычислительных и информационных ресурсов ИПХФ РАН Сектор вычислительной химии

RDIG – Национальная нанотехнологическая сеть (ГридННС) ИСПОЛЬЗУЕМЫЕ ВЫЧИСЛИТЕЛЬНЫЕ ПОЛИГОНЫ

Ряд проблем распределенных вычислений гетерогенность доступных распределенных вычислительных ресурсов; необходимость предустановки прикладных сложносконфигурированных пакетов; необходимость создания системы из конфигурационных настроек, служб, хранилищ данных и прочих компонентов; конфликты приложений

Конечный GRID пользователь Брокер Ресурсов GRID среды Разнородные Linux и Windows Кластеры Суперкомпьютеры Разнообразие ресурсов и вычислительных сред

Создание виртуального контейнера приложения MPICH2 is a high-performance and widely portable implementation of the Message Passing Interface (MPI) standard MPICH2

Виртуальный контейнер приложения Пакет GAMESS The General Atomic and Molecular Electronic Structure System (GAMESS) is a general ab initio quantum chemistry package MPICH2

Виртуальный контейнер приложения Пакет GAMESS Заранее подготовленный пользователем файл данных для пакета GAMESS MPICH2 Файл данных

Виртуальный контейнер приложения Пакет GAMESS Скрипт запуска виртуального контейнера или бинарный вариант MPICH2 Файл данных 10 МБ Скрипт запуска

Окончательные результаты Формирование и запуск вычислительного «контейнера» Клиентский узел (в том числе WWW портал) Пакет GAMESS Конфигурационные файлы Параллельные библиотеки Данные ГРИД среды (gLite, Unicore, Globus) Произвольный Linux кластер MPICH-2 «кольцо» GECP портал Виртуальный вычислительный «контейнер»

Окончательные результаты Формирование и запуск виртуального вычислительного «контейнера» User Interface (в том числе в составе WWW портала) Пакет GAMESS Конфигурационные файлы Параллельные библиотеки Данные ГРИД среды Произвольный Linux кластер MPICH-2 «кольцо» GECP портал Виртуальный вычислительный «контейнер» Скрипты настройки и запуска Бинарные файлы GAMESS, скомпилированные с поддержкой MPI-2 Конфигурационные файлы GAMESS Исполняемые файлы и бинарные библиотеки пакета Mpich-2 Скрипты распаковки контейнера, развертывания MPI и GAMESS, настроек удаленного узла Пользовательские данные 114 групп, более 500 параметров Упаковка «контейнера», подготовка задачи распределенной среды Передача задачи на брокер ресурсов распределенной среды Передача задачи на ресурсный сайт распределенной среды Запуск задачи распределенной среды на ресурсном сайте 1.сбор начальной информации о текущем ресурсном узле 2.распаковка модуля в рабочей директории и перемещение библиотек в /tmp на текущем локальном узле (ТЛУ); 3.подготовка файла mpd.conf на ТЛУ для запуска MPI сервера mpd; 4.переопределение на ТЛУ ряда переменных среды окружения для GRID пользователя; 5.запуск сервера mpd (с правами пользователя) на стартовом узле и проведение его runtime тестирования; 6.сбор информации о доступных узлах и их текущем состоянии в файл mpd.hosts Распределение по ssh необходимых библиотек по списку свободных узлов запуск «кольца» серверов mpd и проведение runtime тестирования запуск параллельного GAMESS и работа как распределенного задания удаление всех библиотек и созданных временных файлов со всех узлов Передача результатов расчета на пользовательский интерфейс

Частично преодолена гетерогенность доступных распределенных вычислительных ресурсов; Отсутствует необходимость создания целой системы из конфигурационных настроек, дополнительных служб, хранилищ данных и прочих компонентов информационно-вычислительной инфраструктуры (например, поддержка различных параллельных протоколов); Устранена возможность конфликтов приложений (как между разными программами, так и несколькими экземплярами одного приложения); Результаты