Сибирский Суперкомпьютерный Центр ИВМ и МГ СО РАН АРХИТЕКТУРА ТЕХНИЧЕСКИХ СРЕДСТВ HPС Глинский Б.М. Кучин Н.В. 1.

Презентация:



Advertisements
Похожие презентации
Системы с общей оперативной памятью UMA, SMP, NUMA.
Advertisements

Методы построения и программное обеспечение вычислительных кластеров Дмитрий Лайком гр. 8ВМ23.
Параллельные вычисления Лекция 6. y = 3x + 7x – 8x при x = 4 y1 = 3x(1 действие) y2 = 7x(2 действие) y3 = 8x(3 действие) y = y1 + y2 – y3(4 действие)
Компьютерные кластеры. Автор: Капля Алексей Владимирович alex
СОЗДАНИЕ ВИРТУАЛЬНОЙ ИНФРАСТРУКТУРЫ В ЦЕНТРАЛЬНОМ АППАРАТЕ ФЕДЕРАЛЬНОГО КАЗНАЧЕЙСТВА И МИГРАЦИЯ СУЩЕСТВУЮЩИХ ФИЗИЧЕСКИХ СЕРВЕРОВ В ВИРТУАЛЬНУЮ ИНФРАСТРУКТУРУ.
Выполнила студентка II курса ГБОУ СПО Баймакский сельскохозяйственный техникум Вахитова Гульназ.
1. Теоретические основы операционных систем (планирование заданий и использования процессора, обеспечение программ средствами коммуникации и синхронизации,
Компания «Т-Платформы» Является ведущим российским разработчиком кластерных решений Поставляет высокопроизводительные решения для любых отраслей народного.
Все процессоры выполняют одну и ту же программу ВС класса SIMD.
Обзор операционных систем ВОУНБ им. М. Горького «Операционная система - это совокупность программ, обеспечивающих управление процессом обработки информации.
Коммуникационные технологии. Передача информации. Локальные компьютерные сети.
Проектная работа на тему: «Компьютерные сети» Работу выполнили: студенты группы 6301 Айнатдинов Ильдар и Хаснутдинов Айдар.
1 Современные системы программирования. Часть 2. Системное и прикладное программное обеспечение Малышенко Владислав Викторович.
Выполнили: Мартышкин А. И. Кутузов В. В., Трояшкин П. В., Руководитель проекта – Мартышкин А. И., аспирант, ассистент кафедры ВМиС ПГТА.
«СЕТИ КОМПЬЮТЕРОВ. ОСНОВНЫЕ ПОНЯТИЯ» Методическое пособие по дисциплине «Программное обеспечение компьютерных сетей и информационных систем»
Компьютер – универсальная техническая система обработки информации Информатика. 10 класс.
Понятие вычислительной системы Под вычислительной системой (ВС) понимают совокупность взаимосвязанных и взаимодейст- вующих процессоров или ЭВМ, периферийного.
МБОУ СОШ 6 г. Реутов. МОУ СОШ 6 г. Реутов Компьютерная сеть – это система компьютеров, связанная каналами передачи информации.
Внутренние устройства ПК Знакомство с компьютером.
Терминология Микропроцессор (МП) - программно-управляемое устройство, осуществляющее процесс цифровой обработки информации и управления и построенное на.
Транксрипт:

Сибирский Суперкомпьютерный Центр ИВМ и МГ СО РАН АРХИТЕКТУРА ТЕХНИЧЕСКИХ СРЕДСТВ HPС Глинский Б.М. Кучин Н.В. 1

ОБЛАСТИ ПРИМЕНЕНИЯ НРС Проектирование инженерных сооружений, автомобилей, судов и летательных аппаратов, комплексный экологический мониторинг атмосферы и гидросферы, предсказание погоды, астрофизика и космические исследования, нанотехнологии, молекулярные науки, генетика, медицина, разработка лекарственных препаратов, рациональное использование лесных и минеральных ресурсов, разведка нефтегазовых месторождений, управляемого термоядерного синтеза, геоинформационных систем, систем распознавания и синтеза речи, систем распознавания изображений и другие направления деятельности человека просто немыслимы в настоящее время без применения компьютерного моделирования с использованием высокопроизводительных вычислений и параллельных компьютерных технологий. 2

CОВРЕМЕННЫЕ СУПЕРКОМПЬЮТЕРЫ Три группы компьютеров для НРС: векторные; высокопроизводительные универсальные; специализированные Векторные: создатель Сеймур Крей, SX-9 (NEC) имеет 8192 процессора и 840 TFLOPS векторной производительности (970 TFLOPS с одновременной работы скалярного блока с плавающей запятой). Около 1 PFLOPS! Обмен с памятью 2Тбайт/с на 4 процессора. Универсальные: лидер RISC-процессор IBM Power6 с тактовой частотой 4,7 ГГц, 20 GFLOPS, 64 разряда (65 nm). Повышение производительности – многоядерность, копируются ядра на кристалле. Специализированные: 32 разряд. программируемые графические процессоры (Graphical Processor Unit, GPU), процессоры Сell/B.E разработки IBM, Sony и Toshiba, ускорители вычислений с плавающей запятой типа ClearSpeed и др. Некоторые из этих средств реализованы в форме отдельных плат «акселераторов» вычислений, другие (например, Cell) интегрируют в одной микросхеме и «спецсредства», и универсальные процессоры.

ОСНОВНЫЕ КЛАССЫ ПАРАЛЛЕЛЬНЫХ КОМПЬЮТЕРОВ Основным параметром классификации паралелльных компьютеров является наличие общей (SMP) или распределенной памяти (MPP). Нечто среднее между SMP и MPP представляют собой NUMA-архитектуры, где память физически распределена, но логически общедоступна. Кластерные системы являются более дешевым вариантом MPP. При поддержке команд обработки векторных данных говорят о векторно- конвейерных процессорах, которые, в свою очередь могут объединяться в PVP-системы с использованием общей или распределенной памяти. Все большую популярность приобретают идеи комбинирования различных архитектур в одной системе и построения неоднородных систем. При организациях распределенных вычислений в глобальных сетях (Интернет) говорят о мета-компьютерах, которые, строго говоря, не представляют из себя параллельных архитектур.SMPMPPNUMAКластерныеPVPмета-компьютерах

Системы с распределенной памятью (МРР) Оперативная память Кэш-память Процессор Коммуникационная среда Оперативная память Кэш-память Процессор Оперативная память Кэш-память Процессор 5

Массивно-параллельные системы МPP Архитектура Система состоит из однородных вычислительных узлов, включающих: один или несколько центральных процессоров (обычно RISC), локальную память (прямой доступ к памяти других узлов невозможен), коммуникационный процессор или сетевой адаптер иногда - жесткие диски (как в SP) и/или другие устройства В/В К системе могут быть добавлены специальные узлы ввода-вывода и управляющие узлы. Узлы связаны через некоторую коммуникационную среду (высокоскоростная сеть, коммутатор и т.п.) Примеры IBM RS/6000 SP2, Intel PARAGON/ASCI Red, CRAY T3E, Hitachi SR8000, транспьютерные системы Parsytec.SP2T3ESR8000Parsytec Масштабируемость Общее число процессоров в реальных системах достигает нескольких тысяч (ASCI Red, Blue Mountain). Операционная система Существуют два основных варианта: 1.Полноценная ОС работает только на управляющей машине (front-end), на каждом узле работает сильно урезанный вариант ОС, обеспечивающие только работу расположенной в нем ветви параллельного приложения. Пример: Cray T3E. 2.На каждом узле работает полноценная UNIX-подобная ОС (вариант, близкий к кластерному подходу). Пример: IBM RS/6000 SP + ОС AIX, устанавливаемая отдельно на каждом узле.кластерному Модель программирования Программирование в рамках модели передачи сообщений ( MPI, PVM, BSPlib)MPIPVM BSPlib 6

Системы с общей памятью (SМР) Кэш-память Процессор Общая шина Кэш-память Процессор Общая (разделяемая) оперативная память Кэш-память Процессор 7

Симметричные мультипроцессорные системы (SMP) Архитектура Система состоит из нескольких однородных процессоров и массива общей памяти (обычно из нескольких независимых блоков). Все процессоры имеют доступ к любой точке памяти с одинаковой скоростью. Процессоры подключены к памяти либо с помощью общей шины (базовые 2-4 процессорные SMP-сервера), либо с помощью crossbar-коммутатора (HP 9000). Аппаратно поддерживается когерентность кэшей. Примеры HP 9000 V-classHP 9000 V-class, N-class; SMP-cервера и рабочие станции на базе процессоров Intel, IBM, HP, Compaq, Dell, ALR, Unisys, DG, Fujitsu и др. Масштабируемость Наличие общей памяти сильно упрощает взаимодействие процессоров между собой, однако накладывает сильные ограничения на их число - не более 32 в реальных системах. Для построения масштабируемых систем на базе SMP используются кластерные или NUMA-архитектуры.кластерныеNUMA Операционная система Вся система работает под управлением единой ОС (обычно UNIX-подобной, но для Intel-платформ поддерживается Windows NT). ОС автоматически (в процессе работы) распределяет процессы/нити по процессорам (scheduling), но иногда возможна и явная привязка Модель программирования Программирование в модели общей памяти. (POSIX threads, OpenMP). Для SMP-систем существуют сравнительно эффективные средства автоматического распараллеливания.OpenMP автоматического распараллеливания 8

Системы с NUMA-архитектурой Оперативная память Кэш-память Процессор Коммуникационная среда Кэш-память Процессор Кэш-память Процессор Оперативная память Оперативная память 9

Системы с неоднородным доступом к памяти (NUMA) Архитектура Система состоит из однородных базовых модулей (плат), состоящих из небольшого числа процессоров и блоков памяти. Модули объединены с помощью высокоскоростного коммутатора. Поддерживается единое адресное пространство, аппаратно поддерживается доступ к удаленной памяти, т.е. к памяти других модулей. При этом доступ к локальной памяти в несколько раз быстрее, чем к удаленной. В случае, если аппаратно поддерживается когерентность кэшей во всей системе (обычно это так), говорят об архитектуре cc-NUMA (cache-coherent NUMA) Примеры HP HP 9000 V-class в SCA-конфигурациях, SGI Origin2000, Sun HPC 10000, IBM/Sequent NUMA-Q 2000, SNI RM600.HP 9000 V-classOrigin2000HPC 10000NUMA-Q 2000RM600 Масштабируемость Масштабируемость NUMA-систем ограничивается объемом адресного пространства, возможностями аппаратуры поддержки когерентности кэшей и возможностями операционной системы по управлению большим числом процессоров. На настоящий момент, максимальное число процессоров в NUMA- системах составляет 256 (Origin2000). Операционная система Обычно вся система работает под управлением единой ОС, как в SMP. Но возможны также варианты динамического "подразделения" системы, когда отдельные "разделы" системы работают под управлением разных ОС (например, Windows NT и UNIX в NUMA-Q 2000).SMP Модель программирования Аналогично SMP.SMP 10

КЛАСТЕРННЫЕ СУПЕРКОМПЬЮТЕРЫ Появление высокопроизводительных кластеров не явилось большой неожиданностью. Вопрос об объединении сетевых ресурсов в единый вычислительный пул «висел в воздухе». Соответствующее решение было найдено с использованием технологий, предназначенных для локальных сетей (прежде всего Ethernet), достигших к тому времени нужного уровня развития. Будущее показало, что локальные сети не единственный способ превратить множество вычислительных узлов в единый компьютер: сети такого рода могут быть как глобальными, так и сетями на одном кристалле. В 1994 году сотрудники NASA Дональд Беккер и Томас Стерлинг создали кластер Beowulf. Он состоял из 16 процессоров Intel 486DX4, соединенных 10-мегабитной сетью Ethernet. Кластеры Beowulf сегодня доминируют во всех списках самых производительных вычислительных систем. Главной особенностью таких компьютеров было и остается то, что их можно собрать из имеющихся на рынке продуктов, раньше это были системные блоки, а сегодня серверы-лезвия. 11

Общая структура кластерного суперкомпьютера Кэш-память Процессор Кэш-память Процессор Кэш-память Процессор Кэш-память Процессор Сеть управления Сеть обмена данными Управляющий узел Вычислитель- ный узел 1 Вычислитель- ный узел 2 Вычислитель- ный узел N Один управляющий узел, остальные вычислительные, связанные в локальную сеть. Управляющий узел: подготовка параллельных программ и данных, взаимодействие с вычислительными узлами через управляющую сеть. Вычислительные узлы: выполнение параллельной программы, обмен данными через коммуникационную сеть. 12

Кластерные системы Архитектура Набор рабочих станций (или даже ПК) общего назначения, серверов используется в качестве дешевого варианта массивно-параллельного компьютера. Для связи узлов используется одна из стандартных сетевых технологий (Fast/Gigabit Ethernet, Myrinet, InfiniBand) на базе шинной архитектуры или коммутатора.массивно-параллельного При объединении в кластер компьютеров разной мощности или разной архитектуры, говорят о гетерогенных (неоднородных) кластерах. Узлы кластера могут одновременно использоваться в качестве пользовательских рабочих станций. В случае, когда это не нужно, узлы могут быть существенно облегчены и/или установлены в стойку. Примеры NT-кластерNT-кластер в NCSA, Beowulf-кластеры.Beowulf Операционная система Используются стандартные для рабочих станций ОС, чаще всего, свободно распространяемые - Linux/FreeBSD, вместе со специальными средствами поддержки параллельного программирования и распределения нагрузки. Модель программирования Программирование, как правило, в рамках модели передачи сообщений (чаще всего - MPI). Дешевизна подобных систем оборачивается большими накладными расходами на взаимодействие параллельных процессов между собой, что сильно сужает потенциальный класс решаемых задач.MPI 13

Пиковая производительность60 TFlop/s Производительность на Linpack47.04 TFlop/s (78.4% от пиковой) Число процессоров/ядер в системе1250 / 5000 Модель процессораIntel Xeon E ГГц Объём оперативной памяти5.5 Тбайт Дисковая память узлов15 Тбайт Число стоек всего/вычислительных42 / 14 Число блэйд-шасси/вычислительных узлов 63 / 625 Производитель Т -Платформы Суперкомпьютер СКИФ МГУ Общая характеристика 14

Blade-шасси, СКИФ МГУ 10 модулей T-Blade, 960 GFlop/s

Скиф МГУ Площадь зала 98 кв. метров

Суперкомпьютер Roadrunner, IBM (10 июня 2008, Источник: BBC News)BBC News Пиковая производительность 1,5 Pflop/s 3456 оригинальных серверов tri-blade Производительность сервера tri-blade – 0,4 Tflops Гибридная архитектура 20 тысяч высокопроизводительных двухъядерных процессоров – 6948 AMD Opteron и Cell Broadband Engine производства самой IBMAMD OpteronCell Broadband Engine Системная память - 80 Tерабайт Занимаемая площадь около 560 кв. метров Общий вес оборудования тонн Энергопотребление - 3,9 мегаватта (376 миллионов операций на один ватт)

Платформы НРС На формирование образа суперкомпьютеров близкого будущего повлияют несколько ключевых технологических факторов: технологии миниатюризации серверов; это, прежде всего, широкое принятие лезвий, хотя одновременно появляются и новые конструкции тонких «стоечных» серверов, перспективность которых также нельзя исключать; широкое распространение технологий организации межсоединений на основе Infiniband; новая система тестирования, расширяющая «классические» тесты Linpack Benchmarks.

ВЫЧИСЛИТЕЛЬНЫЕ УЗЛЫ (СЕРВЕРА) История создания блейд - серверов Лезвия изобрел Крис Хипп во время Internet-бума конца 90- х. В основе банальная идея заменить монолитные серверы простыми платами с процессорами архитектуры x86, работающими под управлением ОС Linux. В декабре 1999 года эта идея окончательно оформилась, и 1 января 2000 года была создана компания RocketLogix. Первым суперкомпьтером на блейд-серверах стал кластер Green Destiny. Компании производители: в первую очередь, IBM и HP (купила RLX Technologies); в меньших масштабах Dell, Sun Microsystems и другие. Сегодня крупнейшим производителем лезвий является компания HP. В HP выдвигается лозунг о «всеобщей блейдизации» (Blade Everything).

Одно из первых лезвий

Суперкомпьютер Green Destiny кластер Beowulf (на лезвиях)

Основные требования к блейд – серверам (НР) Гибкость Снижение энергопотребления и ресурсов охлаждения Средства консолидированного управления Активные средства обеспечения безопасности Прозрачный механизм виртуализации Автоматизация выполнения рутинных и трудоемких процедур и задач

Сервер BladeCenter HS21 для кластера IBM 1350 Схема сервера

Кластер состоит из 6 «блейд-серверов» IBM BladeCenter HS21xx, один из которых управляющий, один запасной и четыре вычислительных. Вычислительный модуль состоит из двух 4-х ядерных процессор Intel Xeon 5320 Clovertown. Кэш второго уровня динамически разделяется между двумя ядрами. Два ядра, в зависимости от взаимного расположения могут обмениваться информацией либо через кэш 2 уровня, либо через шину FSB. Все 8 ядер для чтения /записи данных в ОЗУ, а так же для синхронизации одних и тех же данных в разных кэшах используют общую шину (FSB). 25

Характеристики BladeCenter HS21 ХарактеристикаВычислительный модульУправляющий модуль СерверBladeCenter HS21BladeCenter HS21XM Процессор2xIntel Xeon 1.86GHz2xIntel Xeon 2.33GHz Ядер в узле4 (2 х 8) ОЗУ4x2GB8x2GB Кэш-память L1: KB L2: 4 × 4 MB* МежсоединениеInfiniBand Производительность ядра (пиковая) 7.44 GFlops9.28 GFlops Производительность кластера (пиковая) 238 GFlops- 26

Программное обеспечение Операционная система - Red Hat Enterprise Linux Параллельная файловая система - IBM General Parallel File System. Система управления пакетными заданиями – IBM Load Leveler. Компиляторы - Intel C++ и Intel Fortran версии 10.1, Библиотеки - Intel MKL версии 10.0 и Intel MPI 3.0.

НР Полка c7000 вид спереди Два форм-фактора блейдов Полноразмерный блейд-сервер (до 8 в одной полке) Блейд-сервер половинной высоты (до 16 в одной полке) Storage-блейд половинной высоты (до 90 дисков в одной полке ) Блоки питания До 6 блоков питания с горячей заменой при мощности 2250 Вт Управление BladeSystem Insight Display Модуль управления «Onboard Administrator» Insight Display Блейд-сервер половинной высоты – 2P Полноразмерный блейд-сервер 2P/4P Storage-блейд половинной высоты - до 420 ГБ Блоки питания с возможностью горячей замены

29 Полка c7000 вид сзади Восемь коммутационных отсеков До 4 резервированных фабрик ввода/вывода Ethernet, Fibre Channel, iSCSI и InfiniBand До 94% уменьшение количества кабелей 2 модуля управления «Onboard Administrator» (один стандартно) 8 коммутационных отсеков для коммутаторов или патч-панелей Межполочная связь Разъемы Ethernet и посл. интерфейса Резервные модули Onboard Administrator Отказоустойчи- вые вентиляторы с возможностью горячей замены Резервные фидеры 3+3 C19 или трехфазные

Топология серверов НР Integrity

Integrity rx7640 имеют две связанные напрямую ячейки; координатные коммутаторы не используются (восемь процессорных разъемов, в стойке высотой 10U, мах ОЗУ 64 Гбайта). В rx8640 четыре ячейки соединены двумя коммутаторами (16 процессорных разъемов в стойке высотой 17U, мах ОЗУ 64 Гбайта). В старших моделях, Superdome, имеется восемь ячеек и шесть коммутаторов, расположенных в двух стойках (32 процессорных разъема в 2-х стойках высотой 17U, мах ОЗУ 128 Гбайт). Производительность серверов. На тестах TPC-C (задержка при обращении к ОЗУ): 2-х процессорные, 4- х ядерные серверы Integrity rx4640 с Itanium 2/1,6 ГГц достигли показателя tpmC со стоимостью $2,75/ tpmC; 8-ми ядерный 4-х процессорный сервер HP rx с процессорами Itanium 2/1,6 ГГц (Мontecito) имеет tpmC при стоимости $2,71 /tpmC 31

КОММУНИКАЦИОННЫЕ ТЕХНОЛОГИИ Основные: Fast Ethertnet, Gigabit Ethernet, Myrinet, cLAN (Giganet), SCI, QsNetII (QSW), MEMORY CHANNEL, ServerNet II, InfiniBand, Flat Neighborhood.Fast EthertnetGigabit EthernetMyrinetcLANSCIQsNetIIMEMORY CHANNELServerNet II InfiniBandFlat Neighborhood Fast Ethernet Производители оборудования: Intel, CISCO, 3Com и др. Показатели производительности: Пиковая пропускная способность Mbit/sec (12.5 MB/sec), полный дуплекс. В рамках MPI достигаются скорости порядка 6-7 MB/sec. Программная поддержка: Драйверы для всех версий UNIX и Windows NT, протоколы TCP/IP, MPICH - бесплатная переносимая реализация MPI.MPICH Комментарии:Преимуществами данной технологии являются: хорошая стандартизация и широкое распространение, а также низкие цены на оборудование и использование стандартных сетевых кабелей (UTP).

Gigabit Ethernet Производители оборудования: Intel, 3COM и др.Intel Показатели производительности: Пиковая пропускная способность - 1 Gbit/sec (125 MB/sec), полный дуплекс. В рамках TCP/IP достигаются скорости порядка 500 Mbit/sec (60 MB/sec), в рамках MPI - до 45 MB/sec Программная поддержка: Драйверы для многих версий UNIX и Windows NT, протоколы TCP/IP. Комментарии: Преимуществом данной технологии является совместимость и возможность плавного перехода с технологий Ethernet/Fast Ethernet.

Myrinet 2000 Производители оборудования: MyricomMyricom Показатели производительности: Пиковая пропускная способность - 2 Gbit/sec, полный дуплекс. Аппаратная латентность порядка 5 мксек. В рамках TCP/IP достигаются скорости порядка Gbit/sec (240 MB/sec). Латентность - порядка 30 мксек. Программная поддержка: Драйвера для Linux (Alpha, x86, PowerPC, UltraSPARC), Windows NT (x86), Solaris (x86, UltraSPARC) и Tru64 UNIX. Пакеты HPVM (включает MPI-FM, реализацию MPI для Myrinet), BIP-MPI и др.HPVM Комментарии: Myrinet является открытым стандартом. На физическом уровне поддерживаются сетевые среды SAN (System Area Network), LAN (CL-2) и оптоволокно. Технология Myrinet дает высокие возможности масштабирования сети и в настоящее время очень широко используется при построении высокопроизводительных кластеров.

InfiniBand Производители оборудования: InfiniBand Trade AssociationInfiniBand Trade Association Показатели производительности: Пиковая пропускная способность каналов 10 GB/sec, латентность - 7 мксек. Программная поддержка: MPICH - бесплатная переносимая реализация MPI,MPI/Pro - реализация MPI для Linux RedHat 7.3, 7.3.MPICHMPI/Pro Комментарии: InfiniBand предлагает удалённый прямой доступ в память (remote direct memory access - RDMA), позволяющий доставлять данные непосредственно в память процесса, не вовлекая системные вызовы. Данные могут передаваться 1-о,4-х и 12-ти кратной скоростью. Латентность на свиче InfiniBand составляет 160 наносекунд.

Архитектура InfiniBand Адаптер канала хоста (Host Channel Adapter, HCA). Инициация и организация обмена. Взаимодействие: с аналогичными адаптерами HCA,; с целевыми адаптерами канала; с коммутатором InfiniBand. Менеджер подсети (Subnet Manager, SM). Управление и мониторинг «матрицей InfiniBand» (InfiniBand fabric). Активный менеджер SM может размещаться на одном из узлов или непосредственно на одном из коммутаторов, Снабжение необходимой коммутационной и конфигурационной информацией всех коммутаторов, входящих в InfiniBand fabric. Согласованная работа инфраструктуры поддерживается тем, что все остальные узлы структуры включают в себя специальные агенты, обеспечивающие обработку данных, относящихся к обмену. Менеджеры и агенты взаимодействуют по алгоритмам, заложенным в датаграммы Management Datagram.

Архитектура InfiniBand Целевой адаптер канала (Target Channel Adapter, TCA). Используется для подключения не серверов, а внешних устройств, в том числе устройств хранения и интерфейсов ввода/вывода, к инфраструктуре InfiniBand. Обычно адаптер TCA включает контроллер ввода/вывода, соответствующий специфическому протоколу устройства (SCSI, Fibre Channel, Ethernet и т.д.), и он же обеспечивает взаимодействие с адаптерами HCA и коммутатором InfiniBand. Коммутатор InfiniBand. Масштабируемость инфраструктуры InfiniBand. Он позволяет подключать необходимое число адаптеров HCA и TCA, а также дополнительные коммутаторы InfiniBand fabric. Организация сетевого трафика, проверка заголовоков пакетов данных и направление их по месту назначения. InfiniBand fabric может состоять несколько коммутаторов.

Модуль InfiniBand на 24 канала

InfiniBand Architecture PotentialInfiniBand 39