Суперкомпьютеры. Что же вообще такое – суперкомпьютеры? Считается, что супер - ЭВМ - это компьютеры с максимальной производительностью. Однако быстрое.

Презентация:



Advertisements
Похожие презентации
СУПЕРКОМПЬЮТЕРЫ Что это? Зачем это нужно? Кто этим пользуется? И его архитектура.
Advertisements

Супер ЭВМ Понятие Супер ЭВМ Цели Супер ЭВМ Характеристики производительности Супер ЭВМ Программное обеспечение Супер ЭВМ Архитектура совеременных Супер.
Компьютер – универсальная техническая система обработки информации Информатика. 10 класс.
Процессор - это устройство, управляющее ходом вычислительного процесса, выполняющее арифметическое и логическое действия. Процессор - это микросхема на.
Поколения ЭВТ Автор. По этапам развития По архитектуре По потребительским свойствам По количеству процессоров По производительности По условиям эксплуатации.
В начале 80-х годов были созданы принципиально новые средства обработки информации микропро­цессоры (МП). По своим логическим возможностям и структуре.
Компьютер как средство обработки информации. Компьютер – это универсальная электронная машина, которая состоит из согласованно работающих аппаратных и.
Работу выполнили ученики 21 гимназии 10 А класса.
Параллельные вычисления Лекция 6. y = 3x + 7x – 8x при x = 4 y1 = 3x(1 действие) y2 = 7x(2 действие) y3 = 8x(3 действие) y = y1 + y2 – y3(4 действие)
Локальные компьютерные сети Выполнила студентка III курса ГБОУ СПО Баймакский сельскохозяйственный техникум Нигматуллина А.
Компьютер – универсальная техническая система обработки информации 10 класс Учитель информатики: грязных В.С.
Состав персонального ПК. Компьютер это многофункциональное электронное устройство, предназначенное для накопления, обработки и передач» информации.
Супер-ЭВМ это достаточно гибкий и очень широкий термин. В общем понимании супер-ЭВМ это компьютер значительно мощнее всех имеющихся доступных на рынке.
Распределенная обработка информации Разработано: Е.Г. Лаврушиной.
Персональный компьютер На протяжении всей истории человек создавал приспособления, помогающие ему в работе и в быту. И вот в ХХ веке человек создал замечательную.
ПРЕЗЕНТАЦИЯ НА ТЕМУ «ВЫЧИСЛИТЕЛЬНАЯ ТЕХНИКА ЧЕТВЁРТОГО ПОКОЛЕНИЯ» ПРЕЗЕНТАЦИЮ ПОДГОТОВИЛ УЧЕНИК 8 А КЛАССА ВЛАСЕНКО МАКСИМ.
ПРИНЦИПЫ ФОН НЕЙМАНА АРХИТЕКТУРА ФОН НЕЙМАНА. В 1946 году Д. фон Нейман, Г. Голдстайн и А. Беркс в своей совместной статье изложили новые принципы построения.
Внутренние устройства ПК Знакомство с компьютером.
Основные виды ресурсов и возможности их разделения.
История развития ЭВМ Козлов М.С.. Первые вычислительные машины 1939 г. Американец болгарского происхождения Джон Атанасофф создал прототип вычислительной.
Транксрипт:

Суперкомпьютеры

Что же вообще такое – суперкомпьютеры? Считается, что супер - ЭВМ - это компьютеры с максимальной производительностью. Однако быстрое развитие компьютерной индустрии делает это понятие весьма и весьма относительным: то, что десять лет назад можно было назвать суперкомпьютером, сегодня под это определение уже не подпадает. Производительность первых супер - ЭВМ начала 70-х годов была сравнима с производительностью современных ПК на базе традиционных процессоров Pentium. По сегодняшним меркам ни те, ни другие к суперкомпьютерам, конечно же, не относятся. В любом компьютере все основные параметры взаимосвязаны. Трудно себе представить универсальный компьютер, имеющий высокое быстродействие и мизерную оперативную память либо огромную оперативную память и небольшой объем дисков. Отсюда простой вывод: супер - ЭВМ но компьютер, имеющий не только максимальную производительность, но и максимальный ли объем оперативной и дисковой памяти и совокупности со специализированным программным обеспечением, с помощью которого этим монстром можно эффективно пользоваться. Суперкомпьютерам не раз пытались давать универсальные определения иногда они получались серьезными, иногда ироничными. Например, как-то предлагалось считать суперкомпьютером машину, вес которой превышает одну тонну. Считается, что супер - ЭВМ - это компьютеры с максимальной производительностью. Однако быстрое развитие компьютерной индустрии делает это понятие весьма и весьма относительным: то, что десять лет назад можно было назвать суперкомпьютером, сегодня под это определение уже не подпадает. Производительность первых супер - ЭВМ начала 70-х годов была сравнима с производительностью современных ПК на базе традиционных процессоров Pentium. По сегодняшним меркам ни те, ни другие к суперкомпьютерам, конечно же, не относятся. В любом компьютере все основные параметры взаимосвязаны. Трудно себе представить универсальный компьютер, имеющий высокое быстродействие и мизерную оперативную память либо огромную оперативную память и небольшой объем дисков. Отсюда простой вывод: супер - ЭВМ но компьютер, имеющий не только максимальную производительность, но и максимальный ли объем оперативной и дисковой памяти и совокупности со специализированным программным обеспечением, с помощью которого этим монстром можно эффективно пользоваться. Суперкомпьютерам не раз пытались давать универсальные определения иногда они получались серьезными, иногда ироничными. Например, как-то предлагалось считать суперкомпьютером машину, вес которой превышает одну тонну.

Самая мощная ЭВМ на сегодняшний день это система Intel ASCI RED, построенная по заказу Министерства энергетики США. Чтобы представить себе возможности этого су1еркомпьютера,достаточно сказать, что он объединяет в себе 9632 (!) процессора Pentium Pro, имеет более 600 Гбайт оперативной памяти и общую производительность в 3200миллиардов операций в секунду. Человеку потребовалось бы лет, чтобы даже с калькулятором выполнить все те операции, которые этот компьютер делает всего за 1 секунду !Создать подобную вычислительную систему всё равно, что построить целый завод со своими системами охлаждения, бесперебойного питания и т.д. Понятно, что любой суперкомпьютер, даже в более умеренной конфигурации, должен стоить не один миллион долларов США: ради интереса прикиньте, сколько стоят, скажем, лишь 600 Гбайт оперативной памяти? Возникает естественный вопрос: какие задачи настолько важны, что требуются компьютеры стоимостью в несколько миллионов долларов? Или еще один: какие задачи настолько сложны, что хорошего Pentium IV для их решения недостаточно? Несколько лет назад был предложен и такой вариант: суперкомпьютер это устройство, сводящее проблему вычислений к проблеме ввода/вывода. В самом деле, задачи, которые раньше вычислялись очень долго, на супер - ЭВМ выполняются мгновенно, и почти все время теперь уходит на более медленные процедуры ввода и вывода данных, производящиеся, как правило, с прежней скоростью. Так что же такое современный суперкомпьютер? Самая мощная ЭВМ на сегодняшний день это система Intel ASCI RED, построенная по заказу Министерства энергетики США. Чтобы представить себе возможности этого су1еркомпьютера,достаточно сказать, что он объединяет в себе 9632 (!) процессора Pentium Pro, имеет более 600 Гбайт оперативной памяти и общую производительность в 3200миллиардов операций в секунду. Человеку потребовалось бы лет, чтобы даже с калькулятором выполнить все те операции, которые этот компьютер делает всего за 1 секунду !Создать подобную вычислительную систему всё равно, что построить целый завод со своими системами охлаждения, бесперебойного питания и т.д. Понятно, что любой суперкомпьютер, даже в более умеренной конфигурации, должен стоить не один миллион долларов США: ради интереса прикиньте, сколько стоят, скажем, лишь 600 Гбайт оперативной памяти? Возникает естественный вопрос: какие задачи настолько важны, что требуются компьютеры стоимостью в несколько миллионов долларов? Или еще один: какие задачи настолько сложны, что хорошего Pentium IV для их решения недостаточно? Несколько лет назад был предложен и такой вариант: суперкомпьютер это устройство, сводящее проблему вычислений к проблеме ввода/вывода. В самом деле, задачи, которые раньше вычислялись очень долго, на супер - ЭВМ выполняются мгновенно, и почти все время теперь уходит на более медленные процедуры ввода и вывода данных, производящиеся, как правило, с прежней скоростью. Так что же такое современный суперкомпьютер?

Для чего же необходимы суперкомпьютеры? Оказывается, существует целый ряд жизненно важных проблем, которые просто невозможно решать без использования суперкомпьютерных технологий. Возьмем, к примеру, США, по территории которых два раза в год проходят разрушительные торнадо. Они сметают на. своем пути города, поднимают в воздух автомобили и автобусы, выводят реки из берегов, заливая тем самым гигантские территории. Борьба с торнадо существенная часть американского бюджета. Только штат Флорида, который находится недалеко от тех мест, где эти смерчи рождаются, за последние годы потратил более 50 миллиардов долларов на экстренные меры по спасению людей. Правительство не жалеет денег на внедрение технологий, которые позволили бы предсказывать появление торнадо и определять, куда он направится. Как рассчитать торнадо? Очевидно, что для этого надо решить задачу о локальном изменении погоды, то есть задачу о движении масс воздуха и распределении тепла в неком регионе. Принципиально это несложно, однако на практике возникают две проблемы. Проблема первая: чтобы заметить появление смерча, надо проводить расчет на характерных для его образования размерах, то есть на расстояниях порядка двух километров. Вторая трудность связана с правильным заданием начальных и граничных условий. Дело в том, что температура на границах интересующего вас региона зависит от того, что делается в соседних регионах. Рассуждая дальше, легко убедиться, что мы не можем решить задачу о смерче, не имея данных о климате на всей Земле. Климат на планете рассчитать можно, что и делается каждый день во всех странах для составления среднесрочных прогнозов погоды. Оказывается, существует целый ряд жизненно важных проблем, которые просто невозможно решать без использования суперкомпьютерных технологий. Возьмем, к примеру, США, по территории которых два раза в год проходят разрушительные торнадо. Они сметают на. своем пути города, поднимают в воздух автомобили и автобусы, выводят реки из берегов, заливая тем самым гигантские территории. Борьба с торнадо существенная часть американского бюджета. Только штат Флорида, который находится недалеко от тех мест, где эти смерчи рождаются, за последние годы потратил более 50 миллиардов долларов на экстренные меры по спасению людей. Правительство не жалеет денег на внедрение технологий, которые позволили бы предсказывать появление торнадо и определять, куда он направится. Как рассчитать торнадо? Очевидно, что для этого надо решить задачу о локальном изменении погоды, то есть задачу о движении масс воздуха и распределении тепла в неком регионе. Принципиально это несложно, однако на практике возникают две проблемы. Проблема первая: чтобы заметить появление смерча, надо проводить расчет на характерных для его образования размерах, то есть на расстояниях порядка двух километров. Вторая трудность связана с правильным заданием начальных и граничных условий. Дело в том, что температура на границах интересующего вас региона зависит от того, что делается в соседних регионах. Рассуждая дальше, легко убедиться, что мы не можем решить задачу о смерче, не имея данных о климате на всей Земле. Климат на планете рассчитать можно, что и делается каждый день во всех странах для составления среднесрочных прогнозов погоды.

Однако имеющиеся ресурсы позволяют вести расчеты лишь с очень большим шагом десятки и сотни километров. Ясно, что к предсказанию смерчей такой прогноз не имеет никакого отношения. Необходимо совместить две, казалось бы, плохо совместить е задачи: глобальный расчет, где шаг очень большой, и локальный, где шаг очень маленький. Сделать это можно, но лишь собрав в кулаке действительно фантастические вычислительные ресурсы. Дополнительная трудность состоит еще и в том, что вычисления не должны продолжаться более 4 часов, так как за 5 часов картина погоды смазывается совершенно, и все, что вы считаете, уже не имеет никакого отношения к реальности. Нужно не только обработать гигантский объем данных, но и сделать это достаточно быстро. Такое под силу лишь суперкомпьютерам. Предсказание погоды далеко не единственный пример использования суперкомпьютеров. Сегодня без них не обойтись в сейсморазведке, нефти – и газодобывающей промышленности, автомобилестроении, проектировании электронных устройств, фармакологии, синтезе новых материалов и многих других отраслях. Так, по данным компании Ford, для выполнения crash-тестов, при которых реальные автомобили разбиваются о бетонную стену с одновременным замером необходимых параметров, со съемкой и последующей обработкой результатов, ей понадобилось бы от 10 до 150 прототипов для каждой новой модели. При этом общие затраты составили бы от 4 до 60 миллионов долларов. Использование суперкомпьютеров позволило сократить число прототипов на одну треть. Известной фирме DuPont суперкомпьютеры помогли синтезировать материал, заменяющий хлорофлюрокарбон. Однако имеющиеся ресурсы позволяют вести расчеты лишь с очень большим шагом десятки и сотни километров. Ясно, что к предсказанию смерчей такой прогноз не имеет никакого отношения. Необходимо совместить две, казалось бы, плохо совместить е задачи: глобальный расчет, где шаг очень большой, и локальный, где шаг очень маленький. Сделать это можно, но лишь собрав в кулаке действительно фантастические вычислительные ресурсы. Дополнительная трудность состоит еще и в том, что вычисления не должны продолжаться более 4 часов, так как за 5 часов картина погоды смазывается совершенно, и все, что вы считаете, уже не имеет никакого отношения к реальности. Нужно не только обработать гигантский объем данных, но и сделать это достаточно быстро. Такое под силу лишь суперкомпьютерам. Предсказание погоды далеко не единственный пример использования суперкомпьютеров. Сегодня без них не обойтись в сейсморазведке, нефти – и газодобывающей промышленности, автомобилестроении, проектировании электронных устройств, фармакологии, синтезе новых материалов и многих других отраслях. Так, по данным компании Ford, для выполнения crash-тестов, при которых реальные автомобили разбиваются о бетонную стену с одновременным замером необходимых параметров, со съемкой и последующей обработкой результатов, ей понадобилось бы от 10 до 150 прототипов для каждой новой модели. При этом общие затраты составили бы от 4 до 60 миллионов долларов. Использование суперкомпьютеров позволило сократить число прототипов на одну треть. Известной фирме DuPont суперкомпьютеры помогли синтезировать материал, заменяющий хлорофлюрокарбон. Дополнительная трудность

Нужно было найти материал, имеющий те же положительные качества: невоспламеняемость, стойкость к коррозии и низкую токсичность, но без вредного воздействия на озоновый слой Земли. За одну неделю были проведены необходимые расчеты на суперкомпьютере с общими затратами около 5 тысяч долларов. По оценкам специалистов DuPont, использование традиционных экспериментальных методов исследований потребовало бы 50 тысяч долларов и около трех месяцев работы и это без учета времени, необходимого на синтез и очистку требуемого количества вещества. Нужно было найти материал, имеющий те же положительные качества: невоспламеняемость, стойкость к коррозии и низкую токсичность, но без вредного воздействия на озоновый слой Земли. За одну неделю были проведены необходимые расчеты на суперкомпьютере с общими затратами около 5 тысяч долларов. По оценкам специалистов DuPont, использование традиционных экспериментальных методов исследований потребовало бы 50 тысяч долларов и около трех месяцев работы и это без учета времени, необходимого на синтез и очистку требуемого количества вещества.

Принципы обработки данных Итак, мы видим, что без суперкомпьютеров сегодня действительно не обойтись. Осталось прояснить еще один вопрос: почему они считают так быстро? Это может быть связано, во-первых, с развитием элементной базы и, во-вторых, с использованием новых решений в архитектуре компьютеров. | Попробуем разобраться, какой из этих факторов оказывается решающим для достижения рекордной производительности. Обратимся к известным историческим фактам. На одном из первых компьютеров мира EDSAC, появившемся в 1949 году в Кембридже и имевшем время такта 2 микросекунды (210* секунды), можно было выполнить 2парифметических операций за 18п миллисекунд, то есть в среднем 100арифметических операций в секунду. Сравним с одним вычислительным узлом современного суперкомпьютера Hewlett -Packard V2600: время такта приблизительно 1,8 наносекунды, а пиковая производительностьоколо 77миллиардов арифметических операций в секунду. Что же получается? За полвека производительность компьютеров выросла более чем в семьсот миллионов раз. При этом выигрыш в быстродействии, связанный с уменьшением времени такта с 2 микросекунд до 1,8 наносекунды, составляет лишь около 1000 раз. Откуда же взялось остальное? Ответ очевиден за счет использования новых решений в архитектуре компьютеров. Основное место среди них занимает принцип параллельной обработки данных, воплощающий идею одновременного (параллельного) выполнения нескольких действий. Различают два способа параллельной обработки: собственно параллельную и конвейерную. Оба способа интуитивно абсолютно понятны, поэтому сделаем лишь небольшие пояснения. Итак, мы видим, что без суперкомпьютеров сегодня действительно не обойтись. Осталось прояснить еще один вопрос: почему они считают так быстро? Это может быть связано, во-первых, с развитием элементной базы и, во-вторых, с использованием новых решений в архитектуре компьютеров. | Попробуем разобраться, какой из этих факторов оказывается решающим для достижения рекордной производительности. Обратимся к известным историческим фактам. На одном из первых компьютеров мира EDSAC, появившемся в 1949 году в Кембридже и имевшем время такта 2 микросекунды (210* секунды), можно было выполнить 2парифметических операций за 18п миллисекунд, то есть в среднем 100арифметических операций в секунду. Сравним с одним вычислительным узлом современного суперкомпьютера Hewlett -Packard V2600: время такта приблизительно 1,8 наносекунды, а пиковая производительностьоколо 77миллиардов арифметических операций в секунду. Что же получается? За полвека производительность компьютеров выросла более чем в семьсот миллионов раз. При этом выигрыш в быстродействии, связанный с уменьшением времени такта с 2 микросекунд до 1,8 наносекунды, составляет лишь около 1000 раз. Откуда же взялось остальное? Ответ очевиден за счет использования новых решений в архитектуре компьютеров. Основное место среди них занимает принцип параллельной обработки данных, воплощающий идею одновременного (параллельного) выполнения нескольких действий. Различают два способа параллельной обработки: собственно параллельную и конвейерную. Оба способа интуитивно абсолютно понятны, поэтому сделаем лишь небольшие пояснения.

Параллельная обработка Предположим для простоты, что некое устройство выполняет одну операцию за один такт. В этом случае тысячу операций такое устройство выполнит за тысячу тактов. Если имеется пять таких же независимых устройств, способных работать одновременно, то ту же тысячу операций система из пяти устройств может выполнить уже не за тысячу, а за двести тактов. Аналогично система из N устройств ту же работу выполнит за 1000/N тактов. Подобные примеры можно найти и в жизни: если один солдат выкопает траншею за 10 часов, то рота солдат из пятидесяти человек с такими же способностями, работая одновременно, справится с той же работой за 12 минут принцип параллельности в действии! Кстати, пионером в параллельной обработке потоков данных был академик А. А.Самарский, выполнявший в начале 50-х годов расчеты, необходимые для моделирования ядерных взрывов. Самарский решил эту задачу методом сеток, посадив несколько десятков барышень с арифмометрами за столы (узлы сетки).Барышни передавали данные одна другой просто на словах и откладывали необходимые цифры на арифмометрах. Таким образом, в частности, была рассчитана эволюция взрывной волны. Работы было много, барышни уставали, а Александр Андреевич ходил между ними и подбадривал. Так создали, можно сказать, первую параллельную систему. Хотя расчеты водородной бомбы провели мастерски, точность их оказалась очень низкой, потому что узлов в используемой сетке было мало, а время счета получалось слишком большим. Предположим для простоты, что некое устройство выполняет одну операцию за один такт. В этом случае тысячу операций такое устройство выполнит за тысячу тактов. Если имеется пять таких же независимых устройств, способных работать одновременно, то ту же тысячу операций система из пяти устройств может выполнить уже не за тысячу, а за двести тактов. Аналогично система из N устройств ту же работу выполнит за 1000/N тактов. Подобные примеры можно найти и в жизни: если один солдат выкопает траншею за 10 часов, то рота солдат из пятидесяти человек с такими же способностями, работая одновременно, справится с той же работой за 12 минут принцип параллельности в действии! Кстати, пионером в параллельной обработке потоков данных был академик А. А.Самарский, выполнявший в начале 50-х годов расчеты, необходимые для моделирования ядерных взрывов. Самарский решил эту задачу методом сеток, посадив несколько десятков барышень с арифмометрами за столы (узлы сетки).Барышни передавали данные одна другой просто на словах и откладывали необходимые цифры на арифмометрах. Таким образом, в частности, была рассчитана эволюция взрывной волны. Работы было много, барышни уставали, а Александр Андреевич ходил между ними и подбадривал. Так создали, можно сказать, первую параллельную систему. Хотя расчеты водородной бомбы провели мастерски, точность их оказалась очень низкой, потому что узлов в используемой сетке было мало, а время счета получалось слишком большим.

Конвейерная обработка Что необходимо для сложения двух вещественных чисел, представленных в форме с плавающей запятой? Целое множество мелких операций, таких, как сравнение порядков, выравнивание порядков, сложение мантисс, нормализация и т.п.Процессоры первых компьютеров выполняли все эти «микрооперации» для каждой пары слагаемых последова­тельно, одну за другой, до тех пор пока не доходили до окончательного результата, и лишь после этого переходили к обработке следующей пары слагаемых.Идея конвейерной обработки заключается в расчленении операции на отдельные этапы, или, как это принято называть, ступени кон­вейера. Каждая ступень, выполнив свою ра­боту, передает результат следующей ступени, одновременно принимая новую порцию вход­ных данных. Получается очевидные выигрыш вскорости обработки Что необходимо для сложения двух вещественных чисел, представленных в форме с плавающей запятой? Целое множество мелких операций, таких, как сравнение порядков, выравнивание порядков, сложение мантисс, нормализация и т.п.Процессоры первых компьютеров выполняли все эти «микрооперации» для каждой пары слагаемых последова­тельно, одну за другой, до тех пор пока не доходили до окончательного результата, и лишь после этого переходили к обработке следующей пары слагаемых.Идея конвейерной обработки заключается в расчленении операции на отдельные этапы, или, как это принято называть, ступени кон­вейера. Каждая ступень, выполнив свою ра­боту, передает результат следующей ступени, одновременно принимая новую порцию вход­ных данных. Получается очевидные выигрыш вскорости обработки

Современные суперкомпьютеры А что же сейчас используют в мире? По каким направлениям идет развитие высокопроизводительной вычислительной техники? Таких направлений четыре. А что же сейчас используют в мире? По каким направлениям идет развитие высокопроизводительной вычислительной техники? Таких направлений четыре.

Векторно-конвейерные компьютеры Две главные особенности таких машин: наличие функциональных конвейерных устройств и набора векторных команд. В отличие от обычных команд векторные оперируют целыми массивами независимых данных, то есть команда вида А =В + С может означать сложение двух массивов, а не двух чисел. Характерный представитель данного направления семейство векторно – конвейерных компьютеров CRAY, куда входят, например, CRAY EL, CRAY J90, CRAY T90 (в марте этого года американская компания TERA перекупила подразделение CRAY у компании Silicon Graphics, Inc.). Массивно-параллельные компьютеры с распределенной памятью Идея построения компьютеров этого класса тривиальна: серийные микропроцессоры соединяются с помощью сетевого оборудования вот и все. Достоинств у такой архитектуры масса: если нужна высокая производительность, то можно добавить процессоры, а если ограничены финансы или заранее известна требуемая вычислительная мощность, то легко подобрать оптимальную конфигурацию. К этому же классу можно отнести и простые сети компьютеров, которые сегодня все чаще рассматриваются как дешевая альтернатива крайне дорогим суперкомпьютерам.(Правда, написать эффективную параллельную программу для таких сетей довольно сложно, а в некоторых случаях просто невозможно). К массивно-параллельным можно отнести компьютеры Intel Paragon, ASCI RED, IBM SP1, Parsytec, в какой-то степени IBM SP2 и CRAYT3D/T3E. Две главные особенности таких машин: наличие функциональных конвейерных устройств и набора векторных команд. В отличие от обычных команд векторные оперируют целыми массивами независимых данных, то есть команда вида А =В + С может означать сложение двух массивов, а не двух чисел. Характерный представитель данного направления семейство векторно – конвейерных компьютеров CRAY, куда входят, например, CRAY EL, CRAY J90, CRAY T90 (в марте этого года американская компания TERA перекупила подразделение CRAY у компании Silicon Graphics, Inc.). Массивно-параллельные компьютеры с распределенной памятью Идея построения компьютеров этого класса тривиальна: серийные микропроцессоры соединяются с помощью сетевого оборудования вот и все. Достоинств у такой архитектуры масса: если нужна высокая производительность, то можно добавить процессоры, а если ограничены финансы или заранее известна требуемая вычислительная мощность, то легко подобрать оптимальную конфигурацию. К этому же классу можно отнести и простые сети компьютеров, которые сегодня все чаще рассматриваются как дешевая альтернатива крайне дорогим суперкомпьютерам.(Правда, написать эффективную параллельную программу для таких сетей довольно сложно, а в некоторых случаях просто невозможно). К массивно-параллельным можно отнести компьютеры Intel Paragon, ASCI RED, IBM SP1, Parsytec, в какой-то степени IBM SP2 и CRAYT3D/T3E.

Параллельные компьютеры с общей памятью. Вся оперативная память в таких компьютерах разделяется несколькими одинаковыми процессорами, обращающимися к общей дисковой памяти. Проблем с обменом данными между процессорами и синхронизацией их работы практически не возникает. Вместе с тем главный недостаток такой архитектуры состоит в том, что по чисто техническим причинам число процессоров, имеющих доступ к общей памяти, нельзя сделать большим. В данное направление суперкомпьютеров входят многие современные SMP-компьютеры (Symmetric) Вся оперативная память в таких компьютерах разделяется несколькими одинаковыми процессорами, обращающимися к общей дисковой памяти. Проблем с обменом данными между процессорами и синхронизацией их работы практически не возникает. Вместе с тем главный недостаток такой архитектуры состоит в том, что по чисто техническим причинам число процессоров, имеющих доступ к общей памяти, нельзя сделать большим. В данное направление суперкомпьютеров входят многие современные SMP-компьютеры (Symmetric)

Кластерные компьютеры Этот класс суперкомпьютеров, строго говоря, нельзя назвать самостоятельным, скорее, он представляет собой комбинации предыдущих трех. Из нескольких процессоров, традиционных или векторно-конвейерных, и общей для них памяти формируется вычислительный узел. Если мощности одного узла недостаточно, создается кластер из нескольких узлов, объединенных высокоскоростными каналами. По такому принципу построены CRAY SV1..HP Exemplar, Sun Star Fire, NEC SX-5, последние модели IBM SP2 и другие. В настоящее время именно это направление считается наиболее перспективным. Два раза в год составляется список пятисот самых мощных вычислительных установок мира Согласно последней редакции списка top500, вышедшей в ноябре прошлого года, первое место занимает массивно-параллельный компьютер IntelA SCI Red. На второй позиции стоит компьютер ASCI Blue - Pacific от IBM, объединяющий 5808 процессоров Power PC 604e/332MHz. Оба эти суперкомпьютера созданы в рамках американской национальной программы Advanced Strategic Computing Initiative, аббревиатура которой и присутствует в названии. Производительность компьютера, стоящего на последнем, 500-м, месте в списке самых мощных, составляет 33,4 миллиарда операций в секунду. Этот класс суперкомпьютеров, строго говоря, нельзя назвать самостоятельным, скорее, он представляет собой комбинации предыдущих трех. Из нескольких процессоров, традиционных или векторно-конвейерных, и общей для них памяти формируется вычислительный узел. Если мощности одного узла недостаточно, создается кластер из нескольких узлов, объединенных высокоскоростными каналами. По такому принципу построены CRAY SV1..HP Exemplar, Sun Star Fire, NEC SX-5, последние модели IBM SP2 и другие. В настоящее время именно это направление считается наиболее перспективным. Два раза в год составляется список пятисот самых мощных вычислительных установок мира Согласно последней редакции списка top500, вышедшей в ноябре прошлого года, первое место занимает массивно-параллельный компьютер IntelA SCI Red. На второй позиции стоит компьютер ASCI Blue - Pacific от IBM, объединяющий 5808 процессоров Power PC 604e/332MHz. Оба эти суперкомпьютера созданы в рамках американской национальной программы Advanced Strategic Computing Initiative, аббревиатура которой и присутствует в названии. Производительность компьютера, стоящего на последнем, 500-м, месте в списке самых мощных, составляет 33,4 миллиарда операций в секунду.

Если мощность существующих компьютеров поражает, то что говорить о планах. В декабре 1999 года корпорация IBM сообщила о новом исследовательском проекте общей стоимостью около 100 миллионов долларов, цель которого построение суперкомпьютера, в 500 раз превосходящего по производительности самые мощные компьютеры сегодняшнего дня. Компьютер, имеющий условное название Blue Gene, будет иметь производительность порядка 1 PETAFLOPS (10й операций в секунду) и использоваться для изучения свойств белковых молекул. Предполагается, что каждый отдельный процессор Blue Gene будет иметь производительность порядка 1GFLOPS (109 операций в секунду). 32 подобных процессора будут помещены на одну микросхему. Компактная плата размером 2x2 фута будет вмещать 64микросхемы, что по производительности не уступает упоминавшимся ранее суперкомпьютерам ASCI, занимающим площадь 8000 квадратных метров. Более ого,8 таких плат будут помещены в 6-футо зую стойку, а вся система будет состоять из: 64 стоек с суммарной производительности) 1 PFLOPS. Если мощность существующих компьютеров поражает, то что говорить о планах. В декабре 1999 года корпорация IBM сообщила о новом исследовательском проекте общей стоимостью около 100 миллионов долларов, цель которого построение суперкомпьютера, в 500 раз превосходящего по производительности самые мощные компьютеры сегодняшнего дня. Компьютер, имеющий условное название Blue Gene, будет иметь производительность порядка 1 PETAFLOPS (10й операций в секунду) и использоваться для изучения свойств белковых молекул. Предполагается, что каждый отдельный процессор Blue Gene будет иметь производительность порядка 1GFLOPS (109 операций в секунду). 32 подобных процессора будут помещены на одну микросхему. Компактная плата размером 2x2 фута будет вмещать 64микросхемы, что по производительности не уступает упоминавшимся ранее суперкомпьютерам ASCI, занимающим площадь 8000 квадратных метров. Более ого,8 таких плат будут помещены в 6-футо зую стойку, а вся система будет состоять из: 64 стоек с суммарной производительности) 1 PFLOPS.

Виртуальная многопроцессорность Основной смысл технологии Hyper - Threading заключается в поддержке много потокового исполнения программ. Эта технология позволяет на одном физическом процессоре одновременно исполнять два задания или два фрагмента кода одной программы. Таким образом, один процессор воспринимается операционной системой как два логических устройства, интенсивная работа которых осуществляется параллельно. Производительность таких систем, как правило, значительно превышает аналогичные параметры компьютеров, построенных на основе процессоров традиционной архитектуры. Нередки случаи, когда производительность однопроцессорных решений с реализацией Hyper – Threading повышается на 30%. А это для конфигурации с 3 ГГц процессором эквивалентно применению модели с частотой работы 4 ГГц. Остается добавить, что аудитории были продемонстрированы различные смеси задач, в которых рост производительности превышал 60%, что соответствует уже, по крайней мере, процессору 5 ГГц уровень пока практически недостижимый даже для овер клокеров, оперирующих традиционными средствами охлаждения. Поддержка технологии Hyper Treading осуществляется многозадачными операционными системами. В качестве таких систем можно привести, например, Linux (с версии ядра 2.4) и Windows XP. А вот популярные Windows 95/98/ME для этих целей уже не подходят. Что же касается Windows 2000, то фирма Microsoft настоятельно рекомендует использовать в компьютерах, созданных на основе Pentium 4 с Hyper Treading, операционную систему Windows XP.

Сравнение ПК на базе процессора Pentium® 4 с поддержкой технологии Hyper -Threading и обычной двухпроцессорной системы Сравнение ПК на базе процессора Pentium® 4 с поддержкой технологии Hyper -Threading и обычной двухпроцессорной системы Сравнение производительности обычного однопроцессорного ПК, обычной двухпроцессорной системы и ПК на базе процессора Pentium 4 с поддержкой технологии Hyper - Threading (Примечание: этот рисунок демонстрирует лишь концепцию, заключенную в технологии Hyper -Threading, и не свидетельствует об использовании ресурсов любого существующего процессора или прикладной программы).

Зарубежные суперкомпьютеры Организация TOP500 Super computer sites с 1993 года публикует статистику по500 наиболее мощным суперкомпьютерам. По данным на июнь 2003 года 5 лучших компьютеров: 1. Система Earth Simulator (ES), созданная японскими агентствами NASDA, JAERI and JAMSTEC с производительностью 40 TFLOPS, предназначена для точного прогнозирования погодных условий Организация TOP500 Super computer sites с 1993 года публикует статистику по500 наиболее мощным суперкомпьютерам. По данным на июнь 2003 года 5 лучших компьютеров: 1. Система Earth Simulator (ES), созданная японскими агентствами NASDA, JAERI and JAMSTEC с производительностью 40 TFLOPS, предназначена для точного прогнозирования погодных условий

2. Компьютер ASCI Q. Национальная лаборатория США, г. Лос - Аламос. Производитель Hewlett - Packard серверов Alpha Server ES45s, 12288процессоров EV ГГц. Быстродействие 13,88 TFLOPS.Суперкомпьютерная система Q в Национальной лаборатории Лос Аламоса (LANL) -компонент Программы Углубленных Моделирований и вычислений (ASCI) -сотрудничества между департаментом Ядерной Безопасности Министерства Энергетики США и национальных лабораторий Лос Аламоса. Задачей ASCI является создание и использование возможностей для обеспечения безопасности хранения ядерного запаса. 2. Компьютер ASCI Q. Национальная лаборатория США, г. Лос - Аламос. Производитель Hewlett - Packard серверов Alpha Server ES45s, 12288процессоров EV ГГц. Быстродействие 13,88 TFLOPS.Суперкомпьютерная система Q в Национальной лаборатории Лос Аламоса (LANL) -компонент Программы Углубленных Моделирований и вычислений (ASCI) -сотрудничества между департаментом Ядерной Безопасности Министерства Энергетики США и национальных лабораторий Лос Аламоса. Задачей ASCI является создание и использование возможностей для обеспечения безопасности хранения ядерного запаса.

3. Кластер G5 в Блэксбурге, США, содержит 1100 компонентов Apple G5, каждый из которых содержит 970 процессоров IBM Power PC, частотой в 2GHz. Каждый узел имеет 4GBКЭШ-памяти и 160GB SATA накопителей. 176TB общих накопителей. 4 главных узла для запуска компиляций/работы. 1 узел управления. Быстродействие 10,28 TFLOPS. Производитель – Apple G5/Mellanox. 3. Кластер G5 в Блэксбурге, США, содержит 1100 компонентов Apple G5, каждый из которых содержит 970 процессоров IBM Power PC, частотой в 2GHz. Каждый узел имеет 4GBКЭШ-памяти и 160GB SATA накопителей. 176TB общих накопителей. 4 главных узла для запуска компиляций/работы. 1 узел управления. Быстродействие 10,28 TFLOPS. Производитель – Apple G5/Mellanox.

Tungsten, самыйпоследний кластер NCSA, будет использовать более чем 1450 двойных процессоровDell PowerEdge, 1750 серверов, управляемых Red Hat Linux, специальную cетьвысокого быстродействия Myrinet 2000, группу ввода-вывода с более чем 120 TBпамяти. Этот комплекс создан для вычислений по решению проблем окружающейсреды. Как ожидается, Tungsten будет обладать производительностью в 17.7TFLOPS. Tungsten, самыйпоследний кластер NCSA, будет использовать более чем 1450 двойных процессоровDell PowerEdge, 1750 серверов, управляемых Red Hat Linux, специальную cетьвысокого быстродействия Myrinet 2000, группу ввода-вывода с более чем 120 TBпамяти. Этот комплекс создан для вычислений по решению проблем окружающейсреды. Как ожидается, Tungsten будет обладать производительностью в 17.7TFLOPS.

Тихоокеанская Северо-западная Национальная лаборатория Ричланда, США, обладает пятым в мире по производительности суперкомпьютером MPP2. Его производительность равняется 11 TFLOPS? Что достигнуто благодаря 980 процессорам HP/Linux Titanium 2 (Madison), каждый с тактовой частотой в 1,5 ГГц. Система управляется операционной системой Linux версии Red Hat Linux Advanced Server. Комплекс предназначен для решения сложных вычислительных процессов, связанных с экологическими и биологическими процессами. Тихоокеанская Северо-западная Национальная лаборатория Ричланда, США, обладает пятым в мире по производительности суперкомпьютером MPP2. Его производительность равняется 11 TFLOPS? Что достигнуто благодаря 980 процессорам HP/Linux Titanium 2 (Madison), каждый с тактовой частотой в 1,5 ГГц. Система управляется операционной системой Linux версии Red Hat Linux Advanced Server. Комплекс предназначен для решения сложных вычислительных процессов, связанных с экологическими и биологическими процессами.

Заключение К сожалению, чудеса в нашей жизни совершаются редко. Гигантская производительность параллельных компьютеров и суперЭВМ с лихвой компенсируется стоимостью и сложностью их использования. Но даже вопросы, возникающие вокруг суперкомпьютеров, ставят в тупик. Например, простой примеры жизни: землекоп выкопает яму за один час. Как вы думаете, 60 землекопов выкопают яму за одну минуту? Так и в компьютере: начиная с некоторого момента, они будут просто мешать друг другу, не ускоряя, а замедляя работу. Но все вопросы, сопровождающие суперкомпьютер, конечно же, решаются. Да, использовать суперкомпьютер сложнее, чем PC: нужны дополнительные знания и технологии, высококвалифицированные специалисты, более сложная структура информации. Написать эффективную параллельную программу сложнее, чем последовательную, да и вообще создание параллельного программного обеспечения для параллельных компьютеров – основная проблема суперкомпьютерных вычислений. Но без суперЭВМ сегодня не обойтись, и отрадно, что в нашей стране есть понимание необходимости развития этих технологий. В ноябре 2000года в Президиуме РАН состоялось открытие межведомственного суперкомпьютерного центра. В процессе становления суперкомпьютерные центры в Дубне, Черноголовке, Институте прикладной математики им. М.В. Келдыша и т.п.Создана и развивается линия отечественных суперкомпьютеров МВС-100. За рубежом также происходит интенсивное развитие суперкомпьютеров всех типов(векторные, кластерные и т.п.), и использование их практически во всех отраслях человеческой жизни. А иначе и нельзя, так как параллельные компьютеры и вычисления – не будущее, а реальность. К сожалению, чудеса в нашей жизни совершаются редко. Гигантская производительность параллельных компьютеров и суперЭВМ с лихвой компенсируется стоимостью и сложностью их использования. Но даже вопросы, возникающие вокруг суперкомпьютеров, ставят в тупик. Например, простой примеры жизни: землекоп выкопает яму за один час. Как вы думаете, 60 землекопов выкопают яму за одну минуту? Так и в компьютере: начиная с некоторого момента, они будут просто мешать друг другу, не ускоряя, а замедляя работу. Но все вопросы, сопровождающие суперкомпьютер, конечно же, решаются. Да, использовать суперкомпьютер сложнее, чем PC: нужны дополнительные знания и технологии, высококвалифицированные специалисты, более сложная структура информации. Написать эффективную параллельную программу сложнее, чем последовательную, да и вообще создание параллельного программного обеспечения для параллельных компьютеров – основная проблема суперкомпьютерных вычислений. Но без суперЭВМ сегодня не обойтись, и отрадно, что в нашей стране есть понимание необходимости развития этих технологий. В ноябре 2000года в Президиуме РАН состоялось открытие межведомственного суперкомпьютерного центра. В процессе становления суперкомпьютерные центры в Дубне, Черноголовке, Институте прикладной математики им. М.В. Келдыша и т.п.Создана и развивается линия отечественных суперкомпьютеров МВС-100. За рубежом также происходит интенсивное развитие суперкомпьютеров всех типов(векторные, кластерные и т.п.), и использование их практически во всех отраслях человеческой жизни. А иначе и нельзя, так как параллельные компьютеры и вычисления – не будущее, а реальность.