Архитектура современных суперЭВМ
Категория реферата: Рефераты по информатике, программированию
Теги реферата: зимой сочинение, оформление доклада титульный лист
Добавил(а) на сайт: Lobanov.
Предыдущая страница реферата | 1 2
Со времен Cray-1 многие векторные суперкомпьютеры, в том числе ЭВМ
серии VP от Fujitsu и серии S компании Hitachi, имеют важное средство
ускорения векторных вычислений,называемое зацепление команд.
Рассмотрим,например, следующую последовательность команд, работающих с
векторными V-регистрами в компьютерах Cray:
V2=V0*V1
V4=V2+V3
Ясно, что вторая команда не может начать выполняться сразу вслед за первой - для этого первая команда должна сформировать регистр V2, что требует определенного количества тактов. Средство зацепления позволяет, тем не менее, второй команде начать выполнение, не дожидаясь полного завершения первой: одновременно с появлением первого результата в регистре V2 его копия направляется в функциональное устройство сложения, и запускается вторая команда. Разумеется, детали возможностей зацепления разных векторных команд отличаются у разных ЭВМ.
Что касается скалярной обработки, то соответствующая подсистема команд
в японских суперкомпьютерах Fujitsu и Hitachi совместима с IBM/370, что
имеет очевидные преимущества. При этом для буферизации скалярных данных
используется традиционная кэш-память. Напротив, компания Cray Research, начиная с Сгау-1, отказалась от применения кэш-памяти. Вместо этого в ее
компьютерах используются специальные программно-адресуемые буферные В- и Т-
регистры. И лишь в последней серии, Cray T90, была введена промежуточная
кэш-память для скалярных операций. Отметим, что на тракте оперативная
память - векторные регистры промежуточная буферная память отсутствует, что
вызывает необходимость иметь высокую пропускную способность подсистемы
оперативной памяти: чтобы поддерживать высокую скорость вычислений, необходимо быстро загружать данные в векторные регистры и записывать
результаты обратно в память. Но некоторые векторные суперЭВМ, например, IBM
ES/9000, работают с операндами-векторами, расположенными непосредственно в
оперативной памяти. Скорее всего, такой подход является менее перспективным
с точки зрения производительности, в частности, потому, что для поддержания
высокого темпа вычислений для каждой векторной команды требуется быстрая
выборка векторных операндов из памяти и запись результатов обратно.
Многопроцессорные векторные суперкомпьютеры (MIMD)
В архитектуре многопроцессорных векторных компьютеров можно отметить две важнейшие характеристики: симметричность (равноправность) всех процессоров системы и разделение всеми процессорами общего поля оперативной памяти. Подобные компьютерные системы называются сильно связанными. Если в однопроцессорных векторных ЭВМ для создания эффективной программы ее надо векторизовать, то в многопроцессорных появляется задача распараллеливания программы для ее выполнения одновременно на нескольких процессорах.
Задача распараллеливания является, пожалуй, более сложной,поскольку в
ней необходимо организовать синхронизацию параллельно выполняющихся
процессов. Практика показала возможности эффективного распараллеливания
большого числа алгоритмов для рассматриваемых сильно связанных систем.
Соответствующий подход к распараллеливанию на таких компьютерах называется
иногда моделью разделяемой общей памяти.
Производительность некоторых современных микропроцессоров RISC-
архитектуры стала сопоставимой с производительностью процессоров векторных
компьютеров. Как следствие этого, появились использующие эти достижения
суперЭВМ новой архитектуры, - сильно связанные компьютеры класса MIMD, представляющие собой симметричные многопроцессорные серверы с общим полем
оперативной памяти. В модулях памяти обычно используется технология DRAM, что позволяет достигнуть больших объемов памяти при относительно низкой
цене. Однако скорость обмена данными между процессорами и памятью в таких
серверах во много раз ниже, чем пропускная способность аналогичного тракта
в векторных суперЭВМ, где оперативная память строится на более дорогой
технологии ЯВАМ. В этом состоит одно из основных отличий в подходах к
суперкомпьютерным вычислениям, применяемым для многопроцессорных векторных
ЭВМ и SMP-серверов. В первых обычно имеется относительно небольшое число
векторных регистров, поэтому, как уже отмечалось, для поддержания высокой
производительности необходимо быстро загружать в них данные или, наоборот, записывать из них информацию в оперативную память. Таким образом, требуется
высокая производительность тракта процессор-память.
Кластеры являются самым дешевым способом наращивания
производительности уже инсталлированных компьютеров. Фактически кластер
представляет собой набор из нескольких ЭВМ, соединенных через некоторую
коммуникационную инфраструктуру. В качестве такой структуры может выступать
обычная компьютерная сеть, однако из соображений повышения
производительности желательно иметь высокоскоростные соединения
(FDDI/ATM/HiPPI и т.п.). Кластеры могут быть образованы как из различных
компьютеров (гетперогенные кластеры), так и из одинаковых (гомогенные
кластеры). Очевидно, что все такие системы относятся к классу MIMD.
Кластеры являются классическим примером слабо связанных систем. В
кластерных системах для организации взаимодействия между процессами, выполняющимися на разных компьютерах при решении одной задачи, применяются
различные модели обмена сообщениями (PVM, MPI и т.п.). Однако задача
распараллеливания в таких системах с распределенной между отдельными
компьютерами памятью в рамках этих моделей является гораздо более сложной, чем в модели общего поля памяти, как например, в SMP-серверах. К этому
следует добавить чисто аппаратные проблемы наличия задержек при обменах
сообщениями и повышения скорости передачи данных. Поэтому спектр задач, которые могут эффективно решаться на кластерных системах, по сравнению с
симметричными сильно связанными системами достаточно ограничен. Для
параллельной обработки запросов к базам данных в подобных системах также
имеются свои собственные подходы.
В кластеры могут объединяться различные суперкомпьютеры. Возможность наличия большого числа процессорных узлов в SP2 позволяет одновременно отнести этот компьютер и к классу Mpp-систем.MPP-системы принадлежат к классу MIMD. Если говорить об MPP-компьютерах с распределенной памятью и отвлечься от организации ввода-вывода, то эта архитектура является естественным расширением кластерной на большое число узлов. Поэтому для таких систем характерны все преимущества и недостатки кластеров.
Благодаря масштабируемости, именно MPP-системы являются сегодня лидерами по достигнутой производительности компьютера; наиболее яркий пример этому - Intel Paragon. С другой стороны, проблемы распараллеливания в MPP-системах по сравнению с кластерами, содержащими немного процессоров, становятся еще более трудно разрешимыми. Кроме того, приращение производительности с ростом числа процессоров обычно вообще довольно быстро убывает. Легко нарастить теоретическую производительность ЭВМ, но гораздо труднее найти задачи, которые сумели бы эффективно загрузить процессорные узлы.
Сегодня не так уж много приложений могут эффективно выполняться на Mpp-
компьютере, кроме этого имеется еще проблема переносимости программ между
Mpp-системами, имеющими различную архитектуру. Предпринятая в последние
годы попытка стандартизации моделей обмена сообщениями еще не снимает всех
проблем. Эффективность распараллеливания во многих случаях сильно зависит
от деталей архитектуры Mpp-системы, например топологии соединения
процессорных узлов.
Самой эффективной была бы топология, в которой любой узел мог бы напрямую связаться с любым другим узлом. Однако в MPP-системах это технически трудно реализуемо. Обычно процессорные узлы в современных MPP- компьютерах образуют или двумерную решетку (например, в SNI/Pyramid RM1000) или гиперкуб (как в суперкомпьютерах nCube [18]).
Поскольку для синхронизации параллельно выполняющихся в узлах процессов необходим обмен сообщениями, которые должны доходить из любого узла системы в любой другой узел, важной характеристикой является диаметр системы с1 - максимальное расстояние между узлами. В случае двухмерной решетки d ~ sqrt(n), в случае гиперкуба d ~ 1n(n). Таким образом, при увеличении числа узлов архитектура гиперкуба является более выгодной.
Время передачи информации от узла к узлу зависит от стартовой задержки и скорости передачи. В любом случае за время передачи процессорные узлы успевают выполнить много команд, и это соотношение быстродействия процессорных узлов и передающей системы, вероятно, будет сохраняться - прогресс в производительности процессоров гораздо больше, чем в пропускной способности каналов связи. Поэтому инфраструктура каналов связи является одного из главных компонентов Mpp-компьютера.
Несмотря на все сложности, сфера применения MPP-компьютеров понемногу
расширяется. Различные MPP-системы эксплуатируются во многих ведущих
суперкомпьютерных центрах мира, что наглядно следует из списка ТОР500.
Кроме уже упоминавшихся, следует особенно отметить компьютеры Cray T3D и
Cray ТЗЕ, которые иллюстрируют тот факт, что мировой лидер производства
векторных суперЭВМ, компания Cray Research, уже не ориентируется
исключительно на векторные системы. Наконец, нельзя не вспомнить, что
новейший суперкомпьютерный проект министерства энергетики США будет основан
на MPP-системе на базе Pentium Pro [10].
Заключение
Сегодня в суперкомпьютерном мире наблюдается новая волна, вызванная
как успехами в области микропроцессорных технологий, так и появлением
нового круга задач, выходящих за рамки традиционных научно-
исследовательских лабораторий. Налицо быстрый прогресс в производительности
микропроцессоров RISC-архитектуры, которая растет заметно быстрее, чем
производительность векторных процессоров. Например, микропроцессор HP РА-
8000 отстает от Cray T90 всего примерно в два раза. В результате в
ближайшее время вероятно дальнейшее вытеснение векторных суперЭВМ
компьютерами, использующими RISC-микропроцессоры, такими, как, например,
IBM SP2, Convex/HP SPP, DEC AlphaServer 8400, SGI POWER CHALENGE.
Подтверждением этого стали результаты рейтинга ТОР500, где лидерами по
числу инсталляций стали системы POWER CHALLENGE и SP2, опережающие модели
ведущего производителя суперкомпьютеров - компании Cray Research.
Литература
[1] ComputerWorld Россия, # 9, 1995.
[2] К.Вильсон, в сб. "Высокоскоростные вычисления". М. Радио и Связь, 1988, сс.12-48.
[3]. Б.А.Головкин, "Параллельные вычислительные системы". М.. Наука, 1980,
519 с.
[4] Р.Хокни, К.Джессхоуп, "Параллельные ЭВМ . М.. Радио и Связь, 1986, 390
с.
[5] Flynn И.,7., IEEE Trans. Comput., 1972, о.С-21, N9, рр. 948-960.
[6] Russel К.М., Commun. АСМ, 1978, v. 21, # 1, рр. 63-72.
[7] Т.Мотоока, С.Томита, Х.Танака, Т. Сайто, Т.Уэхара, "Компьютеры на
СБИС", m.l. М. Мир, 1988, 388 с.
[8] М.Кузьминский, Процессор РА-8000. Открытые системы, # 5, 1995.
[9] Открытые системы сегодня, # 11, 1995.
[10] ComputerWorld Россия, ## 4, 6, 1995.
[11] ComputerWorld Россия, # 8, 1995.
[12] Открытые системы сегодня, # 9, 1995.
[13] ComputerWorld Россия, # 2, 1995.
[14] ComputerWorld Россия, # 12, 1995.
[15] В. Шнитман, Системы Exemplar SPP1200. Открытые системы, # 6, 1995.
[16] М. Борисов, UNIX-кластеры. Открытые системы, # 2, 1995, cc.22-28.
[17] В. Шмидт, Системы IBM SP2. Открытые системы, # 6, 1995.
[18] Н. Дубова, Суперкомпьютеры nCube. Открытые системы, # 2, 1995, сс.42-
47.
[19] Д. Французов, Тест оценки производительности суперкомпьютеров.
Открытые системы, # 6, 1995.
[20] Д. Волков, Как оценить рабочую станцию. Открытые системы, # 2, 1994, с.44-48.
[21] А. Волков, Тесты ТРС. СУБД, # 2, 1995, сс. 70-78.
Скачали данный реферат: Efremij, Jahimovich, Babikov, Конон, Тимур, Андроника, Цулукидзе.
Последние просмотренные рефераты на тему: сочинение, рефераты бесплатно, решебник 10 11, матершинные частушки.
Предыдущая страница реферата | 1 2