Суперкомпьютеры
Категория реферата: Рефераты по информатике, программированию
Теги реферата: реферат анализ, история государства и права шпаргалки
Добавил(а) на сайт: Shandarov.
1 2 | Следующая страница реферата
МИНИСТЕРСТВО ОБРАЗОВАНИЯ РФ
ЧИТИНСКИЙ ИНСТИТУТ ИРКУТСКОЙ ГОСУДАРСТВЕННОЙ
ЭКОНОМИЧЕСКОЙ АКАДЕМИИ
Факультет: Финансово-информационный
Кафедра: ВМ, ВТ и АСУ
Специальность: Прикладная информатика в экономике
Курсовая работа
По дисциплине: Вычислительные системы
На тему: Суперкомпьютеры
Выполнил: Любар А.Ю. студент 2 курса гр. ПивЭ-99
Проверил:
Пригляднов Б.И.
Чита2001
СОДЕРЖАНИЕ
1. ВВЕДЕНИЕ
2. СФЕРЫ ПРИМЕНЕНИЯ СУПЕРКОМПЬЮТЕРОВ
3. СУПЕРКОМПЬЮТЕРЫ В РОССИИ
4. СУПЕРКОМПЮЬТЕРЫ, КАК ЭТО?
5. ВСЕ НОВОЕ – ЭТО ХОРОШО ЗАБЫТОЕ СТАРОЕ
6. АРХИТЕКТУРА СОВРЕМЕННЫХ СУПЕРЭВМ
7. ОЦЕНКА ПРОИЗВОДИТЕЛЬНОСТИ СУПЕРЭВМ
8. ЗАКЛЮЧЕНИЕ
9. ИСПОЛЬЗУЕМАЯ ЛИТЕРАТУРА
Введение
Диалектическая спираль развития компьютерных технологий совершила свой
очередной виток - опять, как и десять лет назад, в соответствии с
требованиями жизни, в моду входят суперкомпьютерные архитектуры.
Безусловно, это уже не те монстры, которые помнят ветераны - новые
технологии и требовательный рынок коммерческих применений существенно
изменили облик современного суперкомпьютера, Теперь это не огромные шкафы с
уникальной аппаратурой, вокруг которой колдуют шаманы от информатики, а
вполне эргономичные системы с унифицированным программным обеспечением, совместимые со своими младшими собратьями. Рассмотрим основные области
применения суперЭВМ и проанализируем особенности различных типов
архитектур, характерных для современных суперкомпьютеров.
Что такое суперЭВМ? Оксфордский толковый словарь по вычислительной технике, изданный почти 10 лет назад, в 1986 году, сообщает, что суперкомпьютер -
это очень мощная ЭВМ с производительностью свыше 10 MFLOPS (миллионов
операций с плавающей запятой в секунду). Сегодня этот результат перекрывают
уже не только рабочие станции, но даже, по крайней мере, по пиковой
производительности, и ПК. В начале 90-х годов границу проводили уже около
отметки в 300 MFLOPS.
Однако такой подход к определению суперЭВМ не совсем корректен. Очевидно, что, современный двухпроцессорный компьютер Cray C90 любой здравомыслящий
человек назовет суперЭВМ. А тем не менее, его пиковая производительность
меньше 2 GFLOPS. С этим вопросом тесно связаны и ограничения (ранее -
КОКОМ, теперь - Госдепартамента США) на поставку высокопроизводительных
средств вычислительной техники другим странам. Компьютеры с
производительностью свыше 10 000 млн. теоретических операций в сек.
(MTOPS), согласно определению Госдепартамента США, считаются
суперкомпьютерами.
Более корректно перечислить основные признаки, характеризующие суперЭВМ, среди которых кроме высокой производительности следует отметить:
. самый современный технологический уровень (например, GaAs-технология);
. специфические архитектурные решения, направленные на повышение быстродействия (например, наличие операций над векторами);
. цена, обычно свыше 1-2 млн. долл.
В телеконференции USENET по суперкомпьютерам в связи с быстрым прогрессом в
технологии RISC-микропроцессоров и соответствующим ростом их
производительности был как-то задан вопрос: когда рабочая станция
превратится в суперЭВМ? На что последовал ответ: "Когда она будет стоить
свыше 1 млн. долларов". Для иллюстрации можно отметить, что компьютер Cray-
1 в свое время стоил около 8 млн. долларов, а анонсированные в этом году
суперкомпьютеры Сгау Т90, имеющие намного более высокую производительность,
- от 2.5 до 35 млн. долл. Стоимость создания суперкомпьютерной MPP-системы
в проекте лаборатории Sandia Министерства энергетики США составляет около
46 млн. долларов.
Вместе с тем, существуют компьютеры, имеющие все перечисленные выше
характеристики суперЭВМ, за исключением цены, которая для них составляет от
нескольких сотен до 2 млн. долларов. Речь идет о мини-суперЭВМ, обладающим
высокой производительностью, уступающей, однако, большим суперЭВМ. При этом
у минисуперкомпьютеров, как правило, заметно лучше соотношение
цена/производительность и существенно ниже эксплуатационные расходы:
система охлаждения, электропитания, требования к площади помещения и др.
Данные компьютеры ориентированы на менее крупные вычислительные центры -
уровня факультета, а не всего университета или корпорации. Примеры таких
ЭВМ - Cray J90, Convex C38XX и, возможно, C4/XA. К ним можно отнести, также
и современные суперкомпьютерные системы на базе RISC-микропроцессоров, например, IBM SP2, SGI POWER CHALLENGE, DEC AlphaServer 8200/8400 и др.
С точки зрения архитектуры минисуперкомпьютеры не представляют собой
некоторое особенное направление, поэтому в дальнейшем они отдельно не
рассматриваются.
Сферы применения суперкомпьютеров
Для каких применений нужна столь дорогостоящая техника? Может показаться, что с ростом производительности настольных ПК и рабочих станций, а также
серверов, сама потребность в суперЭВМ будет снижаться. Это не так. С одной
стороны, целый ряд приложений может теперь успешно выполняться на рабочих
станциях, но с другой стороны, время показало, что устойчивой тенденцией
является появление все новых приложений, для которых необходимо
использовать суперЭВМ.
Прежде всего следует указать на процесс проникновения суперЭВМ в совершенно
недоступную для них ранее коммерческую сферу. Речь идет не только скажем, о
графических приложениях для кино и телевидения, где требуется все та же
высокая производительность на операциях с плавающей запятой, а прежде всего
о задачах, предполагающих интенсивную (в том числе, и оперативную)
обработку транзакций для сверхбольших БД. В этот класс задач можно отнести
также системы поддержки принятия решений и организация информационных
складов. Конечно, можно сказать, что для работы с подобными приложениями в
первую очередь необходимы высокая производительность ввода-вывода и
быстродействие при выполнении целочисленных операций, а компьютерные
системы, наиболее оптимальные для таких приложений, например, MPP-системы
Himalaya компании Tandem, SMP-компьютеры SGI CHAL ENGE, AlphaServer 8400 от
DEC - это не совсем суперЭВМ. Но следует вспомнить, что такие требования
возникают, в частности, со стороны ряда приложений ядерной физики, например, при обработке результатов экспериментов на ускорителях
элементарных частиц. А ведь ядерная физика - классическая область
применения суперЭВМ со дня их возникновения.
Как бы то ни было, наметилась явная тенденция к сближению понятий
"мэйнфрейм", "многопроцессорный сервер" и "суперЭВМ". Нелишне заметить, что
это происходит на фоне начавшегося во многих областях массированного
перехода к централизации и укрупнению в противоположность процессу
разукрупненияи децентрализации.
Традиционной сферой применения суперкомпьютеров всегда были научные
исследования: физика плазмы и статистическая механика, физика
конденсированных сред, молекулярная и атомная физика, теория элементарных
частиц, газовая динамика и теория турбулентности, астрофизика. В химии -
различные области вычислительной химии: квантовая химия (включая расчеты
электронной структуры для целей конструирования новых материалов, например, катализаторов и сверхпроводников), молекулярная динамика, химическая
кинетика, теория поверхностных явлений и химия твердого тела, конструирование лекарств. Естественно, что ряд областей применения
находится на стыках соответствующих наук, например, химии и биологии, и
перекрывается с техническими приложениями. Так, задачи метеорологии, изучение атмосферных явлений и, в первую очередь, задача долгосрочного
прогноза погоды, для решения которой постоянно не хватает мощностей
современных суперЭВМ, тесно связаны с решением ряда перечисленных выше
проблем физики. Среди технических проблем, для решения которых используются
суперкомпьютеры, задачи аэрокосмической и автомобильной промышленности, ядерной энергетики, предсказания и разработки месторождений полезных
ископаемых, нефтедобывающей и газовой промышленности (в том числе проблемы
эффективной эксплуатации месторождений, особенно трехмерные задачи их
исследования), и, наконец, конструирование новых микропроцессоров и
компьютеров, в первую очередь самих суперЭВМ.
Суперкомпьютеры традиционно применяются для военных целей. Кроме очевидных
задач разработки оружия массового уничтожения и конструирования самолетов и
ракет, можно упомянуть, например, конструирование бесшумных подводных лодок
и др. Самый знаменитый пример - это американская программа СОИ. Уже
упоминавшийся MPP-компьютер Министерства энергетики США будет применяться
для моделирования ядерного оружия, что позволит вообще отменить ядерные
испытания в этой стране.
Анализируя потенциальные потребности в суперЭВМ существующих сегодня
приложений, можно условно разбить их на два класса. К первому можно отнести
приложения, в которых известно, какой уровень производительности надо
достигнуть в каждом конкретном случае, например, долгосрочный прогноз
погоды. Ко второму можно отнести задачи, для которых характерен быстрый
рост вычислительных затрат с увеличением размера исследуемого объекта.
Например, в квантовой химии неэмпирические расчеты электронной структуры
молекул требуют затрат вычислительных ресурсов, пропорциональных N^4 или
N^5, где N условно характеризует размер молекулы. Сейчас многие
молекулярные системы вынужденно исследуются в упрощенном модельном
представлении. Имея в резерве еще более крупные молекулярные образования
(биологические системы, кластеры и т.д.), квантовая химия дает пример
приложения, являющегося "потенциально бесконечным" пользователем
суперкомпьютерных ресурсов.
Есть еще одна проблема применения суперЭВМ, о которой необходимо сказать -
это визуализация данных, полученных в результате выполнения расчетов.
Часто, например, при решении дифференциальных уравнений методом сеток, приходится сталкиваться с гигантскими объемами результатов, которые в
числовой форме человек просто не в состоянии обработать. Здесь во многих
случаях необходимо обратиться к графической форме представления информации.
В любом случае возникает задача транспортировки информации по компьютерной
сети. Решению этого комплекса проблем в последнее время уделяется все
большее внимание. В частности, знаменитый Национальный центр
суперкомпьютерных приложений США (NCSA) совместно с компанией Silicon
Graphics ведет работы по программе "суперкомпьютерного окружения будущего".
В этом проекте предполагается интегрировать возможности суперкомпьютеров
POWER CHALLENGE и средств визуализации компании SGI со средствами
информационной супермагистрали.
Суперкомпьютеры в России
СуперЭВМ являются национальным достоянием, и их разработка и производство
несомненно должны быть одним из приоритетов государственной технической
политики стран, являющихся мировыми лидерами в области науки и техники.
Блестящим примером глубокого понимания всего комплекса соответствующих
проблем является статья известного нобелевского лауреата в области физики
К. Вильсона. Опубликованная свыше десять лет назад, она и сейчас
представляет интерес для российского читателя.
Практически единственными странами, разрабатывающими и производящими
суперЭВМ в больших масштабах, являются США и Япония. Свои суперкомпьютеры
были созданы в Индии и Китае. Большинство развитых стран, в том числе и ряд
государств Восточной Европы, предпочитают использовать суперкомпьютеры, произведенные в США и Японии.
Положение с разработками суперкомпьютеров в России, очевидно, оставляет
сегодня желать лучшего. Работы над отечественными суперЭВМ в последние годы
велись сразу в нескольких организациях. Под управлением академика
В.А.Мельникова была разработана векторная суперЭВМ "Электроника CC-100" с
архитектурой, напоминающей Сгау-1. В ИТМиВТ РАН проводятся работы по
созданию суперкомпьютеров "Эльбрус-3". Этот компьютер может иметь до 16
процессоров с тактовой частотой 10 нс. По оценкам разработчиков, на тестах
LINPACK при N = 100 быстродействие процессора составит 200 MFL0PS, при N =
1000 - 370 MFLOPS. Другая разработка, выполненная в этом институте, -
Модульный Конвейерный Процессор (МКП), в котором используется оригинальная
векторная архитектура, однако по быстродействию он, вероятно, должен
уступать "Эльбрус-3".
Другим центром работ над отечественными суперкомпьютерами является
известный своими работами по ЕС ЭВМ НИЦЭВТ. Там был выполнен ряд интересных
разработок - различные модели векторных суперЭВМ ЕС 1191 на ECL-технологии
и идут работы над новым суперкомпьютером "АМУР", в котором используется
КМОП-технология. Ряд организаций во главе с ИПМ РАН ведут работы по
созданию MPP-компьютера МВС-100, в процессорных элементах которого
используются микропроцессоры i860XP, а для организации коммуникаций
применяются транспьютеры Т805. Хотя в наличии имеются опытные образцы
некоторых из вышеупомянутых отечественных компьютеров, ни один из них
промышленно не производится.
Положение с оснащенностью российских организаций суперкомпьютерами, пожалуй, еще хуже. Мы ограничимся информацией о состоянии дел и
перспективах на будущее в исследовательских институтах и вузах, которые, как было сказано выше, являются одними из основных потенциальных
пользователей суперЭВМ.
В большинстве инсталляций суперкомпьютеров используется вероятно, продукция
фирмы Convex. В нескольких организациях эксплуатируются старые модели
минисуперкомпьютеров серий Clxx, С2хх, которые по производительности уже
уступают современным рабочим станциям. В Санкт-Петербурге в системе
Госкомвуза инсталлирована минисуперЭВМ Convex серии С3800, в Москве в ИПМ
РАН недавно установлена суперкомпьютерная система SPP 1000/CD. Имеются
планы инсталляции и других суперкомпьютеров (например, SGI POWER CHALLENGE)
в ряде институтов РАН.
Между тем отсутствие возможностей применения суперЭВМ сдерживает развитие
отечественной науки и делает принципиально невозможным успешное развитие
целых направлений научных исследований. Приобретение одногодвух, даже очень
мощных, суперкомпьютеров не поможет решить данную проблему. И дело не
только в стоимости их приобретения и затрат на поддержание
работоспособности (включая электропитание и охлаждение). Существует еще
целый ряд причин (например, доставка информации по компьютерной сети), препятствующих эффективному использованию суперЭВМ.
Более целесообразным представляется подход, предложенный российским Фондом
фундаментальных исследований. Разработанная "Программа создания комплексных
сетей связи и баз данных фундаментальной науки и образования" на 1995-1998
гг. предусматривает организацию целого ряда региональных и предметно-
ориентированных суперкомпьютерных центров. В таких центрах могут быть
инсталлированы, например, относительно дешевые минисуперкомпьютеры, имеющие
лучшее отношение стоимость/производительность. Собственно говоря, достаточно только обратиться к списку ТОР500, чтобы обнаружить явную
тенденцию к вытеснению больших (и дорогих) суперЭВМ относительно недорогими
суперкомпьютерами, которым уже сейчас под силу решение львиной доли
потенциальных задач.
Что касается отечественных суперЭВМ, то без необходимой государственной
поддержки проектов по их разработке не приходиться рассчитывать на создание
промышленных образцов в ближайшие 1-2 года, и вряд ли такие компьютеры
смогут составить основу парка суперЭВМ в создающихся сегодня отечественных
суперкомпьютерных центрах.
Суперкомпьютеры - как это?
Ну что, похоже суперкомпьютеры и в самом деле имеют право на существование.
Теперь нужно прояснить, по всей видимости, основной вертящийся на языке
вопрос - почему они считают так быстро? Вариантов ответа может быть
несколько, среди которых два имеют явное преимущество: развитие элементной
базы и использование новых решений в архитектуре компьютеров.
Попробуем разобраться, какой из факторов является решающим в достижении
современных фантастических показателей производительности. Для разрешения
этого вопроса обратимся к историческим фактам. Известно, что на компьютере
EDSAC (1949 г.), имевшего время такта 2мкс, можно было выполнить 2*n
арифметических операций за 18*n мс, то есть в среднем 100 арифметических
операций в секунду. Сравним с современным суперкомпьютером CRAY C90: время
такта приблизительно 4нс, а пиковая производительность около 1 миллиарда
арифметических операций в секунду.
Что же получается? Производительность компьютеров за этот период выросла в
приблизительно в десять миллионов раз. Уменьшение времени такта является
прямым способом увеличением производительности, однако эта составляющая (с
2мкс до 4нс) в общем объеме дает вклад лишь в 500 раз. Откуда же взялось
остальное? Ответ очевиден - использование новых решений в архитектуре
компьютеров, среди которых основное место занимает принцип параллельной
обработки данных.
Данный принцип, воплощая идею одновременного выполнения нескольких
действий, имеет две разновидности: конвейерность и собственно
параллельность. Оба вида параллельной обработки интуитивно понятны, поэтому
сделаем лишь небольшие пояснения.
Параллельная обработка. Если некое устройство выполняет одну операцию за
единицу времени, то тысячу операций оно выполнит за тысячу единиц. Если
предположить, что есть пять таких же независимых устройств, способных
работать одновременно, то ту же тысячу операций система из пяти устройств
может выполнить уже не за тысячу, а за двести единиц времени. Аналогично
система из N устройств ту же работу выполнит за 1000/N единиц времени.
Подобные аналогии можно найти и в жизни: если один солдат вскопает огород
за 10 часов, то рота солдат из пятидесяти человек с такими же
способностями, работая одновременно, справятся с той же работой за 12 минут
- принцип параллельности в действии!
Конвейерная обработка. Что необходимо для сложения двух вещественных чисел, представленных в форме с плавающей запятой? Целое множество мелких операций
таких, как сравнение порядков, выравнивание порядков, сложение мантисс, нормализация и т.п. Процессоры первых компьютеров выполняли все эти
"микрооперации" для каждой пары аргументов последовательно одна за одной до
тех пор, пока не доходили до окончательного результата, и лишь после этого
переходили к обработке следующей пары слагаемых.
Идея конвейерной обработки заключается в выделении отдельных этапов
выполнения общей операции, причем каждый этап, выполнив свою работу, передавал бы результат следующему, одновременно принимая новую порцию
входных данных. Получаем очевидный выигрыш в скорости обработки за счет
совмещения прежде разнесенных во времени операций. Предположим, что в
операции можно выделить пять микроопераций, каждая из которых выполняется
за одну единицу времени. Если есть одно неделимое последовательное
устройство, то 100 пар аргументов оно обработает за 500 единиц. Если каждую
микрооперацию выделить в отдельный этап (или иначе говорят - ступень)
конвейерного устройства, то на пятой единице времени на разной стадии
обработки такого устройства будут находится первые пять пар аргументов, а
весь набор из ста пар будет обработан за 5+99=104 единицы времени -
ускорение по сравнению с последовательным устройством почти в пять раз (по
числу ступеней конвейера).
Казалось бы конвейерную обработку можно с успехом заменить обычным
параллелизмом, для чего продублировать основное устройство столько раз, сколько ступеней конвейера предполагается выделить. В самом деле, пять
устройств предыдущего примера обработают 100 пар аргументов за 100 единиц
времени, что быстрее времени работы конвейерного устройства! В чем же дело?
Ответ прост, увеличив в пять раз число устройств, мы значительно
увеличиваем как объем аппаратуры, так и ее стоимость. Представьте себе, что
на автозаводе решили убрать конвейер, сохранив темпы выпуска автомобилей.
Если раньше на конвейере одновременно находилась тысяча автомобилей, то
действуя по аналогии с предыдущим примером надо набрать тысячу бригад, каждая из которых (1) в состоянии полностью собрать автомобиль от начала до
конца, выполнив сотни разного рода операций, и (2) сделать это за то же
время, что машина прежде находилась на конвейере. Сегодня параллелизмом в
архитектуре компьютеров уже мало кого удивишь. Все современные
микропроцессоры, будь то Pentium II или PA-8200, MIPS R10000 или Power2
SuperChip используют тот или иной вид параллельной обработки. На
презентациях новых чипов и в пресс-релизах корпораций это преподносится как
последнее слово техники и передовой край науки, и это действительно так, если рассматривать реализацию этих принципов именно в рамках одного
кристалла.
Вместе с тем, сами эти идеи появились очень давно. Изначально они
внедрялись в самых передовых, а потому единичных, компьютерах своего
времени. Затем после должной отработки технологии и удешевления
производства они спускались в компьютеры среднего класса, и, наконец, сегодня все это в полном объеме воплощается в рабочих станциях и
персональных компьютерах.
Все новое - это хорошо забытое старое.
Для того чтобы убедиться, что все основные нововведения в архитектуре
современных процессоров на самом деле использовались еще со времен, когда
ни микропроцессоров, ни понятия суперкомпьютеров еще не было, совершим
маленький экскурс в историю, начав практически с момента рождения первых
ЭВМ.
Все самые первые компьютеры, например, EDSAC, EDVAC, UNIVAC, сначала
считывали данные последовательно бит за битом из памяти, а затем их
аналогично обрабатывали в арифметическом устройстве.
1953 г. Первым коммерчески доступным компьютером, использующим разрядно-
параллельную память (на CRT) и разрядно-параллельную арифметику, стал
компьютер IBM 701. К слову будет сказано, наибольшую популярность в то
время получила модель IBM 704 (1955 г.), проданной в количестве 150
экземпляров (!), в которой, помимо упомянутых особенностей, была впервые
применена память на ферритовых сердечниках и аппаратное арифметическое
устройство с плавающей точкой.
1958г. Процессоры первых компьютеров сами управляли вводом/выводом. Однако
скорость работы самого быстрого внешнего устройства, а по тем временам это
магнитная лента, была в 1000 раз меньше скорости процессора, поэтому во
время операций ввода/вывода процессор фактически простаивал. В 1958г. к
компьютеру IBM 704 присоединили 6 независимых процессоров ввода/вывода, которые после получения команд могли работать параллельно с основным
процессором, а сам компьютер переименовали в IBM 709. Данная модель
получилась удивительно удачной, так как вместе с модификациями было продано
около 400 экземпляров, причем последний был выключен в 1975 году - 20 лет
существования!
1961г. Создается компьютер IBM STRETCH, имеющий две принципиально важные
особенности: опережающий просмотр вперед для выборки команд и расслоение
памяти на два банка для согласования низкой скорости выборки из памяти и
скорости выполнения операций.
1963г. В Манчестерском университете разработан компьютер ATLAS, использующий конвейерный принцип выполнения команд. Выполнение команд
разбито на 4 стадии: выборка команды, вычисление адреса операнда, выборка
операнда и выполнение операции, позволившие уменьшить время выполнения
команд в среднем с 6 мкс до 1,6 мкс. Справедливости ради надо отметить, что
данный компьютер вообще оставил заметный след в истории развития
вычислительной техники: помимо сказанного, в нем впервые была использована
мультипрограммная операционная система, основанная на использовании
виртуальной памяти и системы прерываний.
1964г. Фирма Control Data Corporation (CDC) при непосредственном участии
одного из ее основателей, Сеймура Р.Крэя (Seymour R.Cray) выпускает
компьютер CDC-6600 - первый компьютер, в котором использовалось несколько
независимых функциональных устройств. Для сравнения с сегодняшним днем
приведем некоторые параметры компьютера: время такта 100нс, производительность 2-3 млн. операций в секунду, оперативная память разбита
на 32 банка по 4096 60-ти разрядных слов, цикл памяти 1мкс, 10 независимых
функциональных устройств. Машина имела громадный успех на научном рынке, активно вытесняя машины фирмы IBM.
1969г. CDC выпускает компьютер CDC-7600 с восемью независимыми конвейерными функциональными устройствами - сочетание параллельной и конвейерной обработки.
Рекомендуем скачать другие рефераты по теме: доклад по обж, открытия реферат.
1 2 | Следующая страница реферата