Архітектура сучасних суперЕОМ
Що ж до скалярной обробки, то відповідна підсистема команд в японських суперкомп’ютерах Fujitsu і Hitachi сумісна з IBM/370, що має очевидні переваги. У цьому для буферизации скалярних даних використовується традиційна кеш-пам'ять. Навпаки, компанія Cray Research, починаючи з Сгау-1, відмовилася від використання кеш-пам'яті. Натомість у її комп’ютерах використовуються спеціальні… Читати ще >
Архітектура сучасних суперЕОМ (реферат, курсова, диплом, контрольна)
МОСКОВСЬКИЙ ИНЖЕНЕРНО-ФИЗИЧЕСКИЙ.
ИНСТИТУТ.
(ТЕХНІЧНИЙ УНИЕРСИТЕТ).
Студентки группы.
1998 г.
Архітектура сучасних суперЭВМ.
Діалектична спіраль розвитку комп’ютерних технологій зробила свою чергову виток — знову, як десять років у соответстви і з вимогами життя, в моду входять суперкомп’ютерні архітектури. Безумовно, це не є ті монстри, хто пам’ятає ветерани — нові технологій і вимогливий ринок комерційних застосувань істотно змінили образ сучасного суперкомп’ютера, Нині це не величезні шафи з унікальної апаратурою, навколо якої вже чаклують шамани від інформатики, а цілком эргономичные системи з уніфікованим програмним забезпеченням, сумісні відносини із своїми молодшими собратьями.
Що таке суперЕОМ? Комп’ютери з продуктивністю понад 10 000 млн. теоретичних операцій на сек. (MTOPS), за визначенням Держдепартаменту США, вважаються суперкомпьютерами. Слід зазначити та інші це основна прикмета, що характеризують суперЕОМ, серед яких, крім високої продуктивності: • найсучасніший технологічний рівень (наприклад, GaAs-технология); • специфічні архітектурні рішення, створені задля підвищення быстродействия (наприклад, наявність операцій над векторами); • ціна, зазвичай понад 1−2 млн долл.
Разом про те, існують комп’ютери, мають усі ці вище характеристики суперЕОМ, крім ціни, яка їм становить від кілька сотень до 2 млн. доларів. Йдеться мини-суперЭВМ, які мають високої продуктивністю, поступається, проте, великим суперЕОМ. У цьому у минисуперкомпьютеров, зазвичай, помітно краще співвідношення цена/производительность й суттєво нижче експлуатаційних витрат: система охолодження, електроживлення, вимоги на площу приміщення та інших. З погляду архітектури минисуперкомпьютеры уявити не можуть собою деяке особливе напрям, тому надалі вони окремо не рассматриваются.
Сфери застосування суперкомпьютеров.
Для яких застосувань потрібна настільки дорога техніка? Може видатися, що зі зростанням продуктивності настільних ПК та створення робочих станцій, і навіть серверів, сама потреба у суперЕОМ знижуватиметься. Це негаразд. З одного боку, низку додатків що тепер успішно виконуватися на робочих станціях, але з іншого боку, час показало, що стійкою тенденцією є нових додатків, котрим необхідно використовувати суперЭВМ.
Передусім слід зазначити процес проникнення суперЕОМ в цілком недоступну їм раніше комерційну сферу. Йдеться не лише скажімо, про графічних додатках для кіно України й телебачення, де потрібно той самий висока продуктивність на операції з плаваючою коми, а передусім про завданнях, які передбачають інтенсивну (у цьому числе, и оперативну) обробку транзакцій для надвеликих БД. У цілому цей клас завдань можна назвати також системи підтримки прийняття прийняття рішень та організація інформаційних складів. Звісно, можна сказати, що з роботи з цими додатками насамперед необхідні висока продуктивність введеннявиведення і швидкодія і під час цілочислових операцій, а комп’ютерні системи, найоптимальніші для таких додатків, наприклад, MPP-системы Himalaya компанії Tandem, SMP-компьютеры SGI CHAL ENGE, AlphaServer 8400 від DEC — не зовсім суперЕОМ. Але треба згадати, що такі вимоги виникають, зокрема, із боку ряду додатків ядерної фізики, наприклад, при обробці результатів експериментів на прискорювачах елементарних частинок. Адже ядерна фізика — класична область застосування суперЕОМ від часу їх возникновения.
Хай не пішли, намітилася явна тенденція до зближення понять «мэйнфрейм », «многопроцессорный сервер «і «суперЕОМ ». Не зайве зауважити, що це відбувається і натомість у багатьох областях масованого початку централізації і укрупнення на противагу процесу разукрупненияи децентрализации.
Традиційної сферою застосування суперкомп’ютерів завжди, були наукові дослідження: фізика плазми і статистична механіка, фізика конденсованих середовищ, молекулярна і атомна фізика, теорія елементарних частинок, газова динаміка і теорія турбулентності, астрофізика. У хімії - різні ділянки обчислювальної хімії: квантова хімія (включаючи розрахунки електронної структури з метою конструювання нових матеріалів, наприклад, каталізаторів і надпровідників), молекулярна динаміка, хімічна кінетика, теорія поверхневих явищ і хімія твердого тела, конструирование ліків. Природно, що кілька областей застосування перебуває в стиках відповідних наук, наприклад, хімії і біології, і перекривається з технічними додатками. Так, завдання метеорології, вивчення атмосферних явищ й у першу чергу, завдання довгострокового прогнозу погоди і, на вирішення якому безперервно бракує потужностей сучасних суперЕОМ, тісно пов’язані з рішенням низки перелічених вище проблем фізики. Серед технічні проблеми, на вирішення яких використовують суперкомп’ютери, відзначимо завдання аерокосмічній і автомобільної промисловості, ядерної енергетики, передбачення і розробки родовищ з корисними копалинами, нафтовидобувних і газової промисловості (зокрема проблеми ефективної експлуатації родовищ, особливо тривимірні завдання дослідження), і, нарешті, конструювання нових мікропроцесорів і комп’ютерів, насамперед самих суперЭВМ.
Суперкомп’ютери традиційно застосовуються для воєнних цілей. Крім очевидних завдань розробки зброї масового нищення і конструювання літаків і ракет, можна згадати, наприклад, конструювання безшумних підводних човнів та інших. Найзнаменитіший приклад — це американська програма СОІ. Вже згадуваний MPP-компьютер Міністерства енергетики США буде застосовуватися для моделювання створення ядерної зброї, що дозволить взагалі скасувати ядерні випробування, у цієї стране.
Аналізуючи потенційні потреби у суперЕОМ що сьогодні додатків, можна умовно розбити їх у два класу. До першого можна віднести докладання, у яких відомо, який рівень продуктивності треба досягти у кожному даному випадку, наприклад, довгостроковий прогноз погоди. До другої можна віднести завдання, котрим характерний швидкий зростання обчислювальних витрат зі збільшенням розміру досліджуваного об'єкта. Наприклад, в квантової хімії неэмпирические розрахунки електронної структури молекул вимагають витрат обчислювальних ресурсів, пропорційних N4 чи И5, де N умовно характеризує розмір молекули. Тепер чимало людей молекулярні системи вимушено досліджуються в спрощеному модельному поданні. Маючи резерві ще більше великі молекулярні освіти (біологічні системи, кластери тощо.), квантова хімія дає приклад докладання, що є «потенційно нескінченним «користувачем суперкомп’ютерних ресурсов.
Є ще одне проблема застосування суперЕОМ, про яку слід сказати — це візуалізація даних, які є результатом виконання розрахунків. Часто, наприклад, під час вирішення диференційних рівнянь методом сіток, доводиться зіштовхуватися з гігантськими обсягами результатів, які в числової формі людина просто більше не може обробити. Тут у багатьох випадках необхідно звернутися до графічної формі подання. У кожному цьому випадку постає завдання транспортування інформації з комп’ютерної мережі. Рішенню цього технологічного комплексу негараздів у останнім часом приділяється все більшої уваги. Зокрема, знаменитий Національний центр суперкомп’ютерних додатків США (NCSA) спільно з компанією Silicon Graphics веде роботи за програмою «суперкомпьютерного оточення ». У цьому проекті передбачається інтегрувати можливості суперкомп’ютерів POWER CHALLENGE і коштів візуалізації компанії SGI із засобами інформаційної супермагистрали.
Архітектура сучасних суперЭВМ.
Наведемо класичну систематику Флинна.
Відповідно до ній, все комп’ютери діляться чотирма класу в залежність від числа потоків команд та об'єктивності даних. До першого класу (послідовні комп’ютери фон Неймана) належать звичайні скалярні однопроцессорные системи: одиночний потік команд — одиночний потік даних (SISD). Персональний комп’ютер має архітектуру SISD, причому байдуже, використовуються у ПК конвеєри з прискорення виконання операций.
Другий клас характеризується наявністю одиночного потоку команд, але множинного nomoka даних (SIMD). До цього архітектурному класу належать однопроцессорные векторні чи, точніше, векторноконвеєрні суперкомп’ютери, наприклад, Cray-1. І тут ми маємо справу з однією потоком (векторних) команд, а потоків даних — багато: кожен елемент вектора входить у окремий потік даних. А до того класу обчислювальних систем ставляться матричні процесори, наприклад, знаменитий свого часу ILLIAC-IV. Вони також мають векторні команди, і реалізують векторну обробку, але з у вигляді конвеєрів, як і векторних суперкомп’ютерах, і з допомогою матриць процессоров.
До третього класу — MIMD — ставляться системи, мають множинний потік команд і множинний потік даних. До нього належать як многопроцессорные векторні суперЕОМ, а й все многопроцессорные комп’ютери. Переважна більшість сучасних суперЕОМ мають архітектуру MIMD.
Четвертий клас, у систематики Флинна, MISD, технічно нескладне практичного интереса, по крайнього заходу для аналізованих нами комп’ютерів. Останнім часом у літературі часто застосовується також термін SPMD (одна програма — множинні дані). Він належить немає архітектурі комп’ютерів, а до моделі розпаралелювання програм, тож перестав бути розширенням систематики Флинна. SPMD зазвичай належить до MPP (тобто. MIMD) — системам і означає, кілька копій однієї програми паралельно виконуються у різних процессорных вузлах з різними данными.
Векторні суперкомп’ютери [SIMD].
Среди сучасних суперЕОМ цю архітектуру мають однопроцессорные векторні суперкомп’ютери. Типова схема однопроцессорного векторного суперкомп’ютера представлена з прикладу FACOM VP-200 японської фірми Fujitsu. Схожу архітектуру мають значення і інші векторні суперкомп’ютери, наприклад, фірм Cray Research і Convex. Спільним всім векторних суперкомп’ютерів є у системі команд векторних операцій, наприклад, складання векторів, припускають роботи з векторами певної довжини, скажімо, 64 елемента по 8 байт. У цих комп’ютерах операції з векторами зазвичай виконуються над векторными регістрами, що, проте, не є обов’язковим. Наявність регістрів маски дозволяє виконувати векторні команди не з усіх елементами векторів, лише з тих, куди вказує маска.
Після Cray-1 багато векторні суперкомп’ютери, зокрема ЕОМ серії VP від Fujitsu серії P. S компанії Hitachi, мають важливе засіб прискорення векторних вычислений, называемое зачеплення команд. Рассмотрим, например, таку послідовність команд, які працюють із векторными V-регистрами в комп’ютерах Cray:
V2=V0*V1 V4=V2+V3.
Зрозуміло, що друга команда неспроможна розпочати виконуватися відразу за першої - при цьому перша команда повинна сформувати регістр V2, що потребує певного кількості тактів. Засіб зачеплення дозволяє, тим щонайменше, другий команді на проведення, без очікування повного завершення першої: разом з появою першого результату в регістрі V2 його копія направляють у функціональне пристрій складання, і запускається друга команда. Зрозуміло, деталі можливостей зачеплення різних векторних команд відрізняються в різних ЭВМ.
Що ж до скалярной обробки, то відповідна підсистема команд в японських суперкомп’ютерах Fujitsu і Hitachi сумісна з IBM/370, що має очевидні переваги. У цьому для буферизации скалярних даних використовується традиційна кеш-пам'ять. Навпаки, компанія Cray Research, починаючи з Сгау-1, відмовилася від використання кеш-пам'яті. Натомість у її комп’ютерах використовуються спеціальні программно-адресуемые буферні Уі Трегістри. І лише останньої серії, Cray T90, було запроваджено проміжна кеш-пам'ять для скалярних операцій. Зазначимо, що у тракті оперативна пам’ять — векторні регістри проміжна буферна пам’ять відсутня, що зумовлює необхідність мати високу пропускну спроможність підсистеми оперативної пам’яті: щоб підтримувати високу швидкість обчислень, необхідно швидко завантажувати дані в векторні регістри і записувати результати знову на пам’ять. Та деякі векторні суперЕОМ, наприклад, IBM ES/9000, працюють із операндами-векторами, розташованими у оперативної пам’яті. Найімовірніше, такий є менш перспективною з погляду продуктивності, зокрема, бо підтримки високого темпу обчислень кожної векторної команди потрібно швидка вибірка векторних операндов з пам’яті і запис результатів обратно.
Многопроцессорные векторні суперкомп’ютери (MIMD).
Архітектура багатопроцесорних векторних комп’ютерів можна назвати дві найважливіші характеристики: симетричність (рівноправність) всіх процесорів системи та поділ усіма процесорами загального поля оперативної пам’яті. Такі комп’ютерні системи називаються сильно пов’язаними. Якщо однопроцессорных векторних ЕОМ до створення ефективної програми її слід розпаралелювати, то багатопроцесорних з’являється завдання розпаралелювання програми її виконання одночасно на кількох процессорах.
Завдання розпаралелювання є, мабуть, більш сложной, поскольку в ній потрібно організувати синхронізацію паралельно виконуються процесів. Практика показала можливості ефективного розпаралелювання значної частини алгоритмів для аналізованих сильно пов’язаних систем. Відповідний підхід до распараллеливанию за комп’ютерами називається іноді моделлю поділюваної загальної памяти.
Продуктивність деяких сучасних мікропроцесорів RISCархітектури стала що з продуктивністю процесорів векторних комп’ютерів. Як наслідок, з’явилися використовують ці досягнення суперЕОМ нової архітектури, — сильно пов’язані комп’ютери класу MIMD, які становлять симетричні многопроцессорные сервери із загальним полем оперативної пам’яті. У модулях пам’яті зазвичай використовується технологія DRAM, що дозволяє досягти великих обсягів пам’яті при щодо низькою ціні. Проте швидкість обміну даними між процесорами і пам’яттю в серверах в багато разів нижче, ніж пропускну здатність аналогічного тракту в векторних суперЕОМ, де оперативна пам’ять будується більш дорогий технології ЯВАМ. У цьому полягає одна з головних розбіжностей у підходах до суперкомпьютерным обчисленням, застосовуваним для багатопроцесорних векторних ЕОМ і SMP-серверов. У перших зазвичай є щодо мало векторних регістрів, тому, як зазначалось, підтримки високої продуктивності необхідно швидко завантажувати у яких дані чи, навпаки, записувати їх інформацію в оперативну пам’ять. Отже, потрібно висока продуктивність тракту процессор-память.
Кластери є дешевий спосіб нарощування продуктивності вже інстальованих комп’ютерів. Фактично кластер є набір з кількох ЕОМ, з'єднаних через деяку комунікаційну інфраструктуру. Як такий структури може бути звичайна комп’ютерна мережу, проте із міркувань підвищення продуктивності бажано мати високошвидкісні сполуки (FDDI/ATM/HiPPI тощо.). Кластери може бути утворені що з різних комп’ютерів (гетперогенные кластери), що з однакових (гомогенні кластери). Вочевидь, що це такі ставляться до класу MIMD. Кластери є класичний приклад слабко пов’язаних систем. У кластерных системах в організацію взаємодії між процесами, выполняющимися різними комп’ютерах під час вирішення одного завдання, застосовуються різні моделі обміну повідомленнями (PVM, MPI тощо.). Проте завдання розпаралелювання в системах з розподіленої між окремими комп’ютерами пам’яттю у межах цих моделей є набагато складнішим, ніж у моделі загального поля пам’яті, як, наприклад, в SMP-серверах. До цього слід додати суто апаратні проблеми наявності затримок при обмінах повідомленнями і підвищення швидкості передачі. Тому спектр завдань, що потенційно можуть ефективно вирішуватися на кластерных системах, проти симетричними сильно пов’язаними системами досить обмежений. Для паралельної обробки запитів до баз даних у таких системах також є свої власні подходы.
У кластери можуть об'єднуватися різні суперкомп’ютери. Можливість наявності значної частини процессорных вузлів в SP2 дозволяє одночасно віднести цей комп’ютер та до класу Mpp-систем.MPP-системы належать до класу MIMD. Якщо говорити про MPP-компьютерах з розподіленої пам’яттю і абстрагуватися від організації вводу-виводу, ця архітектура є природним розширенням кластерної на велика кількість вузлів. Тож таких систем характерні всі переваги й недоліки кластеров.
Завдяки масштабируемости, саме MPP-системы є сьогодні лідерами за досягнутою продуктивності комп’ютера; найяскравіший приклад цьому — Intel Paragon. З іншого боку, проблеми розпаралелювання в MPP-системах проти кластерами, що містять трохи процесорів, стають ще важче розв’язуються. З іншого боку, прирощення продуктивності зі зростанням числа процесорів зазвичай взагалі досить швидко убуває. Легко наростити теоретичну продуктивність ЕОМ, але набагато важче знайти завдання, які зуміли б ефективно завантажити процессорные узлы.
Сьогодні непогані багато додатків можуть ефективно виконуватися на Mppкомп’ютері, крім цього є ще проблема переносимості програм між Mpp-системами, мають різну архітектуру. Розпочата останні роки спроба стандартизації моделей обміну повідомленнями ще знімає всіх проблем. Ефективність розпаралелювання у часто дуже залежить від деталей архітектури Mpp-системы, наприклад топології сполуки процессорных узлов.
Самій ефективної було б топологія, у якій будь-який вузол міг би безпосередньо зв’язатися з іншою вузлом. Однак у MPP-системах це технічно важко можна реалізувати. Зазвичай процессорные вузли у сприйнятті сучасних MPPкомп’ютерах утворюють чи двумерную грати (наприклад, в SNI/Pyramid RM1000) чи гіперкуб (як і суперкомп’ютерах nCube [18]).
Коли щодо синхронізації паралельно виконуються в вузлах процесів необхідний обмін повідомленнями, які мають доходити із будь-якої вузла системи будь-якій іншій вузол, важливою характеристикою є діаметр системи с1 — максимальне відстань між вузлами. Що стосується двомірної грати d ~ sqrt (n), у разі гиперкуба d ~ 1n (n). Отже, при збільшенні кількості вузлів архітектура гиперкуба є выгодной.
Час передачі від вузла до вузлу залежить стартового затримки і швидкості передачі. У кожному разі під час передачі процессорные вузли встигають провести багато команд, і це співвідношення швидкодії процессорных вузлів і передавальної системи, мабуть, зберігатиметься — прогрес в продуктивності процесорів вулицю значно більше, ніж у пропускної здібності каналів зв’язку. Тому інфраструктура каналів зв’язку є однієї з головних компонентів Mpp-компьютера.
Попри всі труднощі, сфера застосування MPP-компьютеров потроху розширюється. Різні MPP-системы експлуатуються у багатьох провідних суперкомп’ютерних центрах світу, наочно випливає з списку ТОР500. Крім вже згадуваних, слід особливо відзначити комп’ютери Cray T3D і Cray ТЗЕ, що ілюструють те що, що світової лідер виробництва векторних суперЕОМ, компанія Cray Research, не орієнтується виключно на векторні системи. Нарешті, мушу згадати, що новітній суперкомп’ютерний проект міністерства енергетики США грунтуватиметься на MPP-системе з урахуванням Pentium Pro [10].
Заключение
.
Сьогодні у суперкомпьютерном світі спостерігається нову хвилю, викликана як успіхами у сфері мікропроцесорних технологій, і появою нового кола завдань, виходять далеко за межі традиційних науководослідницьких лабораторій. В наявності швидкий прогрес в продуктивності мікропроцесорів RISC-архитектуры, яка зростає помітно швидше, ніж продуктивність векторних процесорів. Наприклад, мікропроцесор HP РА- 8000 відстає від Cray T90 лише приблизно вдвічі. У результаті найближчим часом мабуть подальше витіснення векторних суперЕОМ комп’ютерами, використовуючи RISC-микропроцессоры, такі як, наприклад, IBM SP2, Convex/HP SPP, DEC AlphaServer 8400, SGI POWER CHALENGE. Підтвердженням цього стали результати рейтингу ТОР500, де лідерами по числу інсталяцій стали системи POWER CHALLENGE і SP2, випереджаючі моделі ведучого виробника суперкомп’ютерів — компанії Cray Research.
[1] ComputerWorld Росія, # 9, 1995. [2] К. Вильсон, в рб. «Високошвидкісні обчислення ». М. Радіо і Зв’язок, 1988, сс.12−48. [3]. Б. А. Головкин, «Паралельні обчислювальні системи ». М. Наука, 1980, 519 з. [4] Р. Хокни, К. Джессхоуп, «Паралельні ЕОМ. М. Радіо і Зв’язок, 1986, 390 з. [5] Flynn И., 7., IEEE Trans. Comput., 1972, о. С-21, N9, рр. 948−960. [6] Russel К.М., Commun. АСМ, 1978, v. 21, # 1, рр. 63−72. [7] Т. Мотоока, С. Томита, Х. Танака, Т. Сайто, Т. Уэхара, «Комп'ютери на СБИС », m.l. М. Світ, 1988, 388 з. [8] М. Кузьминский, Процесор РА-8000. Відкриті системи, # 5, 1995. [9] Відкриті системи сьогодні, # 11, 1995. [10] ComputerWorld Росія, ## 4, 6, 1995. [11] ComputerWorld Росія, # 8, 1995. [12] Відкриті системи сьогодні, # 9, 1995. [13] ComputerWorld Росія, # 2, 1995. [14] ComputerWorld Росія, # 12, 1995. [15] У. Шнитман, Системи Exemplar SPP1200. Відкриті системи, # 6, 1995. [16] М. Борисов, UNIX-кластеры. Відкриті системи, # 2, 1995, cc.22−28. [17] У. Шмідт, Системи IBM SP2. Відкриті системи, # 6, 1995. [18] М. Дубова, Суперкомп’ютери nCube. Відкриті системи, # 2, 1995, сс.42- 47. [19] Д. Французів, Тест оцінки продуктивності суперкомп’ютерів. Відкриті системи, # 6, 1995. [20] Д. Волков, Як оцінити робочу станцію. Відкриті системи, # 2, 1994, с.44−48. [21] А. Волков, Тести ТРС. СУБД, # 2, 1995, сс. 70−78.