Суперкомп'ютери
Конвейерная обробка. Що потрібно для складання двох речовинних чисел, які у формі з плаваючою коми? Ціле безліч дрібних операцій як-от порівняння порядків, вирівнювання порядків, складання мантисс, нормалізація тощо. Процесорам перших комп’ютерів виконували всі ці «микрооперации «кожної пари аргументів послідовно одна по одній до того часу, доки сягали остаточного результату, і лише після цього… Читати ще >
Суперкомп'ютери (реферат, курсова, диплом, контрольна)
МІНІСТЕРСТВО ОСВІТИ РФ.
ЧИТИНСКИЙ ІНСТИТУТ ІРКУТСЬКОЇ ГОСУДАРСТВЕННОЙ.
ЕКОНОМІЧНОЇ АКАДЕМИИ.
Факультет: Финансово-информационный.
Кафедра: ВМ, ЗТ і АСУ.
Спеціальність: Прикладна інформатика в экономике.
Курсова работа.
По дисципліни: Обчислювальні системы.
На тему: Суперкомпьютеры.
Виконав: Любар О. Ю. студент 2 курсу грн. ПивЭ-99.
Перевірив: Пригляднов Б.И.
Чита2001.
1. ЗАПРОВАДЖЕННЯ 2. СФЕРИ ЗАСТОСУВАННЯ СУПЕРКОМП’ЮТЕРІВ 3. СУПЕРКОМП’ЮТЕРИ У РОСІЇ 4. СУПЕРКОМПЮЬТЕРЫ, ЯК ЦЕ? 5. ВСЕ НОВЕ — ЦЕ ДОБРЕ ЗАБУТЕ СТАРЕ 6. АРХІТЕКТУРА СУЧАСНИХ СУПЕРЭВМ 7. ОЦІНКА ПРОДУКТИВНОСТІ СУПЕРЭВМ 8. ВИСНОВОК 9. ВИКОРИСТОВУВАНА ЛИТЕРАТУРА.
Діалектична спіраль розвитку комп’ютерних технологій зробила свій черговий виток — знову, як десять років у відповідність до вимогами життя, в моду входять суперкомп’ютерні архітектури. Безумовно, це не є ті монстри, хто пам’ятає ветерани — нові технологій і вимогливий ринок комерційних застосувань істотно змінили образ сучасного суперкомп’ютера, Нині це не величезні шафи з унікальної апаратурою, навколо якої вже чаклують шамани від інформатики, а цілком эргономичные системи з уніфікованим програмним забезпеченням, сумісні відносини із своїми молодшими побратимами. Розглянемо основні області застосування суперЕОМ і проаналізуємо особливості різних типів архітектур, притаманних сучасних суперкомп’ютерів. Що таке суперЕОМ? Оксфордський тлумачний словник по обчислювальної техніки, виданий майже 10 років тому вони, в 1986 року, повідомляє, що суперкомп’ютер — це надзвичайно потужна ЕОМ з продуктивністю понад 10 MFLOPS (мільйонів операцій із плаваючою коми в секунду). Але цей результат перекривають не тільки робочі станції, і навіть, по крайнього заходу, по пікової продуктивності, і ПК. На початку 1990;х років кордон проводили вже близько позначки 300 MFLOPS. Але такий підхід до визначення суперЕОМ ні коректний. Вочевидь, що, сучасний двухпроцессорный комп’ютер Cray C90 будь-який розсудливий людина назве суперЕОМ. Тим щонайменше, його пікова продуктивність менше 2 GFLOPS. З цим запитанням тісно пов’язані Шекспір і обмеження (раніше — КОКОМ, тепер — Держдепартаменту США) про поставки високопродуктивних коштів обчислювальної техніки інших країнах. Комп’ютери з продуктивністю понад 10 000 млн. теоретичних операцій на сік. (MTOPS), за визначенням Держдепартаменту США, вважаються суперкомпьютерами. Більше коректно перерахувати це основна прикмета, що характеризують суперЕОМ, серед яких, крім високої продуктивності треба сказати:. найсучасніший технологічний рівень (наприклад, GaAs-технология);. специфічні архітектурні рішення, створені задля підвищення швидкодії (наприклад, наявність операцій над векторами);. ціна, зазвичай понад 1−2 млн. дол. У телеконференції USENET по суперкомпьютерам у зв’язку з швидким прогресом в технології RISC-микропроцессоров і відповідатиме зростанням їх продуктивності був якось пропонувалося питання: коли робоча станція перетвориться на суперЕОМ? Для чого відповідали: «Коли сама вона коштуватиме понад 1 млн. доларів ». Для ілюстрації можна назвати, що Cray- 1 свого часу коштувала близько 8 млн. доларів, а анонсовані нинішнього року суперкомп’ютери Сгау Т90, мають набагато вищу продуктивність, — від 2.5 до 35 млн. дол. Вартість створення суперкомпьютерной MPP-системы у проекті лабораторії Sandia Міністерства енергетики США становить близько 46 млн. доларів. Разом про те, існують комп’ютери, мають усі ці вище характеристики суперЕОМ, крім ціни, яка їм становить від кілька сотень до 2 млн. доларів. Йдеться мини-суперЭВМ, які мають високої продуктивністю, поступається, проте, великим суперЕОМ. У цьому у минисуперкомпьютеров, зазвичай, помітно краще співвідношення цена/производительность й суттєво нижче експлуатаційних витрат: система охолодження, електроживлення, вимоги на площу приміщення та інших. Дані комп’ютери орієнтовані менші обчислювальні центри — рівня факультету, а чи не всього університету чи корпорації. Приклади таких ЕОМ — Cray J90, Convex C38XX і, можливо, C4/XA. До них віднести, також i сучасні суперкомп’ютерні системи з урахуванням RISC-микропроцессоров, наприклад, IBM SP2, SGI POWER CHALLENGE, DEC AlphaServer 8200/8400 та інших. З погляду архітектури минисуперкомпьютеры уявити не можуть собою деяке особливе напрям, тому надалі вони окремо не рассматриваются.
Сфери застосування суперкомпьютеров Для яких застосувань потрібна настільки дорога техніка? Може скластися враження, що зі зростанням продуктивності настільних ПК та створення робочих станцій, і навіть серверів, сама потреба у суперЕОМ знижуватиметься. Не так. З одним боку, низку додатків що тепер успішно виконуватися на робочих станціях, але з іншого боку, час показало, що сталої тенденцією є нових додатків, котрим необхідно використовувати суперЕОМ. Передусім слід зазначити процес проникнення суперЕОМ на абсолютно недоступну їм раніше комерційну сферу. Йдеться як скажімо, про графічних додатках для кіно України й телебачення, де потрібно той самий висока продуктивність на операції з плаваючою коми, а передусім про завданнях, які передбачають інтенсивну (зокрема, і оперативну) обробку транзакцій для надвеликих БД. У цілому цей клас завдань можна віднести також системи підтримки прийняття прийняття рішень та організація інформаційних складів. Звісно, можна сказати, що з роботи з цими додатками в першу чергу необхідні висока продуктивність вводу-виводу і швидкодія і під час цілочислових операцій, а комп’ютерні системи, найоптимальніші для таких додатків, наприклад, MPP-системы Himalaya компанії Tandem, SMP-компьютеры SGI CHAL ENGE, AlphaServer 8400 від DEC — не зовсім суперЕОМ. Але треба згадати, такі вимоги виникають, зокрема, із боку ряду додатків ядерної фізики, наприклад, при обробці результатів експериментів на прискорювачах елементарних частинок. Адже ядерна фізика — класична область застосування суперЕОМ від часу їх виникненню. Хай не пішли, намітилася явна тенденція до зближення понять «мэйнфрейм », «многопроцессорный сервер «і «суперЕОМ ». Не зайве зауважити, що це відбувається і натомість у багатьох областях масованого початку централізації і укрупнення на противагу процесу разукрупненияи децентралізації. Традиційної сферою застосування суперкомп’ютерів завжди, були наукові дослідження: фізика плазми і статистична механіка, фізика конденсованих середовищ, молекулярна і атомна фізика, теорія елементарних частинок, газова динаміка і теорія турбулентності, астрофізика. У хімії - різні ділянки обчислювальної хімії: квантова хімія (включаючи розрахунки електронної структури з метою конструювання нових матеріалів, наприклад, каталізаторів і надпровідників), молекулярна динаміка, хімічна кінетика, теорія поверхневих явищ і хімія твердого тіла, конструювання ліків. Природно, що кілька областей застосування перебуває в стиках відповідних наук, наприклад, хімії і біології, і перекривається з технічними додатками. Так, завдання метеорології, вивчення атмосферних явищ й у першу чергу, завдання довгострокового прогнозу погоди і, на вирішення якому безперервно бракує потужностей сучасних суперЕОМ, тісно пов’язані з рішенням низки перелічених вище проблем фізики. Серед технічні проблеми, на вирішення яких використовують суперкомп’ютери, завдання аерокосмічній і автомобільну промисловість, ядерної енергетики, передбачення і розробки родовищ корисних копалин, нафтовидобувних і газової промисловості (зокрема проблеми ефективної експлуатації родовищ, особливо тривимірні завдання їх дослідження), і, нарешті, конструювання нових мікропроцесорів і комп’ютерів, насамперед самих суперЕОМ. Суперкомп’ютери традиційно застосовуються для воєнних цілей. Крім очевидних завдань розробки зброї масового нищення і конструювання літаків і ракет, можна згадати, наприклад, конструювання безшумних підводних човнів та інших. Найзнаменитіший приклад — це американська програма СОІ. Вже згадуваний MPP-компьютер Міністерства енергетики США застосовуватиметься для моделювання створення ядерної зброї, що дозволить взагалі скасувати ядерні випробування, у нашій країні. Аналізуючи потенційні потреби у суперЕОМ що сьогодні додатків, можна умовно розбити їх у два класу. До першого можна віднести докладання, у яких відомо, який рівень продуктивності треба досягти у кожному даному випадку, наприклад, довгостроковий прогноз погоди. До другої можна віднести завдання, котрим характерний швидкий зростання обчислювальних витрат зі збільшенням розміру досліджуваного об'єкта. Наприклад, в квантової хімії неэмпирические розрахунки електронної структури молекул вимагають витрат обчислювальних ресурсів, пропорційних N4 чи N5, де N умовно характеризує розмір молекули. Тепер чимало людей молекулярні системи вимушено досліджуються в спрощеному модельному поданні. Маючи резерві ще більше великі молекулярні освіти (біологічні системи, кластери тощо.), квантова хімія дає приклад докладання, що є «потенційно нескінченним «користувачем суперкомп’ютерних ресурсів. Є ще одне проблема застосування суперЕОМ, про яку слід сказати — це візуалізація даних, які є результатом виконання розрахунків. Часто, наприклад, під час вирішення диференційних рівнянь методом сіток, доводиться зіштовхуватися з гігантськими обсягами результатів, які у числової формі людина просто більше не може обробити. Тут у багатьох випадках необхідно звернутися до графічної формі подання. У кожному цьому випадку постає завдання транспортування інформації з комп’ютерної мережі. Рішенню цього технологічного комплексу негараздів у останнім часом приділяється все більшої уваги. Зокрема, знаменитий Національний центр суперкомп’ютерних додатків США (NCSA) спільно з компанією Silicon Graphics веде роботи за програмою «суперкомпьютерного оточення ». У цьому проекті передбачається інтегрувати можливості суперкомп’ютерів POWER CHALLENGE і коштів візуалізації компанії SGI із засобами інформаційної супермагистрали.
Суперкомп’ютери в России СуперЭВМ є національним надбанням, та його розробка й виробництво безсумнівно би мало бути однією з пріоритетів державною технічною політики країн, є світовими лідерами у сфері науку й техніки. Блискучим прикладом глибокого розуміння відновлення всього комплексу відповідних проблем є стаття відомого нобелівської лауреатки у галузі фізики До. Вільсона. Опублікована понад десяток років тому, і зараз цікавить російського читача. Практично єдиними країнами, розробляють і що роблять суперЕОМ більше, є навіть Японія. Свої суперкомп’ютери було створено Індії, та Китаї. Більшість розвинутих країн, зокрема і кілька держав Східної Європи, воліють використовувати суперкомп’ютери, вироблені у навіть Японії. Становище з розробками суперкомп’ютерів у Росії, очевидно, залишає сьогодні бажати кращого. Роботи над вітчизняними суперЕОМ останніми роками велися відразу у кількох організаціях. Під управлінням академіка В. А. Мельникова розробили векторна суперЕОМ «Електроніка CC-100 «з архітектурою, нагадує Сгау-1. У ИТМиВТ РАН триває робота по створенню суперкомп’ютерів «Эльбрус-3 ». Цей комп’ютер може мати до 16 процесорів з тактовою частотою 10 нс. За оцінками розробників, на тестах LINPACK при N = 100 швидкодія процесора становитиме 200 MFL0PS, при N = 1000 — 370 MFLOPS. Інша розробка, виконана у тому інституті, — Модульний Конвеєрний Процесор (МКП), у якому використовується оригінальна векторна архітектура, проте за швидкодії він, мабуть, повинен поступатися «Эльбрус-3 ». Іншим центром робіт над вітчизняними суперкомпьютерами є відомий своїми роботами з ЄС ЕОМ НИЦЭВТ. Там було виконано ряд цікавих розробок — різні моделі векторних суперЕОМ ЄС 1191 на ECL-технологии і йдуть роботи над новим суперкомп’ютером «АМУР », у якому використовується КМОП-технология. Ряд організацій на чолі з ІПМ РАН ведуть роботи з створенню MPP-компьютера МВС-100, в процессорных елементах якого використовуються мікропроцесори i860XP, а організації комунікацій застосовуються транспьютеры Т805. Хоча у наявності є дослідні зразки деяких із вищезгаданих вітчизняних комп’ютерів, жодного з них промислово немає. Становище з оснащеністю російських організацій суперкомпьютерами, мабуть, ще гірше. Ми обмежимося інформацією щодо станом справ і перспективи у майбутнє у дослідницьких інституціях і вузах, які, як уже зазначалося вище, є одним із основних потенційних користувачів суперЕОМ. У багатьох інсталяцій суперкомп’ютерів використовується мабуть, продукція фірми Convex. У кількох організаціях експлуатуються старі моделі минисуперкомпьютеров серій Clxx, С2хх, котрі за продуктивності вже поступаються сучасним робочим станціям. У Санкт-Петербурзі у системі Госкомвуза інстальована минисуперЭВМ Convex серії С3800, у Москві ІПМ РАН недавно встановлено суперкомпьютерная система SPP 1000/CD. Є плани інсталяції та інших суперкомп’ютерів (наприклад, SGI POWER CHALLENGE) у низці інститутів РАН. Тим більше що відсутність можливостей застосування суперЕОМ стримує розвиток вітчизняної науку й робить принципово неможливим успішний розвиток цілих напрямів наукових досліджень про. Придбання одного-двох, чи навіть дуже потужних, суперкомп’ютерів недопоможе вирішити цю проблему. І це не лише у вартістю, їм придбання і витрат за підтримку працездатності (включаючи електроживлення і охолодження). Є ще низку причин (наприклад, доставка інформації з комп’ютерну мережу), що перешкоджають ефективного використання суперЕОМ. Більше доцільним представляється підхід, запропонований російським Фондом фундаментальних досліджень. Розроблена «Програма створення комплексних мереж зв’язку й баз даних фундаментальної науку й освіти «на 1995;1998 рр. передбачається організація цілого ряду регіональних еліт і предметноорієнтованих суперкомп’ютерних центрів. У цих центрах може бути інстальовані, наприклад, щодо дешеві минисуперкомпьютеры, мають краще ставлення стоимость/производительность. Власне, достатньо тільки звернутися до списку ТОР500, аби виявити явну тенденцію до витіснення великих (і дорогих) суперЕОМ щодо недорогими суперкомпьютерами, які вже зараз у змозі рішення левової частки потенційних завдань. Що ж до вітчизняних суперЕОМ, то без необхідної державної підтримки проектів із їхньої розробки не припадати прогнозувати створення промислових зразків у найближчі 1−2 року, і навряд такі комп’ютери зможуть скласти основу парку суперЕОМ в створюваних сьогодні вітчизняних суперкомп’ютерних центрах.
Суперкомп’ютери — як і? Ви що, схоже суперкомп’ютери у самому справі мають право існування. Тепер потрібно прояснити, очевидно, основний вертящийся мовою питання — чого вони вважають буде настільки швидким? Варіантів відповіді то, можливо кілька, серед яких два мають явну перевагу: розвиток елементної бази й використання нових рішень на архітектурі комп’ютерів. Спробуймо розібратися, який із чинників є вирішальним у досягненні сучасних фантастичних показників продуктивності. Щоб одержати дозвіл цього питання звернімося історичних фактів. Відомо, що у комп’ютері EDSAC (1949 р.), що мав час такту 2мкс, можна було виконати 2*n арифметичних операцій за 18*n мс, тобто у середньому 100 арифметичних операцій на секунду. Порівняємо із сучасним суперкомп’ютером CRAY C90: час такту приблизно 4нс, а пікова продуктивність близько 1 мільярда арифметичних операцій на секунду. Що ж виходить? Продуктивність комп’ютерів цей період зріс у приблизно десять мільйонів раз. Зменшення часу такту є прямим способом збільшенням продуктивності, однак це складова (з 2мкс до 4нс) у загальному обсягу дає внесок лише 500 раз. Звідки ж узялася інше? Відповідь очевидна — використання нових рішень на архітектурі комп’ютерів, серед яких основне його місце займає принцип паралельної обробки даних. Цей принцип, втілюючи ідею одночасного виконання кількох дій, має чи два різновиди: конвейерность та власне паралельність. Обидва виду паралельної обробки інтуїтивно зрозумілі, тому зробимо лише невеликі пояснения.
Параллельная обробка. Якщо якесь пристрій виконує одну операцію за одиницю часу, то тисячу операцій воно виконає тисячу одиниць. Якщо припустити, що є п’ять так само незалежних пристроїв, здатних працювати одночасно, то таку ж тисячу операцій система з п’яти пристроїв може виконати не за тисячу, а й за двісті одиниць часу. Аналогічно система з N пристроїв таку ж роботу виконає 1000/N одиниць часу. Такі аналогії можна знайти й у житті: якщо одне солдатів вскопает город за 10 годин, то рота солдатів із п’ятдесяти людина із здібностями, працюючи одночасно, впораються з тією ж роботою за 12 хвилин — принцип паралельності в действии!
Конвейерная обробка. Що потрібно для складання двох речовинних чисел, які у формі з плаваючою коми? Ціле безліч дрібних операцій як-от порівняння порядків, вирівнювання порядків, складання мантисс, нормалізація тощо. Процесорам перших комп’ютерів виконували всі ці «микрооперации «кожної пари аргументів послідовно одна по одній до того часу, доки сягали остаточного результату, і лише після цього переходили до опрацювання наступній пари доданків. Ідея конвеєрної обробки залежить від виділенні окремих етапів виконання загальної операції, причому кожен етап, виконавши своєї роботи, передавав б результат наступному, одночасно приймаючи нову порцію вхідних даних. Отримуємо очевидний виграш швидкістю обробки з допомогою суміщення колись рознесених у часі операцій. Припустимо, що у операції можна назвати п’ять микроопераций, кожна з яких виконується за одиницю часу. Якщо є одне неподільне послідовне пристрій, то 100 пар аргументів воно обробить за 500 одиниць. Якщо кожну микрооперацию виділити в окремий етап (чи інакше кажуть — щабель) конвеєрного устрою, то, на п’ятої одиниці часу різній стадії обробки такого устрою будуть перебуває п’ять пар аргументів, а весь набір із сотні пар буде оброблений за 5+99=104 одиниці часу — прискорення проти послідовним пристроєм майже на п’ять раз (по числу щаблів конвеєра). Здається конвеєрну обробку з успіхом замінити звичайним паралелізмом, навіщо продублювати основне пристрій стільки раз, скільки щаблів конвеєра передбачено виділити. У насправді, п’ять пристроїв попереднього прикладу опрацюють 100 пар аргументів за 100 одиниць часу, що швидше часу роботи конвеєрного устрою! У чому справа? Відповідь проста, збільшивши вп’ятеро число пристроїв, ми значно збільшуємо як обсяг апаратури, і і її. Уявіть собі, що на автозаводі вирішили прибрати конвеєр, зберігши темпи випуску автомобілів. Якщо раніше конвеєрі одночасно перебувала тисяча автомобілів, то діючи за аналогією з попереднім прикладом треба набрати тисячу бригад, кожна з яких (1) нездатні повністю зібрати автомобіль з початку до кінця, виконавши сотні різноманітних операцій, і (2) зробити це те ж час, що автомобіль раніше знаходилася на конвеєрі. Сьогодні паралелізмом в архітектурі комп’ютерів замало кого здивуєш. Усі сучасні мікропроцесори, чи це Pentium II чи PA-8200, MIPS R10000 чи Power2 SuperChip використовують той чи інший вид паралельної обробки. На презентаціях нових чипів й у прес-релізах корпорацій подається як останнім словом техніки і найпередовіший край науку й ця справді так, якщо розглядати реалізацію цих принципів саме у однієї кристала. Разом про те, самі цих ідей з’явилися дуже довго. Спочатку вони впроваджувалися в передових, тому одиничних, комп’ютерах свого часу. Потім після належної відпрацювання технологій і здешевлення виробництва вони спускалися в комп’ютери середнього класу, і, нарешті, сьогодні це повному обсязі втілюється у робочих станціях і персональних компьютерах.
Усі нове — це добре забуте старе. Щоб переконатися, що це основні нововведення в архітектурі сучасних процесорів насправді використовувалися ще від часів, коли ні мікропроцесорів, ні поняття суперкомп’ютерів не було, зробимо маленький екскурс до історії, почавши практично з народження перших ЕОМ. Усі найперші комп’ютери, наприклад, EDSAC, EDVAC, UNIVAC, спочатку зчитували дані послідовно біт за битому з пам’яті, та був їх аналогічно обробляли в арифметическом устрої. 1953 р. Першим комерційно доступним комп’ютером, використовує разряднопаралельну пам’ять (на CRT) і разрядно-параллельную арифметику, став комп’ютер IBM 701. До речі буде вказано, найбільшу популярність у то час отримала модель IBM 704 (1955 р.), проданої у кількості 150 примірників (!), у якій, крім згаданих особливостей, була вперше застосована пам’ять на ферритовых осердях і апаратне арифметичне пристрій з плаваючою точкою. 1958 г. Процесорам перших комп’ютерів самі управляли вводом/выводом. Проте швидкість роботи найшвидшої зовнішнього устрою, а, по ті часи це магнітна стрічка, був у 1000 разів менша швидкості процесора, тому під час операцій ввода/вывода процесор фактично простоював. У 1958 г. до комп’ютера IBM 704 приєднали 6 незалежних процесорів ввода/вывода, котрі після отримання команд могли працювати паралельно із головною процесором, а сам комп’ютер перейменували на IBM 709. Ця модель вийшла навдивовижу вдалою, оскільки разом із модифікаціями продали близько 400 примірників, причому той був виключений в 1975 року — 20 років існування! 1961 г. Складається комп’ютер IBM STRETCH, має дві принципово важливі особливості: випереджаюче перегляд вперед для вибірки команд і розшарування пам’яті на два банку узгодження низькою швидкості вибірки з пам’яті і швидкості операцій. 1963 г. У Манчестерському університеті розроблений комп’ютер ATLAS, використовує конвеєрний принцип виконання команд. Виконання команд розбите на виборах 4 стадії: вибірка команди, обчислення адреси операнда, вибірка операнда і виконання операції, які дозволяли зменшити час виконання команд загалом з 6-ї мкс до 1,6 мкс. Заради справедливості слід відзначити, що даний комп’ютер узагалі залишив помітний слід розвитку обчислювальної техніки: крім сказаного, у ньому уперше було використана мультипрограммная операційна система, джерело якої в використанні віртуальної пам’яті і системи переривань. 1964 р. Фірма Control Data Corporation (CDC) з участю однієї з засновників, Сеймура Р. Крэя (Seymour R. Cray) випускає комп’ютер CDC-6600 — перший комп’ютер, у якому використовувалося кілька незалежних функціональних пристроїв. Щоб з сьогоденням наведемо деякі параметри комп’ютера: час такту 100нс, продуктивність 2−3 млн. операцій на секунду, оперативна пам’ять розбита на 32 банку з 4096 60-ти розрядних слів, цикл пам’яті 1мкс, 10 незалежних функціональних пристроїв. Машина мала величезний успіхом науковому ринку, активно витісняючи машини фірми IBM.
1969 г. CDC випускає комп’ютер CDC-7600 з вісьома незалежними конвейерными функціональними пристроями — поєднання паралельної і конвеєрної обработки.
Матричные суперкомп’ютери У 1967 р. група Слотника, об'єднана до Центру передових обчислювальних технологій (Center of Advanced Computation) при Іллінойському університеті, розпочала практичної реалізації проекту векторної суперЕОМ з матричної структурою ILLIAC IV. Роботи фінансувалися Міністерством оборони США, а виготовлення машини взяла він фірма Burroughs Corp. Технічний бік проекту досі вражає своєю масштабністю: система мала складатися з чотирьох квадрантів, кожен із яких включав у собі 64 процессорных елемента (ПЭ) і 64 модуля пам’яті, об'єднаних комутатором на базі мережі типу гіперкуб. Усі ПЭ квадранта обробляють векторну інструкцію, яку спрямовує процесор команд, причому кожен виконує одну елементарну операцію вектора, дані на яку зберігаються в що з цим ПЭ модулі пам’яті. Отже, один квадрант ILLIAC IV здатний одночасно обробити 64 елемента вектора, а всю систему з чотирьох квадрантів — 256 елементів. 1972;го р., після подолання значних проблем, що з практичної реалізацією проекту на апаратній і програмному рівнях, перша система ILLIAC IV встановили дослідницькому центрі NASA в Еймсі. Його результати експлуатацію у цієї організації отримали неоднозначну оцінку. З одного боку, використання суперкомп’ютера дозволило вирішити ті ряд найскладніших завдань аеродинаміки, із якими було неможливо впоратися інші ЕОМ. Навіть сама швидкісна ЕОМ фінансування наукових досліджень на той час — Control Data CDC 7600, яку, до речі, проектував «патріарх суперЕОМ «Сеймур Крей (S.Cray), могла забезпечити продуктивність трохи більше 5 млн. операцій із плаваючою точкою в секунду (MFLOPS), тоді як ILLIAC IV демонструвала середню продуктивність приблизно 20 MFLOPS. З іншого боку, ILLIAC IV не було доведено до конфігурації з 256 ПЭ; практично розробники обмежилися лише одне квадрантом. Причинами з’явилися й не так технічні складності до нарощування числа процессорных елементів системи, скільки проблеми, пов’язані з програмуванням обміну даними між процессорными елементами через комутатор модулів пам’яті. Усі спроби виконати завдання з допомогою системного програмного забезпечення зазнали невдачі, внаслідок кожне додаток вимагало ручного програмування передач комутатори, як і породило незадовільні відгуки користувачів. Якби розробникам ILLIAC IV удалося подолати проблеми програмування матриці процессорных елементів, то, мабуть, розвиток обчислювальної техніки пішов би зовсім іншим шляхом і сьогодні домінували б комп’ютери з матричної архітектурою. Однак у 60-ті роки, ні пізніше задовільний і універсальне рішення дві такі принципових проблем, як програмування паралельної роботи кілька сотень процесорів і навіть забезпечення мінімуму витрат лічильного часу на обмін даними з-поміж них, не було знайдено. Висунувши піонерську завдання створення комп’ютера надвисокої продуктивності, розробники ILLIAC IV першими ж виявилися в змозі відповісти для цієї два принципових питання. Знадобилося ще приблизно 15 років зусиль різних фірм щодо реалізації суперЕОМ з матричної архітектурою, щоб дати остаточний діагноз: комп’ютери даного типу неспроможна задовольнити широке коло користувачів і мають дуже обмежену сферу застосування, часто у межах однієї чи кількох видів завдань (наприклад, в системах обробки зображень, як ЕОМ STARAN фірми Goodyear Aerospace). «Лебединою піснею «матричних суперЕОМ став комп’ютер BSP виробництва Burroughs, який проектувався як альтернативи векторно-конвейерным суперЕОМ фірми Cray Research, але не побачило світ через очевидною неконкурентоспроможності системи. Звісно, було б великою помилкою стверджувати, що успішний розвиток суперЕОМ з матричної архітектурою може дати цілком ніяких позитивних результатів. По-перше, вдалося довести можливість практичної реалізації паралельної надшвидкісної обробки. По-друге, хвилі інтересу до матричним структурам було сформульовано досить струнка теоретична база для побудови комутаційних мереж, що об'єднує безліч процессорных елементів. По-третє, в прикладної математиці сформувалося самостійне напрям по паралельним обчисленням. Принаймні освоєння коштів надшвидкісної обробки даних розрив удосконаленням методів векторизации програм, тобто. автоматичного перетворення на процесі компіляції послідовних мовних конструкцій в векторну форму, і надзвичайної складністю програмування комутації і розподілу даних між процессорными елементами призвів до досить жорстка реакції користувачів щодо матричних суперЕОМ — широкого кола програмістів була потрібна простіша і «прозора «архітектура векторної обробки з використання стандартних мов високого рівня типу FORTRAN. Рішення знайшли в кінці 1960;х років, коли фірма Control Data, із якою той час співпрацював Крей, представила машину STAR-100, засновану на векторноконвеєрному принципі обробки даних. Відмінність векторно-конвейерной технології від архітектури матричних ЕОМ у тому, що замість безлічі процессорных елементів, виконують те ж команду над різними елементами вектора, застосовується єдиний конвеєр операцій, принцип дії якого цілком відповідає класичному конвеєра автомобільних заводів Форда. Якщо матричному комп’ютері процессорные елементи можна видати за групу робочихуніверсалів, кожен із яких збирає автомобіль від шасі до оббивки салону, то векторноконвеєрна обробка асоціюється з бригадою вузьких фахівців, одне із яких вміє пригвинчувати колеса, інший — встановлювати двигун, третій — монтувати корпус, тощо. Подібно автомобільному конвеєра Форда, векторно-конвейерная обробка здатна забезпечити високий темп виходу готової продукції - результатів виконуваних операцій, якщо кожен із «робочих «(т. е. апаратних блоків конвеєра операцій) виконує доручену йому фазу команди з максимальною швидкістю. Навіть така архаїчна по сучасним поняттям суперЕОМ, як STAR- 100, показала граничну продуктивність лише на рівні 50 MFLOPS, що недоступно більшість сучасних мэйнфреймов. У цьому істотно, що векторно-конвейерные суперЕОМ набагато дешевше своїх матричних «родичів ». Приміром, розробка й виробництво ILLIAC IV обійшлися у 40 млн. дол. за витрати на експлуатацію порядку 2 млн. дол. на рік, тоді як ринкова вартість перших суперкомп’ютерів фірм CRAY і Control Data лежить у межах 10 — 15 млн. дол., залежно від обсягу пам’яті, складу периферійних пристроїв та інших особливостей конфігурації системи. Другий істотною особливістю векторно-конвейерной архітектури є те, що конвеєр операцій має лише один вхід, яким надходять операнды, і тільки вихід результату, тоді як і матричних системах є безліч входів за даними в процессорные елементи і безліч виходів із них. Інакше кажучи, в комп’ютерах з конвеєрної обробкою дані всіх паралельно виконуваних операцій вибираються і записуються в єдину пам’ять, у зв’язку з ніж зайвими в комутаторі процессорных елементів, який став каменем спотикання під час проектування матричних суперЕОМ. У 1972;му році С. Крэй залишає CDC і засновує свою компанію Cray Research, що у 1976 р. випускає перший векторно-конвейерный комп’ютер CRAY-1: час такту 12.5нс, 12 конвеєрних функціональних пристроїв, пікова продуктивність 160 мільйонів операцій на секунду, оперативна пам’ять до 1Мслова (слово — 64 розряду), цикл пам’яті 50нс. Головним нововведенням є запровадження векторних команд, які працюють із цілими масивами незалежних даних і дозволяють змогли ефективно використати конвеєрні функціональні устрою. У цьому цей самий екскурс до історії можна закінчити, оскільки роль паралелізму і в розвитку архітектури комп’ютерів вже очевидна.
Архітектура сучасних суперЭВМ Рассмотрим типові архітектури суперЕОМ, найпоширеніших сьогодні, і наведемо класичну систематику Флинна. Відповідно до ній, все комп’ютери діляться чотирма класу залежно від кількості потоків команд та об'єктивності даних. До першого класу (послідовні комп’ютери фон Неймана) належать звичайні скалярні однопроцессорные системи: одиночний потік команд — одиночний потік даних (SISD). Персональний комп’ютер має архітектуру SISD, причому байдуже, використовуються у ПК конвеєри з метою прискорення операцій. Другий клас характеризується наявністю одиночного потоку команд, але множинного nomoka даних (SIMD). До цього архітектурному класу належать однопроцессорные векторні чи, точніше, векторноконвеєрні суперкомп’ютери, наприклад, Cray-1. І тут ми маємо справу з однією потоком (векторних) команд, а потоків даних — багато: кожен елемент вектора входить у окремий потік даних. А до того класу обчислювальних систем ставляться матричні процесори, наприклад, знаменитий свого часу ILLIAC-IV. Вони також мають векторні команди, і реалізують векторну обробку, але з у вигляді конвеєрів, як і векторних суперкомп’ютерах, і з допомогою матриць процесорів. До третього класу — MIMD — ставляться системи, мають множинний потік команд і множинний потік даних. До нього належать як многопроцессорные векторні суперЕОМ, а й все многопроцессорные комп’ютери. Переважна більшість сучасних суперЕОМ мають архітектуру MIMD. Четвертий клас у систематики Флинна, MISD, технічно нескладне практичного интереса, по крайнього заходу для аналізованих нами комп’ютерів. До останнього час у літературі часто застосовується також термін SPMD (програми — множинні дані). Він належить немає архітектурі комп’ютерів, а до моделі розпаралелювання програм, тож перестав бути розширенням систематики Флинна. SPMD зазвичай належить до MPP (тобто. MIMD) — системам і означає, що кілька копій однієї програми паралельно виконуються у різних процессорных вузлах з різними даними. Цікаво також згадати про принципово іншому напряму у розвитку комп’ютерних архітектур — машинах потоків даних. У 1980;х років багато дослідників гадали, майбутнє високопродуктивних ЕОМ пов’язано саме з комп’ютерами, керованими потоками даних, на відміну всіх розглянутих нами класів обчислювальних систем, керованих потоками команд. У машинах потоків даних можуть одночасно виконуватися відразу багато команд, котрим готові операнды. Хоча ЕОМ з такою архітектурою сьогодні промислово не випускаються, деякі елементи цього підходу знайшли собі свій відбиток у сучасних суперскалярных мікропроцесорах, мають багато паралельно працюючих функціональних пристроїв і буфер команд, очікують готовності операндов. Для прикладу таких мікропроцесорів можна привести HP РА-8000 і Intel Pentium Pro. Відповідно до класифікацією Флинна, розгляд архітектури суперЕОМ було б розпочати з класу SISD. Але всі векторно-конвейерные (в подальшому — просто векторні) суперЕОМ мають архітектуру «незгірш від «SIMD. Що ж до суперкомп’ютерних серверів, використовують сучасні високопродуктивні мікропроцесори, як-от SGI POWER CHALLENGE на базі R8000 чи DEC AlphaServer 8200/8400 з урахуванням Alpha 21 164, їх мінімальні конфігурації бувають однопроцессорными. Проте, а то й розглядати власне архітектуру цих мікропроцесорів, то ми все особливості архітектури власне серверів слід аналізувати в «природною «мультипроцессорной конфігурації. Тому почнемо аналіз суперкомп’ютерних архітектур відразу з класу SIMD. Векторні суперкомп’ютери [SIMD] Серед сучасних суперЕОМ цю архітектуру мають однопроцессорные векторні суперкомп’ютери. Практично всі вони випускаються й у мультипроцессорных конфігураціях, які стосуються класу MIMD. Проте багато хто особливості архітектури векторних суперЕОМ можна було зрозуміти, розглядаючи навіть однопроцессорные системи. Типова схема однопроцессорного векторного суперкомп’ютера представлена на прикладі FACOM VP-200 японської фірми Fujitsu. Схожу архітектуру мають значення і інші векторні суперкомп’ютери, наприклад, фірм Cray Research і Convex. Спільним всім векторних суперкомп’ютерів є у системі команд векторних операцій, наприклад, складання векторів, припускають роботи з векторами певної довжини, скажімо, 64 елемента по 8 байт. У цих комп’ютерах операції з векторами зазвичай виконуються над векторными регістрами, що, проте, зовсім перестав бути обов’язковим. Наявність регістрів маски дозволяє виконувати векторні команди не з усіх елементами векторів, лише з тих, куди вказує маска. Звісно, у конкретних реалізаціях векторної архітектури у різних суперкомп’ютерах є свої модифікації цієї загальної схеми. Приміром, в обчислювальних системах серії VP компанії Fujitsu апаратно реалізована підтримка можливості реконфигурации файла векторних регістрів — можна, наприклад, збільшити довжину векторних регістрів з одночасним пропорційним зменшенням їхньої кількості. Після Cray-1 багато векторні суперкомп’ютери, зокрема ЕОМ серії VP від Fujitsu серії P. S компанії Hitachi, мають важливе засіб прискорення векторних вычислений, называемое зачеплення команд. Рассмотрим, например, таку послідовність команд, які працюють із векторными V-регистрами в комп’ютерах Cray: V2=V0*V1 V4=V2+V3 Зрозуміло, що друга команда неспроможна розпочати виконуватися відразу за першої - при цьому перша команда повинна сформувати регістр V2, що потребує певної кількості тактів. Засіб зачеплення дозволяє, тим не менш, другий команді на проведення, без очікування повного завершення першої: разом з появою першого результату в регістрі V2 його копія направляють у функціональне пристрій складання, і запускається друга команда. Зрозуміло, деталі можливостей зачеплення різних векторних команд відрізняються в різних ЕОМ. Що ж до скалярной обробки, то відповідна підсистема команд в японських суперкомп’ютерах Fujitsu і Hitachi сумісна з IBM/370, що є очевидні переваги. У цьому для буферизации скалярних даних використовується традиційна кеш-пам'ять. Навпаки, компанія Cray Research, починаючи з Сгау-1, відмовилася від використання кеш-пам'яті. Натомість у її комп’ютерах використовуються спеціальні программно-адресуемые буферні Уі Трегістри. І лише останньої серії, Cray T90, було запроваджено проміжна кеш-пам'ять для скалярних операцій. Зазначимо, що у тракті оперативна пам’ять — векторні регістри проміжна буферна пам’ять відсутня, що зумовлює необхідність мати високу пропускну спроможність підсистеми оперативної пам’яті: щоб підтримувати високу швидкість обчислень, необхідно швидко завантажувати дані в векторні регістри і записувати результати знову на пам’ять. До цього часу ми розглядали векторні ЕОМ, у яких операнды відповідних команд вміщено у векторних регістрах. Крім згадуваних комп’ютерів Fujitsu і Hitachi, векторні регістри мають комп’ютери серії SX інший японської фірми NEC, зокрема найпотужніші ЕОМ серії SX-4, і навіть все векторні комп’ютери як від Cray Research, включаючи C90, М90 і Т90, і від Cray Computer, включаючи Cray-3 і Cray-4, і векторні минисуперЭВМ фірми Convex серій Cl, С2, С3 і C4/XA. Та деякі векторні суперЕОМ, наприклад, IBM ES/9000, працюють із операндами-векторами, розташованими у оперативної пам’яті. Найімовірніше, такий є менш перспективною з погляду продуктивності, зокрема, бо підтримки високого темпу обчислень кожної векторної команди потрібно швидка вибірка векторних операндов з пам’яті і запис результатів назад. Многопроцессорные векторні суперкомп’ютери (MIMD) Усі векторні суперкомп’ютери випускаються в багатопроцесорних конфігураціях, які стосуються вже безпосередньо до класу MIMD. Архітектура багатопроцесорних векторних комп’ютерів можна назвати дві найважливіші характеристики: симетричність (рівноправність) всіх процесорів системи та поділ усіма процесорами загального поля оперативної пам’яті. Такі комп’ютерні системи називаються сильно пов’язаними. Якщо однопроцессорных векторних ЕОМ до створення ефективної програми її слід розпаралелювати, то багатопроцесорних з’являється завдання розпаралелювання програми її виконання одночасно на кількох процесорах. Завдання розпаралелювання є, мабуть, більш сложной, поскольку у ній необхідно організувати синхронізацію паралельно виконуються процесів. Практика показала можливості ефективного розпаралелювання значної частини алгоритмів для аналізованих сильно пов’язаних систем. Відповідний підхід до распараллеливанию за комп’ютерами називається іноді моделлю поділюваної спільної па-м'яті. Многопроцессорные SMP-серверы з урахуванням мікропроцесорів RISC-архитектуры [MIMD] Продуктивність деяких сучасних мікропроцесорів RISC-архитектуры стала що з продуктивністю процесорів векторних комп’ютерів. Як наслідок, з’явилися використовують ці досягнення суперЕОМ нової архітектури, — сильно пов’язані комп’ютери класу MIMD, які мають собою симетричні многопроцессорные сервери із загальним полем оперативної пам’яті. Цим перспективним системам можна буде приділити більше уваги, чиїм комп’ютерним архитектурам, оскільки відповідний крутий питань у вітчизняної комп’ютерної літературі обговорювалося недостатньо повно. Найвідоміші суперкомп’ютерні сервери, мають таку SMPархітектуру — DEC AlphaServer 8200/8400 і SGI POWER CHALLENGE. Їх характерно застосування високопродуктивної системної шини, в слоты якої вставляються модулі трьох типів — процессорные, оперативної пам’яті і виводу-введення-висновку. Звичайні, повільніші шини вводу-виводу, наприклад, PCI чи VME64, приєднуються вже безпосередньо до модулями виводу-введення-висновку. Вочевидь, що така конструкція має високим рівнем модульности і легко дозволяє виробляти нарощування конфігурації, яке лише доступним числом слотів системної шини і його продуктивністю. У модулях пам’яті зазвичай використовується технологія DRAM, що дозволяє досягти великих обсягів пам’яті при щодо низькій ціні. Проте швидкість обміну даними між процесорами і пам’яттю в серверах у багаторазово нижче, ніж пропускну здатність аналогічного тракту в векторних суперЕОМ, де оперативна пам’ять будується більш дорогий технології ЯВАМ. У цьому полягає одна з головних розбіжностей у підходах до суперкомпьютерным обчисленням, застосовуваним для багатопроцесорних векторних ЕОМ і SMPсерверів. У перших зазвичай є щодо мало векторних регістрів, тому, як зазначалось, підтримки високої продуктивності необхідно швидко завантажувати у яких дані чи, навпаки, записувати їх інформацію в оперативну пам’ять. Отже, потрібно висока продуктивність тракту процессор-память. У SMP-серверах пропускну здатність модулів пам’яті набагато нижча, а загальна швидкість обміну даними з процессорными модулями обмежується також (хоча і високої) пропускною спроможністю шини. До того ж системна шина може бути зайнята передачею даних з допомогою роботи модулів виводу-введення-висновку. Для ілюстрації порядків величин можна навести такі дані: гарантована пропускну здатність системної шини TurboLaser в AlphaServer 8200/8400 становить 1.6 Гбайт/с і 1.2 Гбайт/с — для шини POWERpath-2 в POWER CHALLENGE, а пропускну здатність оперативної пам’яті в Сгау Т90 дорівнює 800 Гбайт/с. Тож у SMP-серверах розробники прагнуть зменшити саму потреба у обмінах даними на тракті процессорыпамять. З цією метою замість маленького за величиною обсягу пам’яті векторних регістрів (саме тому вони вимагають досить частої перезавантаження) мікропроцесори в суперкомп’ютерних SMP-системах забезпечуються кеш — пам’яттю дуже великої розміру, наприклад, по 4 Мбайт на мікропроцесор в AlphaServer 8200/8400 і POWER CHAL ENGE. Через війну для дуже широкого спектра додатків вдається досягти поставленої мети. Сучасні комп’ютери SMP-архитектуры і кластери з їхньої основі мають у що свідчить характеристики, можна з великими векторными суперЕОМ, за винятком пропускну здатність оперативної пам’яті; Якщо додати цьому низькі експлуатаційних витрат обслуговування SMP-систем, то стає зрозуміло, чому застосування цих значно більше дешевих (по порівнянню з векторными) суперкомп’ютерів одержала останні 2 року стала вельми поширеною. Аналізовані тут SMP-системы не зобов’язані мати шинную архітектуру. Замість шини можна використовувати комутатор. Такий підхід застосовується, наприклад, всередині гиперузлов комп’ютерів Convex Exemplar SPP. Однак майже все сказане у цьому розділі зберігає собі силу й у тому случае.
Кластеры [MIMD].
Кластеры є дешевий спосіб нарощування продуктивності вже інстальованих комп’ютерів. Фактично кластер є набір з кількох ЕОМ, з'єднаних через деяку комунікаційну інфраструктуру. Як такий структури може бути звичайна комп’ютерна мережу, проте із міркувань підвищення продуктивності бажано мати високошвидкісні сполуки (FDDI/ATM/HiPPI тощо.). Кластери може бути утворені що з різних комп’ютерів (гетперогенные кластери), що з однакових (гомогенні кластери). Вочевидь, що це такі ставляться до класу MIMD. Кластери є класичним прикладом слабко пов’язаних систем. Перевагою кластерного підходу проти SMP-серверами є появу кращих можливостей масштабирования. На відміну від серверів SMPархітектури, де нарощування конфігурації обмежена пропускної здатністю шини, додавання комп’ютерів в кластер дозволяє збільшувати пропускну спроможність оперативної пам’яті і підсистем вводу-виводу. У кластерных системах в організацію взаємодії між процесами, выполняющимися різними комп’ютерах під час вирішення одного завдання, застосовуються різні моделі обміну повідомленнями (PVM, MPI тощо.). Проте завдання розпаралелювання в системах з розподіленої між окремими комп’ютерами пам’яттю у межах цих моделей є набагато складнішим, ніж у моделі загального поля пам’яті, як, наприклад, в SMP-серверах. До цього слід додати суто апаратні проблеми наявності затримок при обмінах повідомленнями і підвищення швидкості передачі. Тому спектр завдань, які можуть опинитися ефективно вирішуватися на кластерных системах, проти симетричними сильно пов’язаними системами досить обмежений. Для паралельної обробки запитів до баз даних у таких системах також є свої власні підходи. У кластери можуть об'єднуватися різні суперкомп’ютери, наприклад, минисуперЭВМ Сгау J90, проте найвідомішими кластерами у світі суперЕОМ є IBM SP2 і SGI POWER CHAL ENGEarray. Можливість наявності значної частини процессорных вузлів в SP2 дозволяє одночасно віднести цей комп’ютер та до класу MPP-систем. МРР-системы (MIMD) Основним ознакою, яким систему належать до архітектурі MPP, є число процесорів (n). Суворої кордону немає, але вважається, що з n >= 128 — то це вже МРР, а при n.