Архітектура Red Storm
Головною перевагою систем з роздільною пам’яттю є гарна масштабованість. До недоліків архітектури можна віднести відсутність спільної пам’яті, що помітно знижує швидкість межпроцессорного обміну, оскільки немає загального середовища для зберігання даних, призначених для обміну між процесорами. Також потрібна спеціальна техніка програмування для реалізації обміну повідомленнями між процесорами… Читати ще >
Архітектура Red Storm (реферат, курсова, диплом, контрольна)
Red Storm являє собою архітектуру суперкомп’ютера, що була розроблена в США Департаментом Національної ядерной енергетики та Администрацією безпеки розширеного моделювання та обчислювальних програм. Cray. Inc розробили її на основі контракта архітектурних специфікацій, що надаються Sandia National Laboratories. Дана архітектура пізніше серійно випускалась як Cray XT3 .
Компанії Cray і AMD представили сьогодні на своїх сайтах прес-релізи про те, що національна лабораторія Департаменту енергетики США — Sandia National Laboratories, уклала з Cray $ 90 млн. контракт на постачання суперкомп’ютера на процесорах AMD Opteron.
Новий суперкомп’ютер класу Massively Parallel Processing (MPP), названий Red Storm, надійшов у продаж в 2004 році та містить приблизно 10 тисяч процесорів Opteron і дозволяє домогтися продуктивності рівня 40 трлн. операцій в секунду (40 TFLOPS). Для порівняння: найпотужніший з нині живих суперкомп’ютерів NEC Earth Simulator, має продуктивність 35,9 TFLOPS.
Контракт на поставку суперкомп’ютера Red Storm є частиною стратегічної ініціативи Accelerated Strategic Computing (ASC) Департаменту енергетики США. Серед інших завдань, новий суперкомп’ютер може використовуватися для моделювання фізичних процесів, що відбуваються при ядерних вибухах.
За словами представників Cray, процесори Opteron обрані для побудови Red Storm завдяки гарному поєднанню параметрів ціна / продуктивність. Контракт на поставку суперкомп’ютера Red Storm також включає в себе пункт про подальше нарощуванні продуктивності системи до 60 TFLOPS. Обрана для побудови Red Storm архітектура, за словами фахівців, масштабируема до продуктивності в сотні TFLOPS.
Продуктивність системи знаходиться на рівні 101,4 терафлопс, а пікова — 124,4. Це суттєвий прогрес в порівнянні з колишнім показником Red Storm, рівним 40 терафлопс.
Настільки вражаючий приріст продуктивності викликаний модернізацією, в результаті якої був доданий ще один ряд стійок, а загальна кількість процесорних ядер перевищила 26 тисяч. Суперкомп’ютер Red Storm встановив два світових рекорди в шести категоріях за результатами виконання набору тестів High Performance Computing Challenge (HPCC). Енергоспоживання суперкомп’ютера складає 2,2 МВт. Вартість його розробки і установки оцінюється в 77,5 млн. дол.
Sandia і Cray розробляли суперкомп’ютер Red Storm спільно, в рамках проекту, фінансованого Національним агентством з ядерної безпеки США (National Nuclear Security Agency). Система Red Storm стала основою для комерційно доступного суперкомп’ютера Cray XT3. За даними розробників, архітектура Cray XT3 заснована на масовому паралелізм і включає високошвидкісний внутрішній зв’язок з тороїдальної топологією, дозволяє масштабувати систему від 200 до більш ніж 30 000 процесорів. Масштабований процесорний елемент системи побудований на базі x86-сумісних 64-розрядних одно-або двоядерних процесорів AMD Opteron. Курйозна деталь: у певному сенсі прабатьком Red Storm можна вважати систему Sandia ASCI Red, побудовану Intel, і, за деякими даними, вона стала першим суперкомп’ютером у світі, що подолав позначку один терафлопс.
Раніше суперкомп’ютер Red Storm посідав шосте місце у світовому рейтингу, який визначається за допомогою тесту Linpack, дещо застарілого, але все ще широко використовуваного в галузі. Тести, за результатами яких Red Storm виявився першим, оцінюють ефективність роботи з оперативною пам’яттю і обміну даними між процесорами. На початку дев’яностих років минулого сторіччя, виробники суперкомп’ютерів оцінювали їх ефективність, вказуючи «теоретичну пікову продуктивність». Ця величина показувала, наскільки швидко зможе обробляти дані багатопроцесорний комп’ютер, якщо всі процесори будуть максимально завантажені. У кращому випадку такий показник можна було прийняти за орієнтовну оцінку.
На зміну теоретичної оцінці прийшов тест Linpack, який містив серію реальних, хоча і досить простих алгоритмів. Починаючи з 1993 року, кожні шість місяців стали публікуватися результати виконання тестів Linpack, які дозволяли визначити так званий «Top 500» — список найшвидших комп’ютерів світу. З часом, обмеження тесту Linpack ставали все більш помітні. Це підштовхнуло його розробників, лабораторію Innovative Computing Laboratory (ICL), що працюють в рамках університету штату Теннесі, до створення нового набору тестів, повніше відображає можливості сучасних суперкомп’ютерів, зокрема, враховує швидкість обміну даними між процесорами. Новий набір тестів, створений у співпраці з виробниками суперкомп’ютерів, отримав назву High Performance Computing Challenge (HPCC). Саме результати виконання цих тестів дозволили Red Storm зайняти два перші місця в світі в шести категоріях.
Red Storm на рисунку 1.3 використовується американцями для обчислень, пов’язаних з дослідженнями в області ядерної зброї.
Авторами архітектури суперкомп’ютера є Джим Томкинс (Jim Tomkins) і Білл Кемп (Bill Camp). Партнер лабораторії, компанія Cray, що отримала ліцензію на використання архітектури і операційної системи, поставила 15 аналогічних машин іншим американським державним установам і університетам, а також замовникам з Канади, Англії, Швейцарії та Японії.
Висновки за розділом
Головною перевагою систем з роздільною пам’яттю є гарна масштабованість. До недоліків архітектури можна віднести відсутність спільної пам’яті, що помітно знижує швидкість межпроцессорного обміну, оскільки немає загального середовища для зберігання даних, призначених для обміну між процесорами. Також потрібна спеціальна техніка програмування для реалізації обміну повідомленнями між процесорами. Внаслідок зазначених архітектурних недоліків потрібні значні зусилля для того, щоб максимально використовувати системні ресурси. Саме цим визначається висока ціна програмного забезпечення для масово-паралельних систем з роздільною пам’яттю.