You can edit almost every page by Creating an account. Otherwise, see the FAQ.

Високопроизводителни изчисления - Суперкомпютър

От EverybodyWiki Bios & Wiki
Направо към:навигация, търсене

Суперкомпютърът Blue Gene на IBM в Argonne national laboratory съдържа над 250 000 процесора, монтирани в 72 корпуса, свързани с високоскоростна оптична мрежа[1]

Суперкомпютърът (на английски: Supercomputer) е компютър с висока изчислителна мощност в сравнение с компютрите с общо предназначение. Производителността на суперкомпютрите се измерва с плаваща запетая(floating-points) операции в секунда (FLOPS), а не в милион инструкции в секунда (MIPS). През 2015 г. има суперкомпютър, който може да изпълнява до квадрилиона(quadrillions) FLOPS.

Суперкомпютри са били представени през 1960-те години, първоначално и в продължение на много десетилетия на първо място с „Seymour Cray“ от „Control Data Corporation“(CDC). Докато суперкомпютърът от 1970-те години е използвал само няколко процесора, през 1990-те години, машини с хиляди процесори започват да се появяват, и в края на 20 век, масово-паралелни суперкомпютри с десетки хиляди процесори са в готовност.

Към края на юни 2016, най-бързият суперкомпютър в света е „Sunway TaihuLight“ в Китай. В теста „linpack benchmark“ от 93 PFLOPS (Р=peta), надминавайки предишния рекорд, „Tianhe-2“, около 59 PFLOPS. Той оглавява класирането в света „TOP500“ в списъка на суперкомпютри. Появата на „Sunway TaihuLight“ също е известен с използването на собствени чипове, и е първия китайски компютъра, който влиза в списъка на „TOP500“ без използването на техника от „САЩ“. Към края на юни 2016 г. на Китай за първи път има повече компютри (167) в „TOP500“ списъка, от „САЩ“ (165). Въпреки това, американските компютри държат десет суперкомпютъра в топ 20.

Суперкомпютри играят важна роля в областта на компютърни науки, и се използват за широка гама от интензивни задачи в различни области, включително и квантовата механикапрогнозиране на времетоизследване на климата, нефт, газ, молекулно моделиране (изчисляване на структура и свойства на химичните форми, биологични макромолекули, полимери, и кристали), физическо моделиране (като например симулация на ранната история на Вселената, самолети и космически кораби, аеродинамика, детонация на ядрени оръжия и ядрен синтез). През цялата си история, те са незаменими в областта на криптоанализа.

Система с огромен брой процесори се разглежда в два подхода:

- в един подход (например в разпределени изчисления), стотици или хиляди отделни компютри (като лаптопи), разпръснати в цялата мрежа (например Интернет) за да посветят част от цялото си време за решаване на общият проблем. На отделни компютри (клиенти) приемат и отговарят голям брой по-малки задачи, резултатите се представят на Централен сървър, който обединява резултатите на всички клиенти в цялостно решение.

-в другия подход, хиляди дискретни процесори се намират в непосредствена близост един до друг (например в клъстер). Това позволява спестяване на време за преместване на данни и позволява на процесорите да работят съвместно (а не на отделните задачи), например, в окото(mesh) и „hypercube“ архитектури.

Използването на многоядрени процесори комбинирани с централизация е тенденциозна поява (Може да се разгледа като малък клъстер процесора многоядрени в един смартфон, таблет, лаптоп и т.н.).

Хардуер и архитектура[редактиране]

Blue Gene / L шкаф, показващ подредени блейдове, при които всяко съдържа много процесори.

Подходи към суперкомпютър архитектура се преобръщат с драматични обрати, след като най-ранните системи са били представени през 1960. Ранните суперкомпютърни архитектури въведени от Seymour Cray разчитали на компактни иновативни проекти и локален паралелизъм да се достигне най-голямо изчисление.

Докато суперкомпютрите от 1970 г. използват само няколко процесора, през 1990-те машини с хиляди процесори започват да се появяват и до края на 20 век, масивните паралелни суперкомпютри с десетки хиляди (на раафт) процесори бяха стандартни. Суперкомпютрите на 21 век могат да използват над 100000 процесори (някои са графични единици), свързани чрез бързи връзки. „Connection Machine“(CM-5) суперкомпютъра е масивната паралелна обработка на компютъра в състояние на много милиарди аритметични операции в секунда.

През следващите десетилетия, управлението на топлинната плътност остава ключов въпрос за най-централизирани суперкомпютри. Най-голямо количество топлина, генерирано от една система може да има и други ефекти, например намаляване на времето на живот на други компоненти на системата. Има различни подходи за управление на отоплението, от изпомпване на охладителна течност(FLUORINERT) през системата до хибридна система за охлаждане с течност-въздух или с въздушно охлаждане с нормални температури на климатизация.[2]

The CPU share of TOP500

Системите с огромен брой процесори обикновено предприемат един от двата пътя. В подхода на изчислителна мрежа, голямата обработка на много компютри, организирани като разпределени в различни административни области е опортюнистично винаги, когато един компютър е достъпен. В друг подход, голям брой процесори се използват в близост един до друг, например в клъстер. В такава централизирана масивна паралелна система на скоростта и гъвкавостта, става модерно и важно помежду, суперкомпютрите да се използват различни подходи, вариращи от подобрените системи „InfiniBand“ до триизмерни „torus interconnects“. Използването на многоядрени процесори комбинирани с централизация е нова посока, например като в системата „Cyclops64“.

Както цената, ефективността и енергийната производителност от „general purpose graphic processors“(GPGPUs) са се подобрили в редица петафлоп(petaflop).На суперкомпютри като „Tianhe-I“ и „Nebulae“се е започнало да им се разчита. Въпреки това, други системи като например „К computer“ да продължат да използват конвенционални процесори като „SPARC“ базирани конструкции и общата приложимост на „GPGPUs“ в общо предназначение. Високо компютърните приложения са били предмет на дебат, в които „GPGPU“ могат да бъдат настроени добре за специални тестове(benchmarks), като цяло тяхното приложимост в ежедневието на алгоритми може да бъде ограничена, освен ако значителните усилия се изразходват за настройка на приложенията към него. Въпреки това, графични процесори набират скорост и през 2012 г. суперкомпютъра „Jaguar„ се трансформира в „Titan“ чрез преоборудване от процесори(CPUs) в графични процесори(GPUs).

Високото компютърно представяне има приблизителен жизнен цикъл около три години.

А броят на „специално предназначение“ системи са били проектирани да решат единичен проблем. Това позволява използването на специално програмирани „FPGA чипове“ или дори персонализирани „VLSI чипове“, които позволяват по-добри съотношения на цена / производителност. Примери за суперкомпютри със специално предназначение включват „Belle“, „Deep Blue“, и „Хидра“ за да играе шах. „Gravity Pipe“ за астрофизика, MDGRAPE-3 за изчисляване на протеинова структура, изчислителни молекулярна динамика и „Deep Crack“ за счупване на DES кодиране.

Използване на енергия и управление на топлина[редактиране]

Стандартен суперкомпютър консумира големи количества електрическа енергия, която се превръща в топлина, изискващи охлаждане. Например, „Tianhe-1A“ консумира 4,04 мегавата (MW) на електричество. Разходите за енергията за охлаждане на системата може да бъде значителна, например 4 MW от $ 0,10 / кВтч е $ 400 на час или около милион $ 3,5 годишно. 

An IBM HS20 blade

Управлението на топлината е основен въпрос в сложните електронни устройства и засяга мощни компютърни системи по различни начини. Въпроси с дизайна на захранването и процесора за топлоелектрическото разсейване в суперкомпютри надминат тези на традиционните компютърни охлаждащи технологии. По този въпрос, суперкомпютрите биват награждавани с „Green Computing“ .

Обвивката на хилядите процесори неминуемо генерира значителни количества топлина енергия, която трябва да бъдат разсеяна. „Cray 2“ е бил с течно охлаждане, и използва „FLUORINERT-охлаждане-водопад“, където се е вливало под налягане. Въпреки това, подхода с охладителната течност не е практичен за този тип системи „multi-cabinet“, които са базирани процесори в шкафа. В „System X“ е имало специална охлаждаща система, която комбинира климатичната система с течно охлаждане и е разработена във връзка с компанията Liebert.

В системата на „Blue Gene“, IBM умишлено използва ниски процесорни захранвания за да се справят с топлинната плътност. „IBM Power 775“ е разработен през 2011 г. и има тясно опаковани елементи, които изискват охлаждане от вода. Системата „IBM Aquasar“ използва охлаждане с гореща вода, за да се постигне енергийна ефективност, като водата се използва за отопление на сгради.

Енергийната ефективност на компютърните системи обикновено се измерва по отношение на „FLOPS за ват“. През 2008 г. „Roadrunner“ на „IBM“ работи при 3,76 MFLOPS / W. През ноември 2010 г. на „Blue Gene / Q“ достигна 1684 MFLOPS / W. През юни 2011 г. първите 2 места на „Green500“ списъка са заети от „Blue Gene“ машините в Ню Йорк (постигане 2097 MFLOPS / W), клъстерът „DEGIMA“ в Нагазаки заема трето място с 1375 MFLOPS / W.

Медните проводници и градивните активни и пасивни електронни компоненти могат да отдават топлинна енергия в суперкомпютъра с много по-високи мощности, отколкото принудителното охлаждане с въздух или циркулиращи охладителни системи, могат да премахнат разсейваната топлина. Способността на системите за охлаждане, за да се намали излишната и вредната за работоспособността на електронните устройства топлина, е ограничаващ фактор. Към 2015 г. много от съществуващите суперкомпютри имат повече инфраструктурен охлаждащ капацитет от стандартното максимално потребление на машинната конструкция. Общо консервативно се разработва силна охлаждаща инфраструктура, за да разсее повечето от теоретичната пикова енергия консумирана от суперкомпютъра. Проектите за бъдещите суперкомпютри са „енерго-ограничени“. Топлинната енергийна конструкция на суперкомпютъра като цяло е оразмерен така, че охлаждащата инфраструктура да може да се справи с отдаваната при експлоатацията топлинна енергия.

Софтуер и система за управление[редактиране]

Операционни системи[редактиране]

От края на 20 век, суперкомпютърните операционни системи са претърпели големи трансформации, въз основа на промените в суперкомпютърната архитектура. Докато ранните операционни системи са по поръчка, съобразени с всеки суперкомпютър за да постигне максимална скорост, тенденцията е да се премине от вътрешни операционни системи с адаптирането на общ софтуер като „Linux“.

Тъй като съвременните масови паралелни суперкомпютри, обикновено са с разделени изчисления от други услуги чрез използване на множество видове възли. Те обикновено работят на различни операционни системи на различните възли, например с помощта на малък и ефективен „lightweight kernel“ като „CNK“ или „CNL“ на изчислителни възли но големите системи като „Linux дистрибуциите“ на сървъра и I / O възли.

Въпреки, че повечето съвременни суперкомпютри използват операционната система Linux, всеки производител има своя специфична Linux-дистрибуция, а не съществуващите нормални стандарти, което отчасти се дължи на факта, че разликите в хардуерните архитектури изискват промени за оптимизиране на операционната система на всеки хардуер дизайн.

Софтуерни инструменти и предаван на съобщения[редактиране]

Широко ъглов изглед на ALMA correlator.[3]

Паралелните архитектури на суперкомпютрите често диктуват използването на специални програмни техники за да вдигнат тяхната скорост. Програмните средства за разпределена обработка включват стандартни интерфейси като „MPI“ и „PVM“, „VTL“, и с отворен код-базирани софтуерни решения като „Beowulf“.

В най-общ сценарий, се използват среди като „PVM“ и „MPI“ за свободно свързани клъстери и „OpenMP“ където машините използват плътно координирана споделена памет. Изискват се значителни усилия, за да се оптимизира един алгоритъм за характеристиките на взаимно свързване на машината. Целта е да се предотврати загуба на време на всеки от процесорите в очакване на данни от други възли. „GPGPUs“ има стотици процесорни ядра и са програмирани с помощта на програмни модели като „CUDA“ или „OpenCL“.

Още повече, че е доста трудно да се дебъгват и тестват паралелни програми. Такива приложения трябва да се тестват със специални техники за отстраняването на техните проблеми.

Разпределени суперкомпютри[редактиране]

Oпортюнистични подходи[редактиране]

Примерна архитектура на grid computing система, свързваща много персонални компютри по интернет.

Опортюнистичен суперкомпютър е форма на мрежова обработка мрежа, чрез която „супер виртуален компютър“ на много свободно съчетани доброволци с изчислителни машини изпълняват много големи изчислителни задачи. Грид-технологията е била прилагана за редица мащабни Embarrassingly parallel проблеми, които изискват суперкомпютри за мащабна производителност. Въпреки това, основните мрежови и изчислителни облачни подходи, които разчитат на доброволни компютри не могат да се справят с традиционните суперкомпютърни задачи като плавните динамични симулации.

Най-бързите грид системи са distributed computing project Folding@home Home. F @h докладва 101 PFLOPS на обработка x86 архитектура от октомври 2016 г. От тях над 100 PFLOPS са допринесени от клиенти, работещи на различни графични процесори GPU, а останалата част от от CPU системите.

Платформата BOINC е домакин на редица разпределени изчислителни проекти. Към февруари 2017 г. BOINC записаха възможност за обработка на над 166 петафлопа чрез над 762 000 активни компютри (Хостове) в мрежата.

Към края на октомври 2016 г., разпределени Mersenne Prime GIMPS постигат около 0,313 PFLOPS чрез над 1,3 милиона компютри. The Internet PrimeNet сървър поддържа тип изчислителна мрежа GIMPS, една от най-ранните и най-успешните изчислителни мрежови проекти, от 1997 г. насам.

Квази-опортюнистични подходи[редактиране]

Квази-сътрудничествен суперкомпютър е форма на разпределени изчисления, при която „супер виртуален компютър“ на много мрежови географски разпръсне компютри извършва изчислителни задачи, които изискват огромна изчислителна мощ. Квази-опортюнистик суперкомпютри има за цел да осигури по-високо качество на обслужване от опортюнистична изчислителна мрежа, чрез постигане на по-голям контрол върху разпределянето на задачите, за да разпределят ресурси и използването на разузнавателна информация за наличността и надеждността на отделните системи в мрежата на суперкомпютри. 

HPC в облака[редактиране]

Cloud Computing е скорошен и бързото му разширение и развитие грабна вниманието на потребителите и разработчиците на HPC в последните години. Cloud Computing се опитва да осигури HPC-като-услуга точно като други форми на услуги при разполагането в облака, като например софтуер-като-услуга, платформа-като-услуга, и инфраструктура-като-услуга. Потребителите HPC могат да се възползват от облака в различни ъгли, като мащабируемост, ресурси, които са по поръчка, бързо и евтино. От друга страна, движещите се HPC апликации също имат набор от предизвикателства. Добри примери за такива предизвикателства са над виртуализация в Облака, мулти-наемане на ресурси, и проблеми с мрежата латентност. Правят се много изследвания, за да се преодолеят тези предизвикателства и HPC да се направи в облака по-реалистична възможност.

Измерване на производителност[редактиране]

Способност в сравнение с капацитет[редактиране]

Supercomputers обикновено се стремете към максимално в изчислителната способността, а не изчислителни мощности. Възможност компютри обикновено се мисли като използване на максималната изчислителна мощност, за да се реши един единствен голям проблем в най-кратък период от време. Често система способност е в състояние да реши проблема с размер или сложност, че няма друг компютър може, например, много сложна заявка време симулация.

Показатели за ефективност[редактиране]

Топ суперкомпутър скорос: logscale за периода от 60 години

Като цяло, скоростта на суперкомпютри се измерва и оценени в „FLOPS-сове“ (операции с плаваща запетая в секунда), а не от гледна точка на „MIPS“ (млн. Инструкции за секунда), в случая какво е общото с предназначените компютри. Тези измервания обикновено се използват с префикс SI като tera-, комбинирани в стенографията „TFLOPS“ (10^2 TFLOPS, изразени терафлопа), или peta-, комбинирани в стенографията „PFLOPS“ (10^15 FLOPS, изразени петафлопа.) "Petascale " суперкомпютри могат да обработват един квадрилион (10^15) (1000 трилиона) FLOPS. „Exascale“ е изчислителна производителност в exaFLOPS (EFLOPS) обхват. Един EFLOPS е един квинтилиона (10^18) FLOPS (един милион TFLOPS).

Нито един номер може да се отрази на общата производителност на компютърната система, все още целта на Linpack тестовете е да изчисли, средното бързодойствие при решаването на числените проблеми и това е широко използвано в индустрията. Измерването на FLOPS или се котира на базата на теоретичната плаваща точка при изпълнението на един процесор (получен от спецификациите на процесора на производителя и показани като „Rpeak“ в списъците на TOP500), което обикновено е непостижимо, когато работи реални работни натоварвания, или пропускателната способност, получена от Linpack тестовете и е показана като „Rmax“ в списъка на TOP500. LINPACK benchmark тестовете обикновено изпълняват LU разлагане на голяма матрица. Производителността на LINPACK дава известна информация за изпълнение на някои проблемите на реалния свят, но не е задължително да съвпада с изискванията на обработката на много други суперкомпютърни натоварвания, които например могат да изискват повече трафик с памет, или могат да изискват по-добра числова изчислителна производителност, или може да се нуждаят от висока производителност I / O система за постигане на високи нива на производителност.

Списък TOP500[редактиране]

От 1993 г. насам най-бързите суперкомпютри се подреждат в специален списък TOP500 според резултатите им от теста за производителност LINPACK. Списъкът не претендира да бъде безпристрастен или окончателен, но се цитира широко.

По-долу е даден списък на компютрите, заемали първо място в списъка на TOP500 между 2008 и 2016 г., като върховата скорост е обозначена като „Rmax“.

година суперкомпютър Върхова скорост
(Rmax)
Местонахождение
2016 Sunway TaihuLight 93.01 PFLOPS Уси, Китай
2013 NUDT Tianhe-2 33.86 PFLOPS Гуанджоу, Китай
2012 Cray Titan 17.59 PFLOPS Оук Ридж, САЩ
2012 IBM Sequoia 17.17 PFLOPS Ливърмор, САЩ
2011 Fujitsu K computer 10.51 PFLOPS Кобе, Япония
2010 Tianhe-IA 2.566 PFLOPS Тиендзин, Китай
2009 Cray Jaguar 1.759 PFLOPS Оук Ридж, САЩ
2008 IBM Roadrunner 1.026 PFLOPS Лос Аламос, САЩ
1.105 PFLOPS

Разпределение по държави[редактиране]

Първите 20 суперкомпютъра, юни 2013 г.
Разпределение на TOP500 суперкомпютри по света, ноември 2015 г.

Външни препратки[редактиране]

Бележки и препратки[редактиране]

  1. IBM Blue gene announcement. // 03.ibm.com, 26 June 2007. Посетен на 9 June 2012.
  2. Parallel computing for real-time signal processing and control by M. O. Tokhi, Mohammad Alamgir Hossain 2003, ISBN 978-1-85233-599-1, pages 201 – 202
  3. Wide-angle view of the ALMA correlator. // ESO Press Release. Посетен на 13 February 2013.
Криейтив Комънс - Признание - Споделяне на споделеното Лиценз за свободна документация на ГНУ Тази страница частично или изцяло представлява превод на страницата „Supercomputer“ в Уикипедия на английски. Оригиналният текст, както и този превод, са защитени от Лиценза „Криейтив Комънс - Признание - Споделяне на споделеното“, а за съдържание, създадено преди юни 2009 година — от Лиценза за свободна документация на ГНУ. Прегледайте историята на редакциите на оригиналната страница, както и на преводната страница. Вижте източниците на оригиналната статия, състоянието ѝ при превода, и списъка на съавторите.  


Този цитат "Високопроизводителни изчисления - Суперкомпютър" е от Уикипедия. Списъкът с редактори може да се види в историята на редакциите  and/or the page Edithistory:Високопроизводителни изчисления - Суперкомпютър..

Този цитат е от Уикипедия. Списъкът с редактори може да се види в историята на редакциите.



Read or create/edit this page in another language[редактиране]