Supercomputer


A Supercomputer ist ein Computer mit einem hohen Leistungsniveau im Vergleich zu a Allzweckcomputer. Die Leistung eines Supercomputers wird üblicherweise in gemessen Schwimmpunkt Operationen pro Sekunde (Flops) Anstatt von Millionen Anweisungen pro Sekunde (MIPS). Seit 2017 gibt es Supercomputer, die über 10 Leistung erbringen können17Flops (hundert Billionen Flops, 100 Petaflops oder 100 Pflops).[3]
Zum Vergleich hat ein Desktop -Computer eine Leistung im Bereich von Hunderten von Gigaflops zu zehn Teraflops.[4][5]
Seit November 2017 alle alle Die schnellsten 500 Supercomputer der Welt Lauf Linux-Basierte Betriebssysteme.[6] In den USA, in der Europäischen Union, Taiwan, Japan und China werden zusätzliche Forschungsergebnisse durchgeführt, um schneller, leistungsfähiger und technologisch überlegener zu bauen Exascale Supercomputer.[7]
Supercomputer spielen eine wichtige Rolle im Bereich von Computerwissenschaft, und werden für eine Vielzahl rechenintensiver Aufgaben in verschiedenen Bereichen verwendet, einschließlich Quantenmechanik, Wettervorhersage, Klimaforschung, Öl- und Gasforschung, molekulare Modellierung (Berechnung der Strukturen und Eigenschaften chemischer Verbindungen, biologisch Makromoleküle, Polymere und Kristalle) und physikalische Simulationen (wie Simulationen der frühen Momente des Universums, des Flugzeugs und des Raumfahrzeugs Aerodynamikdie Detonation von Atomwaffen, und Kernfusion). Sie waren auf dem Gebiet von wesentlich Kryptanalyse.[8]
Supercomputer wurden in den 1960er Jahren eingeführt und seit einigen Jahrzehnten die schnellsten von gemacht von Seymour Cray bei Steuerungsdatengesellschaft (CDC), Cray Research und nachfolgende Unternehmen mit seinem Namen oder Monogramm. Die ersten derartigen Maschinen waren stark abgestimmte konventionelle Designs, die schneller als ihre allgemeineren Zeitgenossen lief. Im Laufe des Jahrzehnts zunehmend Mengen von Parallelität wurden hinzugefügt, mit einem bis vier Prozessoren typisch sein. In den 1970ern, Vektorprozessoren Der Betrieb mit großen Datenanordnungen führte zu dominieren. Ein bemerkenswertes Beispiel ist das sehr erfolgreiche Cray-1 von 1976. Vektorcomputer blieben bis in die neunziger Jahre das dominierende Design. Von da an bis heute, massiv parallel Supercomputer mit Zehntausenden von Verarbeitungsverfahren wurden zur Norm.[9][10]
Die USA waren seit langem führend im Supercomputerfeld, zunächst durch Crays fast ununterbrochene Dominanz des Feldes und später durch eine Vielzahl von Technologieunternehmen. Japan machte in den 1980er und 90er Jahren wichtige Fortschritte auf dem Gebiet, wobei China auf diesem Gebiet zunehmend aktiv wurde. Ab Mai 2022 der schnellste Supercomputer auf der Top500 Die Supercomputerliste ist Grenze in den USA mit a Linpack Benchmark Punktzahl von 1,102 Exaflop/s, gefolgt von Fugaku;[11] Die USA haben vier der Top 10; China und Italien haben jeweils zwei, die Schweiz hat einen.[12] Im Juni 2018 brachen alle kombinierten Supercomputer auf der Top500 -Liste die 1Exaflops Kennzeichen.[13]
Geschichte



1960,, Univac gebaut die Livermore Atomic Research Computer (LARC), der heute unter den ersten Supercomputern für das US Navy Research and Development Center betrachtet wird. Es benutzte immer noch Hochgeschwindigkeit Drum -Speichereher als die neu aufgetaucht Festplattenantrieb Technologie.[14] Auch unter den ersten Supercomputern war die IBM 7030 Stretch. Der IBM 7030 wurde von IBM für die gebaut Los Alamos Nationales Labor, was 1955 einen Computer 100 -mal schneller angefordert hatte als jeder vorhandene Computer. Der IBM 7030 wurde verwendet Transistoren, magnetischer Kerngedächtnis, Pipeline Anweisungen, vorgeholte Daten über einen Speichercontroller und umfasste Pionierabstände mit Zufallszugriffsdisksen. Der IBM 7030 wurde 1961 fertiggestellt und obwohl er nicht die Herausforderung einer hundertfachen Leistung steigerte, wurde er vom Los Alamos National Laboratory gekauft. Kunden in England und Frankreich kauften auch den Computer, und es wurde die Grundlage für die IBM 7950 Ernte, ein Supercomputer für Kryptanalyse.[15]
Das dritte Pionierprojekt von Supercomputer in den frühen 1960er Jahren war das Atlas Bei der Universität von Manchester, gebaut von einem Team angeführt von Tom Kilburn. Er hat den Atlas so gestaltet, dass er für bis zu einer Million Wörter von 48 Bit Speicherplatz verfügte. Da Magnetspeicher mit einer solchen Kapazität jedoch unerschwinglich war, betrug der tatsächliche Kerngedächtnis des Atlas nur 16.000 Wörter, wobei eine Trommel für weitere 96.000 96.000 96.000 lieferte. Wörter. Der Atlas Betriebssystem getauscht Daten in Form von Seiten zwischen dem Magnetkern und der Trommel. Das Atlas -Betriebssystem wurde ebenfalls eingeführt Zeitteilung zum Supercomputing, damit mehr als ein Programm gleichzeitig auf den Supercomputer ausgeführt werden kann.[16] Atlas war ein Joint Venture zwischen Ferranti und die Manchester University und wurde so konzipiert, dass sie mit Verarbeitungsgeschwindigkeiten betrieben werden, die sich einer Mikrosekunde pro Anweisung nähern, etwa eine Million Anweisungen pro Sekunde.[17]
Das CDC 6600, entworfen von Seymour Cray, wurde 1964 fertiggestellt und markierte den Übergang von Germanium zu Silizium Transistoren. Siliziumtransistoren konnten schneller laufen und das Überhitzungsproblem wurde durch Einführung von Kühlung in das Supercomputer -Design gelöst.[18] So wurde der CDC6600 zum schnellsten Computer der Welt. Angesichts der Tatsache, dass der 6600 alle anderen zeitgenössischen Computer um etwa zehn Mal übertraf, wurde er a genannt Supercomputer und definierte den Supercomputing -Markt, als einhundert Computer jeweils 8 Millionen US -Dollar verkauft wurden.[19][20][21][22]
Cray verließ CDC 1972, um seine eigene Firma zu bilden. Cray Research.[20] Vier Jahre nach dem Verlassen von CDC lieferte Cray die 80 MHz Cray-1 1976 wurde dies zu einer der erfolgreichsten Supercomputer in der Geschichte.[23][24] Das Cray-2 wurde 1985 veröffentlicht. Es hatte acht Zentrale Verarbeitungseinheiten (CPUs), Flüssigkühlung und die Elektronikkühlmittelflüssigkeit Fluorinert wurde durch die gepumpt Supercomputerarchitektur. Es erreichte 1,9Gigaflops, damit es der erste Supercomputer ist, der die Gigaflop -Barriere durchbricht.[25]
Massiv parallele Designs

Der einzige Computer, der die Leistung des Cray-1 in den 1970er Jahren ernsthaft herausforderte ILLIAC IV. Diese Maschine war das erste realisierte Beispiel eines wahren massiv parallel Computer, bei dem viele Prozessoren zusammengearbeitet haben, um verschiedene Teile eines einzelnen größeren Problems zu lösen. Im Gegensatz zu den Vektorsystemen, die so schnell wie möglich einen einzelnen Datenstrom ausführen, füttert der Computer in diesem Konzept getrennte Teile der Daten an völlig unterschiedliche Prozessoren und rekombiniert dann die Ergebnisse. Das Entwurf des ILLIAC wurde 1966 mit 256 Prozessoren abgeschlossen und bietet eine Geschwindigkeit von bis zu 1 GFLOPS im Vergleich zum Cray-1-Spitzenwert von 250 Mflops der 1970er Jahre. Entwicklungsprobleme führten jedoch dazu, dass nur 64 Prozessoren gebaut wurden, und das System konnte niemals schneller als etwa 200 MFLOPs funktionieren, während sie viel größer und komplexer waren als der Cray. Ein weiteres Problem war, dass das Schreiben von Software für das System schwierig war, und die Spitzenleistung daraus schwerwiegender Anstrengungen war.
Aber der teilweise Erfolg der ILLIAC IV wurde allgemein als Hinweis auf die Zukunft des Supercomputings angesehen. Cray argumentierte dagegen und witzelte: "Wenn Sie ein Feld pflügen würden, welche würden Sie lieber verwenden? Zwei starke Ochsen oder 1024 Hühner?"[26] In den frühen 1980er Jahren arbeiteten jedoch mehrere Teams mit Tausenden von Prozessoren an parallelen Designs, insbesondere an der Verbindungsmaschine (Cm), die sich aus der Forschung bei entwickelten MIT. Das CM-1 verwendete bis zu 65.536 vereinfachte Benutzerdefinierungen Mikroprozessoren mit zusammen verbunden in a Netzwerk Daten teilen. Es folgten mehrere aktualisierte Versionen; Der CM-5-Supercomputer ist ein massiv paralleler Verarbeitungscomputer, der von vielen Milliarden arithmetischen Operationen pro Sekunde in der Lage ist.[27]
1982,, Osaka University's Links-1 Computergrafiksystem verwendet a massiv parallel Verarbeitungsarchitektur mit 514 Mikroprozessoren, einschließlich 257 Zilog Z8001 Kontrollprozessoren und 257 IAPX 86/20 Schwimmpunktprozessoren. Es wurde hauptsächlich zur Realistik verwendet 3D -Computergrafik.[28] Fujitsus VPP500 von 1992 ist seitdem ungewöhnlich, um höhere Geschwindigkeiten zu erreichen, und seine Prozessoren verwendeten Gaas, ein Material, das aufgrund seiner Toxizität normalerweise für Mikrowellenanwendungen reserviert ist.[29] Fujitsu's Numerischer Windkanal Supercomputer verwendete 166 Vektorprozessoren, um 1994 den ersten Platz mit einer Spitzengeschwindigkeit von 1,7 zu gewinnenGigaflops (GFLOPS) pro Prozessor.[30][31] Das Hitachi SR2201 erzielte 1996 eine Spitzenleistung von 600 Gflops unter Verwendung von 2048 Prozessoren, die über eine schnelle dreidimensionale Verbindung verbunden sind Latte Netzwerk.[32][33][34] Das Intel Paragon könnte 1000 bis 4000 haben Intel i860 Prozessoren in verschiedenen Konfigurationen und wurde 1993 am schnellsten der Welt eingestuft. Der Paragon war a Mimd Maschine, die Prozessoren über ein zweidimensionales Netz mit hoher Geschwindigkeit angeschlossen hat, sodass Prozesse auf getrennten Knoten ausgeführt werden können, die über die kommunizieren Schnittstelle zur Nachrichtenübergabe.[35]
Die Softwareentwicklung blieb ein Problem, aber die CM -Serie löste eine beträchtliche Untersuchung dieses Problems aus. Ähnliche Designs mit benutzerdefinierten Hardware wurden von vielen Unternehmen hergestellt, einschließlich der Evans & Sutherland ES-1, Masspar, Ncube, Intel ipsc und die Goodyear MPP. Mitte der neunziger Jahre hatte sich die CPU-Leistung der allgemeinen Purpose jedoch so stark verbessert, dass ein Supercomputer mit ihnen als individuelle Verarbeitungseinheiten erstellt werden konnte, anstatt benutzerdefinierte Chips zu verwenden. Um die Wende des 21. Jahrhunderts waren Designs mit Zehntausenden von CPUs der Ware die Norm, wobei spätere Maschinen hinzugefügt wurden Grafikeinheiten zur Mischung.[9][10]


Systeme mit einer massiven Anzahl von Prozessoren nehmen im Allgemeinen einen von zwei Wegen ein. In dem Raster Computing Der Ansatz, die Verarbeitungsleistung vieler Computer, organisiert als verteilte, vielfältige Verwaltungsbereiche, wird opportunistisch verwendet, wenn ein Computer verfügbar ist.[36] In einem anderen Ansatz werden viele Prozessoren in der Nähe zueinander verwendet, z. in einem Computercluster. In einem so zentralisierten massiv parallel System die Geschwindigkeit und Flexibilität der verbinden wird sehr wichtig und moderne Supercomputer haben verschiedene Ansätze verwendet, die von Enhanced reichen Infiniband Systeme bis dreidimensional Torusverbindungen.[37][38] Die Verwendung von Multi-Core-Prozessoren In Kombination mit der Zentralisierung ist eine aufkommende Richtung, z. wie in der Cyclops64 System.[39][40]
Als Preis, Leistung und Energieeffizienz von Allzweck-Grafikverarbeitungseinheiten (Gpgpus) haben sich verbessert, eine Reihe von Petaflops Supercomputer wie Tianhe-i und Nebel Ich habe mich auf sie verlassen.[41] Andere Systeme wie die jedoch K Computer Verwenden Sie weiterhin konventionelle Prozessoren wie z. Sparc-basierte Entwürfe und die allgemeine Anwendbarkeit von Gpgpus Im Allgemeinen war Hochleistungs-Computing-Anwendungen Gegenstand von Debatten, da eine GPGPU zwar auf bestimmte Benchmarks eingestellt wird es.[42] GPUs gewinnen jedoch an Boden, und 2012 die Jaguar Supercomputer wurde in verwandelt Titan Durch Nachrüstung von CPUs mit GPUs.[43][44][45]
Hochleistungs-Computer haben einen erwarteten Lebenszyklus von etwa drei Jahren, bevor er ein Upgrade benötigt.[46] Das Gyoukou Supercomputer ist insofern einzigartig, als er sowohl ein massiv parallele Design als auch verwendet Flüssigeintauchkühlung.
SPEZIALE Zweck Supercomputer
Eine Reihe von Sondersystemen wurde entworfen, die einem einzigen Problem gewidmet sind. Dies ermöglicht die Verwendung von speziell programmierten FPGA Chips oder sogar Brauch Asics, um bessere Preis-/Leistungsverhältnisse durch Opfer der Allgemeinheit zuzulassen. Beispiele für Spezial-Purpose-Supercomputer gehören Belle,[47] Tiefes Blau,[48] und Hydra[49] fürs Spielen Schach, Schwerkraftrohr für Astrophysik,[50] MdGrape-3 Für die Proteinstrukturvorhersage und molekulare Dynamik,[51] und Tiefes Riss für das Brechen der Des Chiffre.[52]
Energieverbrauch und Wärmemanagement
Während der Jahrzehnte die Verwaltung von Wärmedichte ist für die meisten zentralisierten Supercomputer ein wichtiges Problem geblieben.[55][56][57] Die große Menge an Wärme, die durch ein System erzeugt wird, kann auch andere Effekte haben, z. Reduzierung der Lebensdauer anderer Systemkomponenten.[58] Es gab verschiedene Ansätze zum Wärmemanagement, vom Pumpen Fluorinert durch das System zu einem hybriden Flüssigkeits-Luft-Kühlsystem oder Luftkühlung mit normalem Klimaanlage Temperaturen.[59][60] Ein typischer Supercomputer verbraucht große Mengen an elektrischer Leistung, von denen fast alle in Wärme umgewandelt werden und abkühlt werden müssen. Zum Beispiel, Tianhe-1a verbraucht 4.04Megawatt (MW) von Strom.[61] Die Kosten für die Stromversorgung und das Abkühlen des Systems können signifikant sein, z. 4 MW bei 0,10 USD/kWh beträgt 400 USD pro Stunde oder etwa 3,5 Millionen US -Dollar pro Jahr.
Das Wärmemanagement ist ein wichtiges Problem in komplexen elektronischen Geräten und wirkt sich auf verschiedene Weise auf leistungsstarke Computersysteme aus.[62] Das Wärmekonstruktionskraft und CPU -Leistungsdissipation Probleme beim Supercomputieren übertreffen die der traditionellen Computerkühlung Technologien. Die Supercomputing -Auszeichnungen für umweltfreundliche Computernutzung spiegeln dieses Problem wider.[63][64][65]
Die Verpackung von Tausenden von Prozessoren zusammenbringt zwangsläufig erhebliche Mengen an Wärmedichte Das muss behandelt werden. Das Cray-2 war flüssigkeitsgekühltund benutzte a Fluorinert "Kühlwasserfall", der unter Druck durch die Module gezwungen wurde.[59] Der untergetauchte Ansatz der Flüssigkeitskühlung war jedoch für die Multi-Kabinet-Systeme auf der Grundlage außerhalb der Shelf-Prozessoren und in nicht praktikabel System x Ein spezielles Kühlsystem, das die Klimaanlage mit Flüssigkühlung kombinierte, wurde in Verbindung mit dem entwickelt Liebert Company.[60]
In dem Blaues Gen System, IBM, verwendete absichtlich niedrige Stromverarbeitungsprozessoren, um mit Wärmedichte umzugehen.[66] Das IBM Power 7752011 veröffentlicht 2011, hat eng gepackte Elemente, die Wasserkühlung erfordern.[67] Das IBM Aquasar Das System nutzt die Kühlung von heißem Wasser, um Energieeffizienz zu erzielen. Das Wasser wird auch zum Wärme von Gebäuden verwendet.[68][69]
Die Energieeffizienz von Computersystemen wird im Allgemeinen in Bezug auf "gemessen"Flops pro Watt". In 2008, Roadrunner durch IBM bei 3,76 betriebenMflops/w.[70][71] Im November 2010 die Blaues Gen/q erreichte 1.684 mflops/w[72][73] und im Juni 2011 die beiden besten Plätze auf der Grün 500 Die Liste wurden von besetzt von Blaues Gen Maschinen in New York (einer, der 2097 mflops/w erreicht) mit dem Degima -Cluster in Nagasaki mit 1375 mflops/w den dritten Platz belegen.[74]
Da Kupferdrähte Energie in einen Supercomputer mit viel höheren Leistungsdichten übertragen können, kann es entfernen Abwärme,[75] Die Fähigkeit der Kühlsysteme, Abwärme zu entfernen, ist ein begrenzender Faktor.[76][77] Ab 2015[aktualisieren]Viele vorhandene Supercomputer haben mehr Infrastrukturkapazität als der tatsächliche Spitzenbedarf der Maschine - Designer entwerfen im Allgemeinen konservativ die Strom- und Kühlinfrastruktur so, dass sie mehr als die vom Supercomputer verbrauchte theoretische elektrische Stromausstattung verarbeiten. Designs für zukünftige Supercomputer sind kraftvoll-die Wärmekonstruktionskraft Von dem Supercomputer als Ganzes ist die Menge, die die Leistung und die Kühlinfrastruktur verarbeiten können, etwas mehr als der erwartete normale Stromverbrauch, jedoch weniger als der theoretische Spitzenleistungspflicht der elektronischen Hardware.[78]
Software- und Systemverwaltung
Betriebssysteme
Seit dem Ende des 20. Jahrhunderts, Supercomputer -Betriebssysteme haben wichtige Transformationen unterzogen, basierend auf den Änderungen in Supercomputerarchitektur.[79] Während frühe Betriebssysteme auf jeden Supercomputer zugeschnitten waren, um Geschwindigkeit zu erreichen Linux.[80]
Seit modern massiv parallel Supercomputer trennen in der Regel Berechnungen von anderen Diensten mit mehreren Arten von KnotenSie führen normalerweise verschiedene Betriebssysteme auf verschiedenen Knoten aus, z. mit einem kleinen und effizienten Leichter Kernel wie zum Beispiel CNK oder CNL auf Berechnung Knoten, aber ein größeres System wie a Linux-Deivativ auf dem Server und I/o Knoten.[81][82][83]
Während eines herkömmlichen Multi-User-Computersystems Arbeit planen ist in der Tat a Aufgabe Das Problem für die Verarbeitung und periphere Ressourcen in einem massiv parallelen System muss das Arbeitsmanagementsystem die Zuweisung sowohl Rechen- als auch Kommunikationsressourcen verwalten und mit unvermeidlichen Hardwarefehlern umgehen, wenn Zehntausende von Prozessoren vorhanden sind.[84]
Obwohl die meisten modernen Supercomputer verwenden Linux-Basiertes Betriebssysteme hat jeder Hersteller seinen eigenen spezifischen Linux-Derivat, und es gibt keinen Branchenstandard, was teilweise darauf zurückzuführen ist, dass die Unterschiede in den Hardwarearchitekturen Änderungen erfordern, um das Betriebssystem für jedes Hardwaredesign zu optimieren.[79][85]
Softwaretools und Nachrichtenübergang
Die parallele Architekturen von Supercomputern bestimmen häufig die Verwendung spezieller Programmierechniken, um ihre Geschwindigkeit auszunutzen. Software -Tools für die verteilte Verarbeitung umfassen Standard Apis wie zum Beispiel MPI[87] und PVM, Vtl, und Open Source Software wie Beowulf.
Im häufigsten Szenario, Umgebungen wie PVM und MPI für lose verbundene Cluster und OpenMP Für eng koordinierte gemeinsame Speichermaschinen werden verwendet. Es sind erhebliche Anstrengungen erforderlich, um einen Algorithmus für die Verbindungsmerkmale der Maschine zu optimieren, auf der er ausgeführt wird. Ziel ist es, zu verhindern, dass die CPUs Zeit verschwenden, die auf Daten von anderen Knoten warten. Gpgpus Hunderte von Prozessorkernen haben und werden mit Programmiermodellen programmiert, wie z. CUDA oder OpenCL.
Darüber hinaus ist es ziemlich schwierig, parallele Programme zu debuggen und zu testen. Besondere Techniken müssen zum Testen und Debuggen solcher Anwendungen verwendet werden.
Distributed Supercomputing
Opportunistische Ansätze

Opportunistic Supercomputing ist eine Form von vernetzten Vernetzung Raster Computing wobei ein "super virtueller Computer" von vielen locker verbunden Freiwillige Computergeräte führen sehr große Computeraufgaben aus. Das Grid Computing wurde auf eine Reihe von groß an peinlich parallel Probleme, die Supercomputing -Leistungsskalen erfordern. Basic Grid und jedoch Cloud Computing Ansätze, auf die sich verlassen Freiwilligen Computing Es kann keine traditionellen Supercomputing -Aufgaben wie flüssige dynamische Simulationen erledigen.[88]
Das schnellste Raster -Computersystem ist das Verteilter Computerprojekt Falten@home (F@h). Ab April 2020[aktualisieren], F@h meldete 2,5 Exaflops von x86 Verarbeitungsleistung. Davon werden über 100 PFLOPs von Kunden beigetragen, die auf verschiedenen GPUs betrieben werden, und den Rest aus verschiedenen CPU -Systemen.[89]
Das Berkeley Open Infrastructure für das Netzwerk Computing (BOINC) Die Plattform veranstaltet eine Reihe verteilter Computerprojekte. Ab Februar 2017[aktualisieren], BOINC verzeichnete eine Verarbeitungsleistung von über 166 PETAFLOPS über über 762.000 aktive Computer (Hosts) im Netzwerk.[90]
Ab Oktober 2016[aktualisieren], Tolle Internet -Mersenne -Prime -Suche's (gimps) verteilt Mersenne Prime Die Suche erreichte etwa 0,313 PFLOPs auf über 1,3 Millionen Computern.[91] Das Internet -PrimeNet -Server Unterstützt Gimps 'Grid Computing -Ansatz, einen der frühesten und erfolgreichsten Grid Computing -Projekte seit 1997.
Quasi-optunistische Ansätze
Quasi-optunistisches Supercomputing ist eine Form von verteiltes Computer wobei der "super virtuelle Computer" vieler vernetzter geografisch dispergierter Computer Rechenaufgaben ausführt, die enorme Verarbeitungsleistung erfordern.[92] Quasi-optunistisches Supercomputing zielt darauf ab, eine höhere Servicequalität zu bieten als opportunistisches Raster Computing Durch mehr Kontrolle über die Zuordnung von Aufgaben zu verteilten Ressourcen und die Verwendung von Intelligenz über die Verfügbarkeit und Zuverlässigkeit einzelner Systeme innerhalb des Supercomputing -Netzwerks. Eine quasi-optunistische verteilte Ausführung der anspruchsvollen parallelen Computersoftware in Grids sollte jedoch durch Implementierung von Grid-Wise-Zuordnungsvereinbarungen, Ko-Zualokations-Subsystemen, Kommunikations-Topologie-bewusstes Allokationsmechanismen, Fehlertolerant-Nachrichtenübertragungsbibliotheken und Voraussetzungen für Fehler erreicht werden.[92]
Hochleistungscomputerwolken
Cloud Computing Mit seinen jüngsten und schnellen Expansionen und Entwicklung haben sich in den letzten Jahren die Aufmerksamkeit von HPC-Benutzern und -Enternern (Hochleistungs-Computing) auf sich gezogen. Cloud Computing-Versuche, HPC-AS-A-Service zu bereitstellen, genau wie andere Diensteformen, die in der Cloud verfügbar sind, wie z. Software als Dienst, Plattform als Dienst, und Infrastruktur als ein Service. HPC-Benutzer können von der Cloud in unterschiedlichen Blickwinkeln wie Skalierbarkeit profitieren. Auf der anderen Seite haben das Bewegen von HPC -Anwendungen ebenfalls eine Reihe von Herausforderungen. Gute Beispiele für solche Herausforderungen sind Virtualisierung Overhead in der Cloud, Multi-Tenancy von Ressourcen und Probleme mit der Netzwerklatenz. Derzeit wird viel Forschung durchgeführt, um diese Herausforderungen zu bewältigen und HPC in der Cloud zu einer realistischeren Möglichkeit zu machen.[93][94][95][96]
Im Jahr 2016, Penguin Computing, Parallele Arbeiten, r-hpc, Amazon Web Services, Univa, Silicon Graphics International, Umschließung, Sabalcore und Gomput bieten HPC an Cloud Computing. Die Pinguin -On -Demand -Wolke (POD) ist a Rohmetall Berechnen Sie das Modell, um Code auszuführen, aber jeder Benutzer wird gegeben virtualisiert Anmeldeknoten. POD-Computerknoten werden über nicht virtualisierte verbunden 10 gbit/s Ethernet oder qdr Infiniband Netzwerke. Benutzerkonnektivität zum Pod Rechenzentrum reicht von 50 Mbit/s bis 1 Gbit/s.[97] Penguin Computing unter Berufung auf Amazon EC2 Elastic Compute Cloud argumentiert, dass dies der Fall ist Virtualisierung von Rechenknoten ist für HPC nicht geeignet. Penguin Computing hat auch kritisiert, dass HPC -Clouds Kunden, die weit voneinander entfernt sind, Computerknoten zugewiesen haben, was eine Latenz verursacht, die die Leistung für einige HPC -Anwendungen beeinträchtigt.[98]
Leistungsmessung
Fähigkeit versus Kapazität
Supercomputer zielen im Allgemeinen eher das Maximum in der Capability Computing als auf das Kapazitätscomputer ab. Das Capability Computing wird typischerweise als Verwendung der maximalen Rechenleistung angesehen, um ein einziges großes Problem in kürzester Zeit zu lösen. Oft kann ein Fähigkeitssystem ein Problem einer Größe oder Komplexität lösen, die kein anderer Computer kann, z. ein sehr komplexer Wettersimulation Anwendung.[99]
Das Kapazitätscomputer dagegen wird typischerweise als effiziente kostengünstige Rechenleistung angesehen, um ein paar etwas große Probleme oder viele kleine Probleme zu lösen.[99] Architekturen, die sich für die Unterstützung von vielen Benutzern für Routine -Alltagsaufgaben eignen, können viel Kapazität haben, werden jedoch in der Regel nicht als Supercomputer angesehen, da sie kein einziges, sehr komplexes Problem lösen.[99]
Leistungsmetriken

Im Allgemeinen wird die Geschwindigkeit der Supercomputer gemessen und Benchmarked in Flops (Floating-Punkt-Operationen pro Sekunde) und nicht in Bezug auf MIPS (Millionen Anweisungen pro Sekunde), wie es bei Computern der Allgemeinen der Fall der Fall ist.[100] Diese Messungen werden üblicherweise mit einem verwendet SI Präfix wie zum Beispiel Tera-, kombiniert in die Abkürzung (10) (10)12 Flops, ausgesprochen Teraflops), oder Peta-, kombiniert in die Kurzpunkte (10) (10)15 Flops, ausgesprochen Petaflops.)) Petascale Supercomputer können ein Quadrillion verarbeiten (1015) (1000 Billionen) Flops. Exascale IST Rechenleistung im Bereich Exaflops (EFLOPS). Ein Eflops ist eine Quintillion (1018) Flops (eine Million Tflops).
Keine einzige Zahl kann die Gesamtleistung eines Computersystems widerspiegeln, aber das Ziel des Linpack -Benchmarks ist es, zu approximieren, wie schnell der Computer numerische Probleme löst und in der Branche häufig verwendet wird.[101] Die Flops -Messung wird entweder basierend auf der theoretischen schwebenden Punktleistung eines Prozessors (abgeleitet aus der Prozessorspezifikationen des Herstellers als "rpeak" in den Top500 -Listen angegeben, was im Allgemeinen bei der Ausführung realer Arbeitsbelastungen oder des erreichbaren Durchsatz das Linpack Benchmarks und als "rmax" in der Top500 -Liste gezeigt.[102] Der Linpack -Benchmark wird normalerweise durchgeführt LU -Zersetzung einer großen Matrix.[103] Die linpack-Leistung gibt einen gewissen Hinweis auf die Leistung für einige reale Probleme, entspricht jedoch nicht unbedingt den Verarbeitungsanforderungen vieler anderer Supercomputer-Workloads, die beispielsweise möglicherweise mehr Speicherbandbreite erfordern oder möglicherweise eine bessere Integer-Computerleistung erfordern oder eine benötigt. Hochleistungs -E/A -System, um ein hohes Leistungsniveau zu erzielen.[101]
Die Top500 -Liste

Seit 1993 wurden die schnellsten Supercomputer auf der Top500 -Liste gemäß ihren Top500 Linpack Benchmark Ergebnisse. Die Liste behauptet nicht, unvoreingenommen oder endgültig zu sein, aber es handelt sich um eine weit verbreitete aktuelle Definition des "schnellsten" Supercomputers, der zu einem bestimmten Zeitpunkt verfügbar ist.
Dies ist eine aktuelle Liste der Computer, die oben auf der Top500 -Liste erschienen sind.[104] und die "Spitzengeschwindigkeit" wird als "RMAX" -Schest angegeben. Im Jahr 2018, Lenovo wurde der weltweit größte Anbieter für die Top500 -Supercomputer mit 117 produzierten Einheiten.[105]
Jahr | Supercomputer | Rmax (Tflop/s) | Ort |
---|---|---|---|
2022 | Cray/HPE Grenze | 1.102.000,0 | Eichenallee, UNS. |
2020 | Fujitsu Fugaku | 442.010.0 | Kobe, Japan |
2018 | IBM Gipfel | 148.600,0 | Eichenallee, UNS. |
2018 | IBM/Nvidia/Mellanox Sierra | 94.640.0 | Livermore, UNS. |
2016 | Sunway Taihulight | 93.014,6 | Wuxi, China |
2013 | NUDT Tianhe-2 | 61.444,5 | Guangzhou, China |
2019 | Dell Frontera | 23.516,4 | Austin, UNS. |
2012 | Cray/HPE Piz Daint | 21.230,0 | Lugano, Schweiz |
2015 | Cray/HPE Dreieinigkeit | 20,158,7 | New-Mexiko, UNS. |
2018 | Fujitsu ABCI | 19.880.0 | Tokio, Japan |
2018 | Lenovo Supermuc-ng | 19.476.6 | Garching, Deutschland |
Anwendungen
Die Phasen der Supercomputeranwendung können in der folgenden Tabelle zusammengefasst werden:
Jahrzehnt | Verwendungszwecke und Computer beteiligt |
---|---|
1970er Jahre | Wettervorhersage, aerodynamische Forschung (Cray-1).[106] |
1980er Jahre | Probabilistische Analyse,[107] Strahlungsschutzmodellierung[108] (CDC Cyber). |
1990er Jahre | Brute Force Code Breaking (Eff des Crackers).[109] |
2000er Jahre | 3D -Nukleartestsimulationen als Ersatz für rechtliche Verhaltens Nuklearer Verbreitungsvertrag (ASCI q).[110] |
2010er | Simulation der molekularen Dynamik (Tianhe-1a)[111] |
2020s | Wissenschaftliche Forschung zur Ausbruchsprävention/elektrochemischen Reaktionsforschung[112] |
Das IBM Blaues Gen/P -Computer wurde verwendet, um eine Reihe künstlicher Neuronen zu simulieren, die ungefähr einem Prozent eines menschlichen Hirnrinde entsprechen und 1,6 Milliarden Neuronen mit ungefähr 9 Billionen Verbindungen enthält. Dieselbe Forschungsgruppe gelang es auch, einen Supercomputer zu verwenden, um eine Reihe künstlicher Neuronen zu simulieren, die dem gesamten Gehirn einer Ratte entsprechen.[113]
Die moderne Wettervorhersage beruht auch auf Supercomputer. Das Nationales ozeanische und atmosphärische Verwaltung Verwendet Supercomputer, um Hunderte von Millionen von Beobachtungen zu knacken, um Wettervorhersagen genauer zu gestalten.[114]
Im Jahr 2011 wurden die Herausforderungen und Schwierigkeiten bei der Drang der Umschlag beim Supercomputing von unterstrichen IBM's Aufgabe der Blue Waters Petascale -Projekt.[115]
Das Erweiterte Simulation und Computerprogramm Derzeit verwendet Supercomputer, um die Nuklearbestände der Vereinigten Staaten zu pflegen und zu simulieren.[116]
Anfang 2020, COVID-19 war vorne und zentral in der welt. Supercomputer verwendeten verschiedene Simulationen, um Verbindungen zu finden, die möglicherweise die Ausbreitung stoppen könnten. Diese Computer werden zehn Stunden lang mit mehreren parallelen laufenden CPUs ausgeführt, um verschiedene Prozesse zu modellieren.[117][118][119]
Entwicklung und Trends

In den 2010er Jahren haben China, die Vereinigten Staaten, die Europäische Union und andere als Erste konkurriert, die eine 1 erschaffen habenExaflop (1018 oder ein Quintillion Flops) Supercomputer.[120] Erik P. Debenediktis von Sandia National Laboratories hat theoretisiert, dass ein Zettaflops (1021 oder ein Sextillion Flops) Computer ist erforderlich, um die vollständige Durchführung zu erreichen Wettermodellierung, was eine zweiwöchige Zeitspanne genau abdecken könnte.[121][122][123] Solche Systeme können um 2030 gebaut werden.[124]
Viele Monte Carlo Simulationen Verwenden Sie denselben Algorithmus, um einen zufällig generierten Datensatz zu verarbeiten. im Speziellen, Integro-Differentialgleichungen Beschreibung physische Transportprozesse, das zufällige Pfade, Kollisionen sowie Energie- und Impulsabscheidungen von Neutronen, Photonen, Ionen, Elektronen usw. Der nächste Schritt für Mikroprozessoren kann in die sein dritte Dimension; und spezialisiert auf Monte Carlo könnten die vielen Schichten identisch sein und das Design- und Herstellungsprozess vereinfachen.[125]
Die Kosten für den Betrieb von Hochleistungs -Supercomputern sind gestiegen, hauptsächlich aufgrund des steigenden Stromverbrauchs. Mitte der neunziger Jahre benötigte ein Top 10 Supercomputer im Bereich von 100 Kilowatt, im Jahr 2010 die Top 10 Supercomputer zwischen 1 und 2 Megawatt.[126] Eine Studie von 2010 in Auftrag gegeben von von DARPA den Stromverbrauch als die allgegenwärtigste Herausforderung bei der Erreichung von Ermittlung Exascale Computing.[127] Zu dieser Zeit kostete ein Megawatt pro Jahr den Energieverbrauch etwa 1 Million Dollar. Supercomputing-Einrichtungen wurden konstruiert, um die zunehmende Wärmemenge effizient zu entfernen, die von modernen Multi-Kern erzeugt wird Zentrale Verarbeitungseinheiten. Basierend auf dem Energieverbrauch der Green 500 -Liste der Supercomputer zwischen 2007 und 2011 hätte ein Supercomputer mit 1 Exaflops im Jahr 2011 fast 500 Megawatt erforderlich. Betriebssysteme wurden für vorhandene Hardware entwickelt, um Energie zu sparen, wenn möglich.[128] CPU-Kerne, die während der Ausführung einer parallelisierten Anwendung nicht verwendet wurden, wurden in Staaten mit geringer Leistung eingesetzt, was für einige Supercomputing-Anwendungen Energieeinsparungen erzielte.[129]
Die steigenden Kosten für den operativen Supercomputer waren ein treibender Faktor für einen Trend zur Bündelung von Ressourcen durch eine verteilte Supercomputerinfrastruktur. Nationale Supercomputationszentren entstanden in den USA, gefolgt von Deutschland und Japan. Die Europäische Union startete die Partnerschaft für Advanced Computing in Europa (PRACE) mit dem Ziel, eine anhaltende pan-europäische Supercomputerinfrastruktur mit Diensten zu schaffen, um Wissenschaftler während des europäische Union Im Porting, Skalierung und Optimierung von Supercomputing -Anwendungen.[126] Island baute den weltweit ersten Zero-Emission-Supercomputer. Befindet sich im Thor -Rechenzentrum in Reykjavík, Island, dieser Supercomputer stützt sich eher auf vollständig erneuerbare Quellen für seine Macht als auf fossile Brennstoffe. Das kältere Klima verringert auch die Notwendigkeit einer aktiven Kühlung und macht es zu einer der umweltfreundlichsten Einrichtungen in der Welt der Computer.[130]
Die Finanzierung von Supercomputer -Hardware wurde ebenfalls immer schwieriger. Mitte der neunziger Jahre kostete ein Top-10-Supercomputer rund 10 Millionen Euro, während die Top 10 Supercomputern 2010 eine Investition zwischen 40 und 50 Millionen Euro benötigten.[126] In den 2000er Jahren haben die nationalen Regierungen unterschiedliche Strategien für die Finanzierung von Supercomputern eingerichtet. In Großbritannien finanzierte die nationale Regierung den Supercomputer vollständig und Hochleistungs -Computing wurde unter die Kontrolle einer nationalen Finanzierungsbehörde gestellt. Deutschland entwickelte ein gemischtes Finanzierungsmodell, das lokale staatliche Finanzierung und Bundesfinanzierung bündelte.[126]
In der Fiktion
Viele Science-Fiction Schriftsteller haben Supercomputer in ihren Werken vor und nach der historischen Konstruktion solcher Computer dargestellt. Ein Großteil solcher Fiktion befasst sich mit den Beziehungen des Menschen zu den Computern, die sie bauen, und mit der Möglichkeit, sich zwischen ihnen zu entwickeln. Beispiele für Supercomputer in der Fiktion umfassen Hal 9000, Multivac, Die Maschine stoppt, Glados, Der Evitable -Konflikt, Vulcan's Hammer, Koloss, Wop, und Tiefer Gedanke.
Siehe auch
- ACM/IEEE Supercomputing Conference
- ACM SIGHPC
- High Performance Computing
- Hochleistungs-Technisches Computing
- Dschungel Computing
- Nvidia Tesla Personal Supercomputer
- Parallele Computing
- Supercomputing in China
- Supercomputing in Europa
- Supercomputing in Indien
- Supercomputing in Japan
- Testen von Hochleistungs-Computing-Anwendungen
- Ultra -Netzwerktechnologien
- Quanten-Computing
Verweise
- ^ "IBM Blue Gene Ankündigung". 03.ibm.com. 26. Juni 2007. Abgerufen 9. Juni 2012.
- ^ "Unerschrocken". Argonne Leadership Computing Facility. Argonne National Laboratory. Archiviert von das Original am 7. Mai 2013. Abgerufen 26. März 2020.
- ^ "Die Liste: Juni 2018". Top 500. Abgerufen 25. Juni 2018.
- ^ "AMD PlayStation 5 GPU -Spezifikationen". TechPowerup. Abgerufen 11. September 2021.
- ^ "Nvidia Geforce GT 730 Spezifikationen". TechPowerup. Abgerufen 11. September 2021.
- ^ "Betriebssystemfamilie / Linux". Top500.org. Abgerufen 30. November 2017.
- ^ Anderson, Mark (21. Juni 2017). "Globales Rennen in Richtung Exascale wird Supercomputing, KI, zu Massen führen." Spectrum.ieee.org. Abgerufen am 20. Januar 2019.
- ^ Lemke, Tim (8. Mai 2013). "NSA bricht den Boden im massiven Computerzentrum". Abgerufen 11. Dezember 2013.
- ^ a b Hoffman, Allan R.; et al. (1990). Supercomputer: Anweisungen in Technologie und Anwendungen. Nationale Akademien. S. 35–47. ISBN 978-0-309-04088-4.
- ^ a b Hill, Mark Donald; Jouppi, Norman Paul; Sohi, Gurindar (1999). Lesungen in Computerarchitektur. S. 40–49. ISBN 978-1-55860-539-8.
- ^ Paul Alcorn (30. Mai 2022). "AMD-Betrieben von Frontier Supercomputer bricht die Exascale-Barriere, die jetzt am schnellsten der Welt ist". Toms Hardware. Abgerufen 30. Mai 2022.
- ^ "Japan fängt die Top500 Crown mit Armbetrieben Supercomputer - Top500 -Website ein". www.top500.org.
- ^ "Leistungsentwicklung - Top500 Supercomputer -Websites". www.top500.org.
- ^ Eric G. Swedin; David L. Ferro (2007). Computer: Die Lebensgeschichte einer Technologie. JHU Press. p. 57. ISBN 9780801887741.
- ^ Eric G. Swedin; David L. Ferro (2007). Computer: Die Lebensgeschichte einer Technologie. JHU Press. p. 56. ISBN 9780801887741.
- ^ Eric G. Swedin; David L. Ferro (2007). Computer: Die Lebensgeschichte einer Technologie. JHU Press. p. 58. ISBN 9780801887741.
- ^ Der Atlas, Universität Manchester, archiviert von das Original am 28. Juli 2012, abgerufen 21. September 2010
- ^ Die Supermen, Charles Murray, Wiley & Sons, 1997.
- ^ Paul E. Ceruzzi (2003). Eine Geschichte des modernen Computers. MIT Press. p.161. ISBN 978-0-262-53203-7.
- ^ a b Hannan, Caryn (2008). Wisconsin Biografisches Wörterbuch. Veröffentlichungen der Staatsgeschichte. S. 83–84. ISBN 978-1-878592-63-7.
- ^ John Impagliazzo; John A. N. Lee (2004). Geschichte des Computers in der Bildung. Springer Science & Business Media. p.172. ISBN 978-1-4020-8135-4.
- ^ Andrew R. L. Cayton; Richard Sisson; Chris Zacher (2006). The American Midwest: Eine interpretative Enzyklopädie. Indiana University Press. p. 1489. ISBN 978-0-253-00349-2.
- ^ Lesungen in Computerarchitektur Von Mark Donald Hill, Norman Paul Jouppi, Gurindar Sohi 1999 ISBN978-1-55860-539-8 Seite 41-48
- ^ Meilensteine in Informatik und Informationstechnologie von Edwin D. Reilly 2003 ISBN1-57356-521-0 Seite 65
- ^ Aufgrund der sowjetischen Propaganda kann manchmal gelesen werden, dass der sowjetische Supercomputer M13 der erste war, der die Gigaflops -Barriere erreichte. Tatsächlich begann das M13 -Gebäude 1984, war aber vor 1986 nicht betriebsbereit. Rogachev Yury Vasilievich, Russisches virtuelles Computermuseum
- ^ "Seymour Cray Zitate". Brainyquote.
- ^ Steve Nelson (3. Oktober 2014). "Computergk.com: Supercomputer".
- ^ "Links-1 Computer Graphics System-Computer Museum". museum.ipsj.or.jp.
- ^ "VPP500 (1992) - Fujitsu Global".
- ^ "Top500 Jahresbericht 1994". Netlib.org. 1. Oktober 1996. Abgerufen 9. Juni 2012.
- ^ N. Hirose & M. Fukuda (1997). "Numerischer Windkanal (NWT) und CFD -Forschung im National Aerospace Laboratory". Proceedings High Performance Computing auf der Information Superhighway. HPC Asia '97. Verfahren von HPC-Asia '97. IEEE Computer Societypages. S. 99–103. doi:10.1109/hpc.1997.592130. ISBN 0-8186-7901-8.
- ^ H. Fujii, Y. Yasuda, H. Akashi, Y. Inagami, M. Koga, O. Ishihara, M. Syazwan, H. Wada, T. Sumimoto,. Architektur und Leistung des Hitachi SR2201 Massiv parallel Prozessorsystem, Proceedings of 11. International Parallel Processing Symposium, April 1997, Seiten 233–241.
- ^ Y. Iwasaki, The CP-PACS-Projekt, Kernphysik B: Verfahrenspräparate, Band 60, Ausgaben 1–2, Januar 1998, Seiten 246–254.
- ^ A.J. Van der Steen, Überblick über die letzten Supercomputer, Veröffentlichung des NCF, Stichting Nationale Computer Faciliteiten, Niederlande, Januar 1997.
- ^ Skalierbares Eingang/Ausgang: Systembilanz erreichen von Daniel A. Reed 2003 ISBN978-0-262-68142-1 Seite 182
- ^ Prodan, Radu; Fahringer, Thomas (2007). Grid Computing: Experimentmanagement, Werkzeugintegration und wissenschaftliche Workflows. pp.1–4. ISBN 978-3-540-69261-4.
- ^ Ritter, Will: "IBM schafft den mächtigsten Computer der Welt",", Newscientist.com News Service, Juni 2007
- ^ N. R. Agida; et al. (2005). "Blue Gene/l Torus Interconnection Network | IBM Journal of Research and Development" (PDF). Torus -Verbindungsnetzwerk. p. 265. archiviert von das Original (PDF) am 15. August 2011.
- ^ Niu, Yanwei; Hu, Ziang; Barner, Kenneth; Gao, Guang R. (2005). "Leistungsmodellierung und Optimierung des Speicherzugriffs auf der Mobilfunk -Computerarchitektur Cyclops64" (PDF). Netzwerk- und Parallel Computing. Vorlesungsnotizen in Informatik. Vol. 3779. S. 132–143. doi:10.1007/11577188_18. ISBN 978-3-540-29810-6.
- ^ Analyse- und Leistungsergebnisse der Berechnung zwischen der Zentralität zwischen IBM Cyclops64 von Guangming Tan, Vugranam C. Sreedhar und Guang R. Gao Das Journal of Supercomputing Band 56, Nummer 1, 1–24 September 2011
- ^ Prickett, Timothy (31. Mai 2010). "Top 500 Supers - das Verzweiflung des GPUs". Dadurch.co.uk.
- ^ Hans Hacker; Carsten -Trinitis; Josef Weidendorfer; Matthias Brehm (2010). "In Anbetracht der GPGPU für HPC -Zentren: Lohnt es sich die Mühe?". In Rainer Keller; David Kramer; Jan-Philipp Weiss (Hrsg.). Vor dem Multicore-Challenge: Aspekte neuer Paradigmen und Technologien auf dem parallelen Computer. Springer Science & Business Media. S. 118–121. ISBN 978-3-642-16232-9.
- ^ Damon Poeter (11. Oktober 2011). "Crays Titan Supercomputer für Ornl könnte die weltweit schnellste sein". Pcmag.com.
- ^ Feldman, Michael (11. Oktober 2011). "GPUs verwandelt Ornls Jaguar in 20-Petaflop Titan". Hpcwire.com.
- ^ Timothy Prickett Morgan (11. Oktober 2011). "Oak Ridge ändert Jaguars Plätze von CPUs zu GPUs". Dadurch.co.uk.
- ^ "Der Netl Supercomputer". Seite 2.
- ^ Condon, J.H. und K. Thompson, "Belle Schachhardware", Im Fortschritte im Computerschach 3 (Ed.M.R.B.Clarke), Pergamon Press, 1982.
- ^ Hsu, Feng-Hsiung (2002). Hinter Deep Blue: Bau des Computers, der den Weltschachmeister besiegte. Princeton University Press. ISBN 978-0-691-09065-8.
- ^ C. Donninger, U. Lorenz. Das Schachmonsterhydra. Proc. der 14. Internationalen Konferenz über Feldprogrammierlogik und Anwendungen (FPL), 2004, Antwerpen-Belgien, LNCS 3203, S. 927-932
- ^ J Makino und M. Taiji, Wissenschaftliche Simulationen mit speziellen Zwecken: Die Traubensysteme, Wiley. 1998.
- ^ RIKEN -Pressemitteilung, Fertigstellung eines Ein-Petaflops-Computersystems zur Simulation der molekularen Dynamik
- ^ Electronic Frontier Foundation (1998). Cracking Des - Geheimnisse der Verschlüsselungsforschung, Wiretap -Politik und Chipdesign. Oreirly & Associates Inc. ISBN 978-1-56592-520-5.
- ^ Lohr, Steve (8. Juni 2018). "Bewegen Sie sich um, China: Die USA sind wieder die Heimat der schnellsten Supercomputer der Welt". New York Times. Abgerufen 19. Juli 2018.
- ^ "Green500 Liste - November 2018". Top500. Abgerufen 19. Juli 2018.
- ^ Xue-Juni Yang; Xiang-ke liao; et al. (2011). "Der Tianhe-1A-Supercomputer: seine Hardware und Software". Zeitschrift für Informatik und Technologie. 26 (3): 344–351. doi:10.1007/S02011-011-1137-8. S2CID 1389468.
- ^ Die Supermen: Geschichte von Seymour Cray und die technischen Zauberer hinter dem Supercomputer von Charles J. Murray 1997, ISBN0-471-04885-2, Seiten 133–135
- ^ Parallele Computerfluiddyynamik; Jüngste Fortschritte und zukünftige Anweisungen Herausgegeben von Rupak Biswas 2010 ISBN1-60595-022-X Seite 401
- ^ Supercomputing -Forschungsvorschüsse von Yongge Huáng 2008, ISBN1-60456-186-6, Seiten 313–314
- ^ a b Parallele Computing für die Echtzeit-Signalverarbeitung und -steuerung Von M. O. Tokhi, Mohammad Alamgir Hossain 2003, ISBN978-1-85233-599-1, Seiten 201–202
- ^ a b Computational Science - ICCS 2005: 5. Internationale Konferenz Herausgegeben von Vaidy S. Sunderam 2005, ISBN3-540-26043-9, Seiten 60–67
- ^ "Nvidia Tesla GPUs Power World der schnellste Supercomputer" (Pressemitteilung). Nvidia. 29. Oktober 2010.
- ^ Balandin, Alexander A. (Oktober 2009). "Besseres Computer durch die CPU -Kühlung". Spectrum.ieee.org.
- ^ "The Green 500". Green500.org.
- ^ "Green 500 List rangiert Supercomputer". itNews Australien. Archiviert von das Original am 22. Oktober 2008.
- ^ Wu-Chun Feng (2003). "Machen Sie einen Fall für effizientes Supercomputing | ACM Queue Magazine, Band 1 Ausgabe 7, 10. Januar 2003 DOI 10.1145/957717.957772". Warteschlange. 1 (7): 54. doi:10.1145/957717.957772. S2CID 11283177.
- ^ "IBM Uncloaks 20 Petaflops Blugene/Q Super". Das Register. 22. November 2010. Abgerufen 25. November 2010.
- ^ Prickett, Timothy (15. Juli 2011). "Das Register: IBM 'Blue Waters' Superknoten wäscht im August an Land. ". Dadurch.co.uk. Abgerufen 9. Juni 2012.
- ^ "IBM heißer wassergekühlter Supercomputer geht in Eth Zürich live". IBM News Room. 2. Juli 2010. Archiviert Aus dem Original am 10. Januar 2011. Abgerufen 16. März 2020.
- ^ Martin Lamonica (10. Mai 2010). "CNET 10 Mai 2010". News.cnet.com. Archiviert von das Original am 1. November 2013. Abgerufen 9. Juni 2012.
- ^ "Die Regierung enthüllt der schnellste Computer der Welt". CNN. Archiviert von das Original am 10. Juni 2008.
Durchführung von 376 Millionen Berechnungen für jeden verwendeten Watt Strom.
- ^ "IBM Roadrunner nimmt das Gold im Petaflop -Rennen". Archiviert Aus dem Original am 17. Dezember 2008. Abgerufen 16. März 2020.
- ^ "Die Top500 -Supercomputing -Liste enthüllt Computertrends". 20. Juli 2010.
IBM ... BlueGene/Q -System .. Einen Datensatz in Leistungseffizienz mit einem Wert von 1.680 mflops/w, mehr als doppelt so hoch wie das nächstbeste System.
- ^ "IBM recherchieren Sie einen klaren Gewinner in Green 500". 18. November 2010.
- ^ "Green 500 Liste". Green500.org. Archiviert Aus dem Original am 3. Juli 2011. Abgerufen 16. März 2020.
- ^ Saed G. Younis."Asymptotisch Zero Energy Computing mit Ladung der Ladung auf Split-Level-Ladung". 1994. Seite 14.
- ^ "Heißes Thema - Das Problem der Kühlung von Supercomputern" Archiviert 18. Januar 2015 bei der Wayback -Maschine.
- ^ Anand Lal Shimpi."Innerhalb des Titan -Supercomputers: 299K AMD X86 -Kerne und 18,6K Nvidia gpus". 2012.
- ^ Curtis Storlie; Joe Sexton; Scott Pakin; Michael Lang; Brian Reich; William Rust."Modellierung und Vorhersage des Stromverbrauchs von Hochleistungs-Computing-Jobs". 2014.
- ^ a b Enzyklopädie des parallelen Computers von David Padua 2011 ISBN0-387-09765-1 Seiten 426–429
- ^ Kenntnismaschinen: Essays zum technischen Wandel von Donald MacKenzie 1998 ISBN0-262-63188-1 Seite 149-151
- ^ Parallelverarbeitung Euro-Par 2004: 10. Internationale Euro-Par-Konferenz 2004, von Marco Danelutto, Marco Vanneschi und Domenico Laforenza, ISBN3-540-22924-8, Seite 835
- ^ Parallelverarbeitung Euro-Par 2006: 12. Internationale Euro-Par-Konferenz, 2006, von Wolfgang E. Nagel, Wolfgang V. Walter und Wolfgang Lehner ISBN3-540-37783-2 Seite
- ^ Eine Bewertung des Oak Ridge National Laboratory Cray XT3 von sadaf r. alam etal Internationales Journal of High Performance Computing -Anwendungen Februar 2008 Vol. 22 Nr. 1 52–80
- ^ Offene Jobmanagementarchitektur für das Blue Gene/L Supercomputer von Yariv Aridor et al. in Jobplanungsstrategien für die parallele Verarbeitung von Dror G. Feitelson 2005 ISBN978-3-540-31024-2 Seiten 95–101
- ^ "Top500 OS -Diagramm". Top500.org. Archiviert von das Original am 5. März 2012. Abgerufen 31. Oktober 2010.
- ^ "Weitwinkelansicht des Alma-Korrelators". ESO -Pressemitteilung. Abgerufen 13. Februar 2013.
- ^ Nielsen, Frank (2016). Einführung in HPC mit MPI für Data Science. Springer. S. 185–221. ISBN 978-3-319-21903-5.
- ^ Rahat, Nazmul. "Kapitel 03 Software und Systemverwaltung".
{{}}
: Journal zitieren erfordert|journal=
(Hilfe) - ^ Pande Lab. "Client Statistics nach Betriebssystem". Falten@home. Universität in Stanford. Abgerufen 10. April 2020.
- ^ "Boinc kombiniert". Boincstats. BOINC. Archiviert von das Original am 19. September 2010. Abgerufen 30. Oktober 2016Beachten Sie, dass dieser Link aktuelle Statistiken angibt, nicht diejenigen, die am letzten Zugriff aufgerufen werden.
{{}}
: Cs1 montieren: postScript (link) - ^ "Internet -Primenet -Server verteilte Computertechnologie für die große Internet -Mersenne -Prime -Suche". Gims. Abgerufen 6. Juni 2011.
- ^ a b Kravtsov, Valentin; Carmeli, David; Dubitzky, Werner; Orda, Ariel; Schuster, Assaf; Yoshpa, Benny. "Quasi-optunistisches Supercomputing in Grids, Hot Topic Paper (2007)". IEEE Internationales Symposium für Hochleistungsverteilte Computing. IEEE. Abgerufen 4. August 2011.
- ^ Jamalian, S.; Rajaei, H. (1. März 2015). ASETS: Ein SDN ermächtigte Aufgabenplanungssystem für HPCAAs in der Cloud. 2015 IEEE International Conference on Cloud Engineering. S. 329–334. doi:10.1109/IC2E.2015.56. ISBN 978-1-4799-8218-9. S2CID 10974077.
- ^ Jamalian, S.; Rajaei, H. (1. Juni 2015). Datenintensive HPC-Aufgaben Planung mit SDN, um HPC-AS-A-Service zu ermöglichen. 2015 IEEE 8. Internationale Konferenz über Cloud Computing. S. 596–603. doi:10.1109/cloud.2015.85. ISBN 978-1-4673-7287-9. S2CID 10141367.
- ^ Gupta, A.; Milojicic, D. (1. Oktober 2011). Bewertung von HPC -Anwendungen auf der Cloud. 2011 Sechster Open Cirrus Summit. S. 22–26. Citeseerx 10.1.1.294.3936. doi:10.1109/ocs.2011.10. ISBN 978-0-7695-4650-6. S2CID 9405724.
- ^ Kim, H.; El-Khamra, Y.; Jha, S.; Parashar, M. (1. Dezember 2009). Ein autonomer Ansatz für integriertes HPC -Netz und Cloud -Nutzung. Fünfte IEEE International Conference für E-Science 2009. S. 366–373. Citeseerx 10.1.1.455.7000. doi:10.1109/e-Science.2009.58. ISBN 978-1-4244-5340-5. S2CID 11502126.
- ^ Eadline, Douglas. "HPC in die Cloud verschieben". Admin -Magazin. Admin -Magazin. Abgerufen 30. März 2019.
- ^ Niccolai, James (11. August 2009). "Penguin steckt Hochleistungs-Computing in die Cloud". PC Welt. IDG Consumer & SMB. Abgerufen 6. Juni 2016.
- ^ a b c Die potenziellen Auswirkungen des High-End-Capability Computing auf vier veranschaulichende Bereiche der Wissenschaft und des Ingenieurwesens vom Ausschuss für die potenziellen Auswirkungen des High-End-Computers auf veranschaulichende Bereiche für Wissenschaft und Ingenieurwesen und der nationale Forschungsrat (28. Oktober 2008) ISBN0-309-12485-9 Seite 9
- ^ Xingfu Wu (1999). Leistungsbewertung, Vorhersage und Visualisierung paralleler Systeme. Springer Science & Business Media. S. 114–117. ISBN 978-0-7923-8462-5.
- ^ a b Dongarra, Jack J.; Luszczek, Piotr; Petitet, Antoine (2003), "The Linpack Benchmark: Vergangenheit, Gegenwart und Zukunft" (PDF), Parallelität und Berechnung: Übung und Erfahrung, 15 (9): 803–820, doi:10.1002/cpe.728, S2CID 1900724
- ^ "Verständnis von Messungen der Kapazität von Supercomputer und Kapazität des Speichersystems". Universität von Indiana. Abgerufen 3. Dezember 2017.
- ^ "Häufig gestellte Fragen". Top500.org. Abgerufen 3. Dezember 2017.
- ^ Intelbroschüre - 11/91. "Verzeichnisseite für Top500 -Listen. Ergebnis für jede Liste seit Juni 1993". Top500.org. Archiviert von das Original am 18. Dezember 2010. Abgerufen 31. Oktober 2010.
- ^ "Lenovo erreicht den Status als größter globaler Anbieter von Top500 -Supercomputern". Geschäftsdraht. 25. Juni 2018.
- ^ "Das Cray-1-Computersystem" (PDF). Cray Research, Inc.. Abgerufen 25. Mai 2011.
- ^ Joshi, Rajani R. (9. Juni 1998). "Ein neuer heuristischer Algorithmus für die probabilistische Optimierung". Computer & Operations Research. 24 (7): 687–697. doi:10.1016/s0305-0548 (96) 00056-1.
- ^ "Zusammenfassung für Samsy - Abschirmanalyse Modulares System". OECD-Kernenergiebehörde, Issy-Les-Moulineaux, Frankreich. Abgerufen 25. Mai 2011.
- ^ "Eff des Cracker -Quellcodes". Cosic.esat.Kuleuven.be. Abgerufen 8. Juli 2011.
- ^ "Abrüstungdiplomatie: - DOE Supercomputing & Test -Simulationsprogramm". Acronym.org.uk. 22. August 2000. archiviert von das Original am 16. Mai 2013. Abgerufen 8. Juli 2011.
- ^ "Chinas Investition in GPU -Supercomputing beginnt sich viel zu zahlen!". Blogs.nvidia.com. Archiviert von das Original am 5. Juli 2011. Abgerufen 8. Juli 2011.
- ^ Andrew, Scottie. "Der schnellste Supercomputer der Welt identifizierte Chemikalien, die den Coronavirus daran hindern könnten, sich zu verbreiten, ein entscheidender Schritt in Richtung einer Behandlung". CNN. Abgerufen 12. Mai 2020.
- ^ Kaku, Michio. Physik der Zukunft (New York: Doubleday, 2011), 65.
- ^ "Schnellere Supercomputer hilft Wettervorhersagen". News.nationalgeographic.com. 28. Oktober 2010. Abgerufen 8. Juli 2011.
- ^ "IBM Drops 'Blue Waters' Supercomputer -Projekt". Internationale Business Times. 9. August 2011. Abgerufen 14. Dezember 2018. - viaEBSCO (Abonnement erforderlich)
- ^ "Supercomputer". US -Energieministerium. Archiviert von das Original am 7. März 2017. Abgerufen 7. März 2017.
- ^ "Supercomputer -Simulationen helfen, die elektrochemische Reaktionsforschung voranzutreiben". UCSDNews.ucsd.edu. Abgerufen 12. Mai 2020.
- ^ "IBMs Gipfel - der Supercomputer kämpft Coronavirus". Medicalexpo E-Magazin. 16. April 2020. Abgerufen 12. Mai 2020.
- ^ "OSTP-Finanzierung Supercomputerforschung zur Bekämpfung von Covid-19-Meritalk". Abgerufen 12. Mai 2020.
- ^ "EU $ 1.2 Supercomputerprojekt an mehrere 10-100 Petaflop-Computer bis 2020 und Exaflop bis 2022 | NextBigfuture.com". NextBigfuture.com. 4. Februar 2018. Abgerufen 21. Mai 2018.
- ^ Debenedictis, Erik P. (2004). "Der Weg zum extremen Computer" (PDF). Zettaflops. Sandia National Laboratories. Archiviert von das Original (PDF) am 3. August 2007. Abgerufen 9. September 2020.
- ^ Cohen, Reuven (28. November 2013). "Global Bitcoin Computing Power jetzt 256 -mal schneller als Top 500 Supercomputer, kombiniert!". Forbes. Abgerufen 1. Dezember 2017.
- ^ Debenedictis, Erik P. (2005). "Reversible Logik für Supercomputing". Verfahren der 2. Konferenz über die Berechnung von Grenzen. S. 391–402. ISBN 978-1-59593-019-4.
- ^ "IDF: Intel sagt, dass das Gesetz von Moore bis 2029 gilt". Heise online. 4. April 2008. archiviert von das Original am 8. Dezember 2013.
- ^ Solem, J. C. (1985). "Meca: Ein auf Monte Carlo spezialisiertes Multiprozessor -Konzept". Proceedings des gemeinsamen Los Alamos National Laboratory - Commissariat à l'Engie Atomique -Treffen im Cadarache Castle, Provence, Frankreich 22. -26. April 1985; Monte-Carlo-Methoden und -anwendungen in der Neutronen-, Photonik- und statistischen Physik, Alcouffe, R.; Dautray, R.; Forster, a.; Forster, G.; Mercier, b.; Eds. (Springer Verlag, Berlin). Vorlesungsnotizen in der Physik. 240: 184–195. Bibcode:1985lnp ... 240..184s. doi:10.1007/bfb0049047. ISBN 978-3-540-16070-0.
- ^ a b c d Yiannis cotronis; Anthony Danalis; Dimitris nikolopoulos; Jack Dongarra (2011). Jüngste Fortschritte in der Botschaft-Passion-Schnittstelle: 18. Europäische MPI-Nutzergruppensitzung, Eurompi 2011, Santorini, Griechenland, 18.-21. September 2011. Proceedings. Springer Science & Business Media. ISBN 9783642244483.
- ^ James H. Laros III.; Kevin Pedretti; Suzanne M. Kelly; Wei Shu; Kurt Ferreira; John van Dyke; Courtenay Vaughan (2012). Energieeffizientes Hochleistungs-Computing: Messung und Abstimmung. Springer Science & Business Media. p.1. ISBN 9781447144922.
- ^ James H. Laros III.; Kevin Pedretti; Suzanne M. Kelly; Wei Shu; Kurt Ferreira; John van Dyke; Courtenay Vaughan (2012). Energieeffizientes Hochleistungs-Computing: Messung und Abstimmung. Springer Science & Business Media. p.2. ISBN 9781447144922.
- ^ James H. Laros III.; Kevin Pedretti; Suzanne M. Kelly; Wei Shu; Kurt Ferreira; John van Dyke; Courtenay Vaughan (2012). Energieeffizientes Hochleistungs-Computing: Messung und Abstimmung. Springer Science & Business Media. p.3. ISBN 9781447144922.
- ^ "Green Supercomputer knirscht Big Data in Island". intelfreepress.com. 21. Mai 2015. archiviert von das Original am 20. Mai 2015. Abgerufen 18. Mai 2015.
Externe Links
- McDonnell, Marshall T. (2013) "Supercomputer -Design: Erste Anstrengungen zur Erfassung der Umwelt-, wirtschaftlichen und gesellschaftlichen Auswirkungen". Veröffentlichungen für chemische und biomolekulare Ingenieurwesen und andere Werke.