Skip to Content

Was ist ein Supercomputer?

Der Begriff „Supercomputer“ bezieht sich auf einen Computer, der mit einer höheren Performance arbeitet als ein Standardcomputer. Oft bedeutet dies, dass die Architektur, die Ressourcen und die Komponenten von Supercomputern diese extrem leistungsfähig machen, sodass sie mit oder möglichst nahe an der höchstmöglichen Betriebsrate für Computer arbeiten können. 

Supercomputer enthalten die meisten der wichtigsten Komponenten eines typischen Computers, darunter mindestens einen Prozessor, Peripheriegeräte, Anschlüsse, ein Betriebssystem und verschiedene Anwendungen. Der Hauptunterschied zwischen einem Supercomputer und einem Standardcomputer ist seine Rechenleistung.

In der Vergangenheit waren Supercomputer einzelne, superschnelle Maschinen, die vor allem von Unternehmen und wissenschaftlichen Organisationen verwendet wurden, die massive Rechenleistung für extrem schnelle Berechnungen benötigten. Moderne Supercomputer können jedoch aus Zehntausenden von Prozessoren bestehen, die Milliarden oder sogar Billionen von Berechnungen pro Sekunde durchführen können.

Zu den gängigen Anwendungen für Supercomputer gehören heute die Wettervorhersage, die Betriebskontrolle von Kernreaktoren und die Kryptologie. Da die Kosten für das Supercomputing gesunken sind, werden moderne Supercomputer auch für Marktforschung, Online-Spiele und VR- und AR-Anwendungen (Virtual Reality und Augmented Reality) eingesetzt.

Eine kurze Geschichte des Supercomputers

Im Jahr 1964 schufen Seymour Cray und sein Team von Entwicklern bei der Control Data Corporation (CDC) mit dem CDC 6600 den ersten Supercomputer. Damals war der CDC 6600 zehnmal schneller als herkömmliche Computer und dreimal schneller als der nächstschnellste Computer, der IBM 7030 Stretch, der Berechnungen mit einer Geschwindigkeit von bis zu 3 MegaFLOPS (FLoating-point Operations Per Second, Gleitkommaoperationen pro Sekunde) durchführte. Nach heutigen Maßstäben ist das zwar langsam, aber damals war er schnell genug, um als Supercomputer bezeichnet zu werden. 

Seymour Cray, der als „Vater des Supercomputing“ bekannt ist, und sein Team waren führend in der Supercomputing-Industrie und brachten im Jahr 1969 den CDC 7600 (160 MegaFLOPS), 1982 den Cray X-MP (800 MegaFLOPS) und 1985 den Cray 2 (1,9 GigaFLOPS) heraus.

In der Folge versuchten andere Unternehmen, Supercomputer erschwinglicher zu machen und entwickelten die massiv-parallele Verarbeitung (MPP, Massively Parallel Processing). Im Jahr 1992 bauten Don Becker und Thomas Sterling, Auftragnehmer der NASA, den Beowulf, einen Supercomputer, der aus einer Gruppe von zusammenarbeitenden Computereinheiten bestand. Er war der erste Supercomputer, der das Clustermodell verwendete.

Moderne Supercomputer verwenden sowohl zentrale Recheneinheiten (CPUs) als auch Grafikprozessoren (GPUs), die zusammenarbeiten, um Berechnungen durchzuführen. TOP500 nennt den Fugaku-Supercomputer im japanischen Kobe am RIKEN Center for Computational Science als schnellsten Supercomputer der Welt mit einer Verarbeitungsgeschwindigkeit von 442 PetaFLOPS.

Supercomputer versus normale PCs

Moderne Supercomputer aggregieren Rechenleistung, um dank einer wesentlich höheren Performance als der eines einzelnen Desktop-Computers oder Servers komplexe Probleme in Technik, Wissenschaft und Wirtschaft zu lösen.

Im Gegensatz zu normalen PCs bestehen moderne Supercomputer aus riesigen Serverclustern, in denen eine oder mehrere CPUs zu Rechenknoten zusammengefasst sind. Rechenknoten bestehen aus einem Prozessor (oder einer Gruppe von Prozessoren) und einem Speicherblock und können Zehntausende von Knoten enthalten. Diese Knoten sind miteinander verbunden, damit sie kommunizieren und zusammenarbeiten können, um bestimmte Aufgaben zu erfüllen, während Prozesse auf Tausende von Prozessoren verteilt sind oder gleichzeitig darauf ausgeführt werden. 

So wird die Performance von Supercomputern gemessen

FLOPS werden zum Messen der Performance eines Supercomputers und für wissenschaftliche Berechnungen verwendet, bei denen Gleitkommaberechnungen zum Einsatz kommen, d. h. Zahlen, die so groß sind, dass sie in Exponenten ausgedrückt werden müssen.

FLOPS sind ein genaueres Maß als „Millionen Instruktionen pro Sekunde“ (MIPS). Wie bereits erwähnt, können einige der derzeit schnellsten Supercomputer mehr als einhundert Billiarden FLOPS (PetaFLOPS) leisten.

FlashBlade testen

Keine Hardware, keine Einrichtung, keine Kosten – kein Problem. Erleben Sie eine Self-Service-Instanz von Pure1® zum Verwalten von Pure FlashBlade™ - der fortschrittlichsten Lösung der Branche, mit nativ skalierbarem File- und Object-Storage liefert.

Jetzt testen

Wie funktioniert ein Supercomputer?

Ein Supercomputer kann aus Tausenden von Knoten bestehen, die durch Parallelverarbeitung miteinander kommunizieren, um Probleme zu lösen. Es gibt jedoch zwei Ansätze für die Parallelverarbeitung: symmetrisches Multiprozessorsystem (SMP) und massiv-parallele Verarbeitung (MPP). 

Bei SMP teilen sich die Prozessoren den Speicher und den I/O-Bus oder Datenpfad. SMP ist auch als eng gekoppeltes Multiprocessing oder als „Shared-Everything-System“ bekannt.

MPP koordiniert die Verarbeitung eines Programms durch mehrere Prozessoren, die gleichzeitig an verschiedenen Teilen des Programms arbeiten. Jeder Prozessor verwendet sein eigenes Betriebssystem und seinen eigenen Speicher. MPP-Prozessoren kommunizieren über eine Messaging-Schnittstelle, über die Nachrichten zwischen den Prozessoren versendet werden können. MPP kann komplex sein und erfordert Kenntnisse darüber, wie eine gemeinsame Datenbank partitioniert und wie die Arbeit auf die Prozessoren verteilt werden kann. Ein MPP-System wird als lose gekoppeltes oder „Shared-Nothing-System“ bezeichnet.

Ein Vorteil von SMP besteht darin, dass Organisationen mehr Benutzer schneller bedienen können, indem sie die Workload dynamisch auf die Computer verteilen. SMP-Systeme gelten als besser geeignet als MPP-Systeme für die Online-Transaktionsverarbeitung (OTP), bei der viele Benutzer auf dieselbe Datenbank zugreifen (z. B. einfache Transaktionsverarbeitung). MPP eignet sich besser als SMP für Anwendungen, die mehrere Datenbanken parallel durchsuchen müssen (z. B. Entscheidungshilfesysteme und Data-Warehouse-Anwendungen).

Arten von Supercomputern

Supercomputer lassen sich in zwei Kategorien einteilen: Allzweck- und Spezialcomputer. Innerhalb dieser Kategorien können Allzweck-Supercomputer in drei Unterkategorien unterteilt werden:

Allzweck-Supercomputer

  • Vektorverarbeitende Computer: In den 80er und frühen 90er Jahren waren die meisten Supercomputer für wissenschaftliche Berechnungen Vektorrechner. Heutzutage sind sie nicht mehr so beliebt, aber moderne Supercomputer haben immer noch CPUs, in denen auch Vektorverarbeitung zum Einsatz kommt.
  • Eng verbundene Cluster-Computer: Dabei handelt es sich um Gruppen von verbundenen Computern, die als Einheit zusammenarbeiten. Dazu gehören massiv-parallele Cluster, Director-basierte Cluster und Cluster mit zwei oder mehreren Knoten. Parallele und Director-basierte Cluster werden üblicherweise für die Hochleistungsverarbeitung verwendet, während Zwei-Knoten- und Mehr-Knoten-Cluster für Fehlertoleranz eingesetzt werden.
  • Commodity-Computer: Dazu gehören Anordnungen zahlreicher Standard-PCs, die über lokale Netze (LANs) mit hoher Bandbreite und geringer Latenzzeit verbunden sind.

Spezial-Supercomputer 

Spezial-Supercomputer sind Supercomputer, die für eine bestimmte Aufgabe oder ein bestimmtes Ziel gebaut wurden. Sie verwenden in der Regel anwendungsspezifische integrierte Schaltkreise (ASICs), um eine bessere Performance zu erzielen (z. B. wurden Deep Blue und Hydra beide für Spiele wie Schach entwickelt). 

Anwendungsfälle für Supercomputer

Angesichts ihrer offensichtlichen Vorteile haben Supercomputer in Bereichen wie der Technik und der wissenschaftlichen Forschung breite Anwendung gefunden. Anwendungsfälle sind unter anderem:

  • Wetter- und Klimaforschung: Zum Vorhersagen der Auswirkungen extremer Wetterereignisse und zum Verständnis von Klimamustern, z. B. im NOAA-System (National Oceanic and Atmospheric Administration)
  • Öl- und Gasexploration: Zum Erfassen riesiger Mengen geophysikalischer seismischer Daten zur Auffindung und Erschließung von Ölreserven
  • Luftfahrt- und Automobilbranche: Zum Entwickeln von Flugsimulatoren und simulierten Automobilumgebungen sowie zum Anwenden der Gesetze der Aerodynamik für den niedrigsten Luftwiderstandskoeffizienten
  • Forschung im Bereich der Kernfusion: Zum Bauen von Kernfusionsreaktoren und virtuellen Umgebungen für Tests von Kernexplosionen und Waffenballistik
  • Medizinische Forschung: Zum Entwickeln von neuen Arzneimittel, Therapien für Krebs und seltene genetische Störungen und Behandlungen für COVID-19 sowie zur Erforschung der Entstehung und Entwicklung von Epidemien und Krankheiten
  • Echtzeitanwendungen: Zum Aufrechterhalten der Performance von Online-Spielen bei Turnieren und bei der Veröffentlichung neuer Spiele, wenn viele Nutzer sie spielen

Supercomputing und HPC

Supercomputing wird manchmal synonym mit High-Performance Computing (HPC) verwendet. Genauer ist es jedoch, zu sagen, dass Supercomputing eine HPC-Lösung ist, die sich auf die Verarbeitung komplexer und großer Berechnungen durch Supercomputer bezieht.

Mit HPC können Sie datenintensive Berechnungen über mehrere vernetzte Supercomputer hinweg synchronisieren. Dadurch können komplexe Berechnungen mit größeren Datensätzen in weitaus kürzerer Zeit durchgeführt werden, als dies mit normalen Computern der Fall wäre. 

Skalierbarer Storage für das Supercomputing

Moderne Supercomputer werden in einer Vielzahl von Bereichen für eine Vielzahl von Zwecken eingesetzt. Einige der weltweit führenden Technologieunternehmen entwickeln KI-Supercomputer in Erwartung der Rolle, die sie im schnell wachsenden Metaverse spielen könnten.

Folglich müssen Storage-Lösungen nicht nur schnelle Datenabrufe für extrem hohe Berechnungsgeschwindigkeiten unterstützen, sondern auch so skalierbar sein, dass sie die Anforderungen großer KI-Workloads mit hoher Performance erfüllen können.

VR- und AR-Technologien erfordern eine große Menge an Daten. Dies gilt auch für unterstützende Technologien wie 5G, maschinelles Lernen (ML), das Internet der Dinge (IoT) und neuronale Netze.

Pure Storage® FlashArray//XL bietet erstklassige Performance und Effizienz für Unternehmens-Workloads, während FlashBlade® die fortschrittlichste All-Flash-Storage-Lösung der Branche ist. Beide bieten eine skalierbare, robuste Storage-Lösung, mit der die schnellsten Supercomputer von heute betrieben werden können.

Beide sind über Pure as-a-Service™ verfügbar, eine verwaltete STaaS-Lösung (Storage-as-a-Service) mit einem einfachen Abonnementmodell, das Ihnen die nötige Flexibilität gibt, um Storage-Kapazität nach Bedarf zu skalieren. 

Sie zahlen nur für das, was Sie verbrauchen, bekommen, was Sie brauchen, wenn Sie es brauchen, und bleiben ohne Unterbrechung auf dem aktuellen Stand. Kontaktieren Sie uns, um mehr zu erfahren.

11/2024
Pure Storage FlashBlade and Ethernet for HPC Workloads
NFS with Pure Storage® FlashBlade® and Ethernet delivers high performance and data consistency for high performance computing (HPC) workloads.
White Paper
7 Seiten
KONTAKTIEREN SIE UNS
Fragen, Kommentare?

Haben Sie eine Frage oder einen Kommentar zu Produkten oder Zertifizierungen von Pure?  Wir helfen Ihnen gerne!

Termin für Demo vereinbaren

Vereinbaren Sie einen Termin für eine Live-Demo und sehen Sie selbst, wie Pure Ihnen helfen kann, Ihre Daten in überzeugende Ergebnisse zu verwandeln. 

Rufen Sie uns an: +49 89 26200662
Presse:
 pr@purestorage.com

 

Pure Storage Germany GmbH

Mies-van-der-Rohe-Straße 6

80807 München

Deutschland

info@purestorage.com

SCHLIESSEN
Ihr Browser wird nicht mehr unterstützt!

Ältere Browser stellen häufig ein Sicherheitsrisiko dar. Um die bestmögliche Erfahrung bei der Nutzung unserer Website zu ermöglichen, führen Sie bitte ein Update auf einen dieser aktuellen Browser durch.