Welche Faktoren machen HPC möglich?
Der Einsatz von HPC wird insbesondere durch vier Faktoren vorangetrieben:
Verarbeitungsleistung
Einfach ausgedrückt: Die Bandbreite, die für die Verarbeitung riesiger Datenmengen erforderlich ist, kann nicht von einem einzigen Prozessor bewältigt werden. Stattdessen arbeiten in einem HPC-Modell mehrere Rechenzentren parallel, um Ergebnisse zu liefern. Beachten Sie, dass in diesem Modell gilt:
- Die Sammlung von einzelnen Computern, die miteinander vernetzt sind, wird als „Cluster“ bezeichnet.
- Jede einzelne Verarbeitungseinheit im Cluster wird als „Knoten“ bezeichnet.
- Jeder Prozessor in einem Knoten hat mehrere Kerne.
So ist beispielsweise ein Cluster mit 16 Knoten mit jeweils vier Kernen ein sehr kleiner Cluster, der insgesamt 64 parallel arbeitende Kerne umfasst.
Bei den meisten HPC-Anwendungsfällen arbeiten heute Tausende von Kernen parallel, um bestimmte Prozesse in kürzerer Zeit abzuschließen. IaaS-Anbieter (Infrastructure-as-a-Service) bieten Benutzern die Möglichkeit, bei Bedarf eine große Anzahl von Knoten zu nutzen und die Workload zu verringern, wenn die Aufgabe abgeschlossen wurde. Benutzer zahlen nur für die benötigte Rechenleistung, ohne die mit dem Aufbau einer Infrastruktur verbundenen Investitionskosten (CAPEX). Bei IaaS haben Benutzer in der Regel auch die Möglichkeit, die Anordnung der Knoten für bestimmte Anwendungen vorzuschreiben, falls erforderlich.
Betriebssystem
Betriebssysteme bilden die Schnittstelle zwischen der Hardware und der Software, die bei HPC zum Einsatz kommen. Die beiden wichtigsten Betriebssysteme, die in HPC-Umgebungen eingesetzt werden, sind Linux und Windows. Linux wird in der Regel für HPC verwendet, während Windows nur dann zum Einsatz kommt, wenn Windows-spezifische Anwendungen erforderlich sind.
Netzwerk
Bei HPC verbindet das Netzwerk die Computerhardware, den erforderlichen Storage und den Benutzer miteinander. Die Computerhardware wird über Netzwerke verbunden, die eine große Bandbreite an Daten verarbeiten können. Die Netzwerke sollten auch eine geringe Latenzzeit haben, um eine schnellere Datenübertragung zu ermöglichen. Datenübertragungen und die Verwaltung von Clustern werden von Clustermanagern, Verwaltungsservices oder Schedulern übernommen.
Der Cluster Manager verteilt die Workload auf die verteilten Rechenressourcen wie CPUs, FPGAs, GPUs und Festplattenlaufwerke. Alle Ressourcen müssen mit demselben Netzwerk verbunden sein, damit der Cluster Manager die Ressourcen verwalten kann. Wenn Sie die Services eines IaaS-Anbieters in Anspruch nehmen, werden alle für die Verwaltung der Infrastruktur erforderlichen Einrichtungen automatisch vom Anbieter bereitgestellt.
Storage
Schließlich müssen die von HPC zu verarbeitenden Daten in einem großen Daten-Repository gespeichert werden. Da diese Daten in verschiedenen Formen vorliegen können – strukturiert, halbstrukturiert und unstrukturiert – können verschiedene Arten von Datenbanken nötig sein, um die Daten zu speichern.
Daten in ihrem Rohformat werden in einem Data Lake gespeichert. Es kann schwierig sein, diese Daten zu verarbeiten, da sie noch keinem Zweck zugeordnet sind. In Data Warehouses werden Daten nach der Verarbeitung gespeichert, nachdem sie entsprechend dem jeweiligen Zweck bereinigt wurden.
Storage: Das fehlende Bindeglied bei HPC
In vielen HPC-Anwendungsfällen wird der Storage übersehen, obwohl er ein wichtiges Element der Architektur darstellt. HPC wird eingesetzt, wenn große Datenmengen parallel verarbeitet werden müssen, wobei die Performance davon abhängt, ob alle Komponenten der Architektur miteinander Schritt halten können.
Herkömmliche Storage-Lösungen sind möglicherweise nicht in der Lage, den Anforderungen von HPC gerecht zu werden, was zu Engpässen im Prozess führen und die Performance beeinträchtigen kann. Daten-Storage muss mit der Verarbeitungsgeschwindigkeit des Systems mithalten können, weshalb viele HPC-Architekturen UFFO-Storage (Unified Fast File and Object) verwenden.
Evergreen//One™ bietet schnellen und zuverlässigen UFFO-Storage mit dem Komfort des Pay-as-You-Go-Modells (PaYG). Es kann in lokalen Modellen und in Hybrid-Cloud-Modellen eingesetzt werden und ist ideal für HPC-Umgebungen, die eine Skalierung des Betriebs ohne Performance-Einbußen erfordern.
Wechseln Sie noch heute zu Evergreen//One. Für Neukunden ist der Service die ersten drei Monate kostenlos.