Quels sont les facteurs indispensables à la technologie HPC ?
Quatre facteurs influencent particulièrement l’utilisation de la technologie HPC :
Puissance de traitement
Pour dire les choses simplement, un seul processeur ne pourrait pas délivrer la bande passante nécessaire au traitement d’immenses volumes de données. Dans un modèle HPC, en revanche, plusieurs centres de traitement fonctionnent en parallèle pour produire des résultats. N’oubliez pas que, dans ce modèle :
- on appelle « cluster » l’ensemble d’ordinateurs individuels connectés en semble en réseau ;
- chaque unité de traitement dans le cluster forme un « nœud » ;
- chaque processeur d’un nœud comprend plusieurs cœurs.
Par exemple, un cluster à 16 nœuds comprenant chacun quatre cœurs forme un cluster extrêmement petit, qui représente au total 64 cœurs fonctionnant en parallèle.
Aujourd’hui, dans la plupart des cas d’usage du HPC, plusieurs milliers de cœurs fonctionnent en parallèle pour exécuter des processus donnés en un minimum de temps. Les fournisseurs de solutions IaaS (Infrastructure-as-a-service) offrent aux utilisateurs la possibilité d’exploiter un grand nombre de nœuds chaque fois qu’ils en ont besoin et de diminuer ensuite en capacité dès que leur charge de travail s’allège. Les utilisateurs ne sont facturés que pour la puissance de traitement dont ils ont besoin, sans avoir à engager les dépenses d’investissement (CAPEX) nécessaires au développement d’une infrastructure. Les utilisateurs de solutions IaaS ont aussi généralement la possibilité, si besoin, de définir des configurations de nœuds adaptées à des applications spécifiques.
Système d’exploitation
Les systèmes d’exploitation servent d’interface entre les composants matériels et logiciels utilisés dans le HPC. Linux et Windows sont les deux principaux systèmes d’exploitation utilisés dans les environnements HPC. Linux est généralement employé pour le calcul haute performance proprement dit, tandis que Windows n’est utilisé que lorsque l’environnement nécessite des applications spécifiques à Windows.
Réseau
Dans un environnement HPC, le réseau sert à connecter le matériel de calcul, les ressources de stockage et l’utilisateur. Le matériel de calcul est connecté par l’intermédiaire de réseaux capables de traiter d’énormes bandes passantes de données. Pour pouvoir supporter des transferts de données plus rapides, les réseaux doivent également afficher une latence faible. Les transmissions de données et l’administration des clusters sont gérées par des gestionnaires de clusters, des services de gestion ou des planificateurs.
Le gestionnaire de clusters exécute la charge de travail entre les ressources de calcul distribuées (CPU, FPGA, GPU, disques, etc.). Toutes les ressources doivent être connectées au même réseau pour permettre au gestionnaire de clusters de gérer les ressources. Dans le cadre des services proposés par un fournisseur de solutions IaaS, toutes les installations nécessaires à la gestion de l’infrastructure sont automatiquement appliquées par le fournisseur.
Stockage
Pour finir, les données destinées à être traitées par le HPC doivent être stockées dans un vaste référentiel de données. Comme les données peuvent se présenter sous différentes formes (structurées, semi-structurées, non structurées), leur stockage peut exiger de recourir à différents types de bases de données.
Les données dans leur(s) format(s) brut(s) sont stockées dans un data lake. Ces données peuvent être difficiles à traiter car aucune application précise ne leur a encore été attribuée. Les data warehouses sont utilisés pour stocker les données après leur traitement, une fois qu’elles ont été nettoyées pour remplir leur mission spécifique.
Stockage : le chaînon manquant de la technologie HPC
Le stockage constitue une partie critique de l’architecture ; et pourtant, il demeure bien souvent négligé dans un grand nombre de scénarios HPC. Le calcul haute performance est utilisé dans les applications qui exigent de traiter en parallèle d’énormes volumes de données. Ses performances, cependant, varient selon que l’ensemble des composants de son architecture sont capables ou non de s’adapter les uns aux autres.
Les solutions de stockage traditionnelles ne sont généralement pas capables de répondre aux besoins d’un scénario HPC ; pire encore, elles risquent de créer des goulets d’étranglement et de ralentir ses performances. Le stockage de données doit être capable d’évoluer au rythme de la puissance de traitement de l’installation, ce qui explique pourquoi les architectures HPC utilisent un stockage UFFO (Unified Fast File and Object) .
Evergreen//One™ offre un stockage UFFO rapide et fiable, avec tous les avantages d’un modèle de paiement à l’utilisation (PaYG). Utilisable on-premises et dans des environnements de cloud hybride, cette solution est idéale pour les environnements HPC qui exigent une bonne évolutivité sans transiger sur les performances.
Découvrez Evergreen//One dès maintenant. Tous nos nouveaux clients bénéficient d’un service gratuit les trois premiers mois.