¿Qué factores hacen que la HPC sea posible?
En concreto, hay cuatro factores que impulsan el uso de la computación de alto rendimiento:
La potencia de procesamiento
Por decirlo de un modo sencillo, el ancho de banda necesario para procesar volúmenes enormes de datos no puede ser proporcionado por un solo procesador. En lugar de ello, en un modelo de HPC, múltiples centros de procesamiento trabajan en paralelo para proporcionar los resultados. No olvide que en este modelo:
- El grupo de ordenadores individuales que están conectados en red se conoce con el nombre de clúster.
- Cada unidad de procesamiento individual del clúster se llama nodo.
- Cada procesador de un nodo tiene múltiples núcleos.
Por ejemplo, un clúster de 16 nodos con cuatro núcleos cada uno es un clúster muy pequeño y ello representa un total de 64 núcleos operando en paralelo.
La mayoría de casos de uso actuales de la HPC incluyen miles de núcleos trabajando en paralelo para completar los procesos designados en menos tiempo. Los proveedores de infraestructura como servicio (IaaS) ofrecen a los usuarios la capacidad de utilizar grandes cantidades de nodos cuando es necesario, para luego reducir la carga de trabajo cuando se acaba dicha necesidad. Los usuarios solo pagan por la potencia de procesamiento que necesitan, sin los costes CAPEX (gastos de capital) derivados de la creación de la infraestructura. Con la IaaS, los usuarios también suelen poder indicar la disposición de los nodos para las aplicaciones específicas, si es necesario.
El sistema operativo
Los sistemas operativos actúan como interfaz entre el hardware y el software que se utilizan en la HPC. Los dos sistemas operativos más importantes usados en la computación de alto rendimiento son Linux y Windows. Por lo general, en la HPC se utiliza Linux, mientras que Windows se utiliza solo cuando se necesitan aplicaciones específicas de Windows.
La red
En la computación de alto rendimiento, la red conecta el hardware de computación, el almacenamiento necesario y al usuario. El hardware de computación se conecta mediante redes que pueden soportar un gran ancho de banda de datos. Las redes también deben tener una baja latencia para facilitar una transferencia más rápida de los datos. Las transmisiones de datos y la gestión de los clústeres son gestionadas por administradores de clúster, servicios de administración o planificadores.
El administrador de clúster ejecuta la carga de trabajo repartiéndola entre recursos computacionales distribuidos, como CPU, FPGA, GPU y unidades de disco. Todos los recursos deben estar conectados a la misma red para que el administrador de clúster los pueda gestionar. Cuando se usan los servicios de un proveedor de IaaS, todas las instalaciones necesarias para administrar la infraestructura son implementadas automáticamente por el proveedor.
El almacenamiento
Por último, los datos que la HPC tiene que procesar deben almacenarse en un gran repositorio de datos. Dado que los datos pueden adoptar diversas formas —pueden ser estructurados, semiestructurados y no estructurados—, es posible que se necesiten diferentes tipos de bases de datos para almacenarlos.
Los datos en su(s) formato(s) en bruto se almacenan en un lago de datos. Estos datos pueden ser difíciles de procesar, porque todavía no se les ha asignado una finalidad. Los almacenes de datos almacenan los datos después de su procesamiento, una vez que se han limpiado para ajustarlos a su finalidad específica.
Almacenamiento: el eslabón perdido de la HPC
En muchos casos de uso de la computación de alto rendimiento, el almacenamiento —una parte fundamental de la arquitectura— se suele pasar por alto. La HPC se utiliza cuando hay que procesar en paralelo una cantidad enorme de datos, sin embargo, su rendimiento depende de que todos los componentes de su arquitectura puedan seguir el ritmo de los otros componentes.
Las soluciones de almacenamiento tradicionales es posible que no puedan soportar las necesidades de la HPC y que acaben creando cuellos de botella y obstaculizando el rendimiento. El almacenamiento de datos debe poder seguir la velocidad de la potencia de procesamiento de la configuración, por esta razón, muchas arquitecturas de HPC recurren al almacenamiento de archivos y objetos rápido y unificado (UFFO) .
Evergreen//One™ ofrece un almacenamiento UFFO rápido y fiable, con la comodidad del modelo de pago por uso. Puede usarse en los modelos on-premises y de nube híbrida y es ideal para los entornos de HPC, que requieren la capacidad de escalar las operaciones sin comprometer el rendimiento.
Empiece a usar Evergreen//One hoy mismo. Los tres primeros meses de servicio son gratis para los nuevos clientes.