Skip to Content

¿Qué es la computación a gran escala? Entender la próxima frontera de la supercomputación

La computación a gran escala representa un salto monumental en el poder computacional, lo que permite que los científicos y los investigadores aborden los problemas que antes se consideraban imposibles. 

Estos sistemas, capaces de realizar 1 quintil de cálculos por segundo (o 1 exaflop), no son solo versiones más rápidas de los superordenadores existentes, sino que son herramientas transformadoras que remodelan campos como la ciencia climática, la atención sanitaria y la astrofísica. Al combinar unas velocidades de procesamiento sin precedentes con unos algoritmos avanzados, los ordenadores a gran escala están desbloqueando nuevas fronteras en la simulación, la predicción y el descubrimiento.

Siga leyendo para descubrir por qué esta tecnología es revolucionaria y por qué es importante.

De Petascale a Exascale: La evolución de la supercomputación

El camino hacia la escalabilidad a gran escala comenzó con una pregunta sencilla: ¿Cómo podemos resolver problemas más grandes más rápidamente? Durante décadas, los superordenadores funcionaron a nivel de petaescala (10^15 operaciones por segundo), pero a medida que los retos científicos se volvían más complejos —desde el modelado de los sistemas climáticos hasta la simulación de las interacciones moleculares— las limitaciones se hicieron evidentes. 

Los sistemas a gran escala, que son 1000 veces más potentes que sus predecesores a gran escala, surgieron como la solución a este cuello de botella computacional. La primera máquina oficial a gran escala, Frontier, se lanzó en 2022 en el Laboratorio Nacional Oak Ridge y marcó un punto de inflexión. Con un rendimiento máximo de 1,6 exaflops, Frontier demostró que la exaescala no era solo teórica, sino que era alcanzable. 

Actualmente, sistemas como Aurora (Argonne National Laboratory) y El Capitan (Lawrence Livermore National Laboratory) están ampliando aún más los límites, con unas velocidades que superan los 2 exaflops.

Desglose de la tecnología: Cómo funcionan los sistemas Exascale

A diferencia de los ordenadores clásicos, que dependen únicamente de las CPU, las arquitecturas a gran escala utilizan la aceleración de la GPU para manejar tareas masivamente paralelas —una necesidad para procesar conjuntos de datos a escala de quintilles—. De hecho, los ordenadores a gran escala necesitan miles de CPU y GPU que trabajen conjuntamente, alojadas en instalaciones del tamaño de los almacenes. Por ejemplo, Frontier utiliza más de 9400 nodos, 10 000 CPU y 38 000 GPU para lograr su rendimiento sin precedentes. 

Los primeros prototipos a gran escala se enfrentaban a un obstáculo crítico: el consumo energético. Los diseños iniciales predijeron unas demandas energéticas equivalentes a 50 hogares —una cifra reducida a unos niveles más sostenibles gracias a innovaciones como la refrigeración líquida y los diseños de chips optimizados—. Los sistemas modernos como Frontier ahora funcionan a 15-20 megavatios, equilibrando la energía bruta con las consideraciones ambientales.

Pero el hardware por sí solo no es suficiente. Los modelos de programación tradicionales tienen dificultades para utilizar miles de GPU de manera eficiente. Para abordar esto, proyectos como Angstrom del MIT y Exascale Computing Project (ECP) del DOE están replanteándose las arquitecturas de software. Las herramientas como Kokkos y OpenMP permiten que los desarrolladores escriban código que se adapta dinámicamente a las cargas de trabajo de la GPU y la CPU, lo que garantiza que las aplicaciones puedan escalarse a través de millones de núcleos de procesamiento.

Aplicaciones del mundo real: Donde la escalabilidad marca la diferencia

Ahora, echemos un vistazo a algunas áreas en las que la computación a gran escala puede generar grandes avances. 

Modelado climático y energía renovable

Los sistemas a gran escala están revolucionando nuestra comprensión del cambio climático. Al simular procesos atmosféricos a resoluciones de hasta 1 kilómetro (frente a 100 km en modelos más antiguos), los investigadores pueden predecir los extremos meteorológicos regionales y optimizar las redes de energía renovable con una precisión sin precedentes. Por ejemplo, el centro CESMIX del MIT utiliza algoritmos preparados para la exaescala para estudiar los materiales para la captura de carbono, un paso crítico para lograr cero emisiones netas.

Sanidad y medicina de precisión

En el descubrimiento de fármacos, las simulaciones a gran escala reducen el tiempo necesario para analizar las interacciones moleculares de años a días. Los investigadores del Laboratorio Nacional de Argonne utilizan el superordenador Aurora para modelar el plegado de proteínas e identificar posibles tratamientos contra el cáncer, acelerando el camino desde la mesa del laboratorio hasta la cabecera de la cama.

Descubra los secretos del universo

La materia oscura —la sustancia invisible que constituye el 85% de la masa del universo— sigue siendo uno de los mayores misterios físicos. Utilizando Aurora, los físicos del MIT están ejecutando simulaciones mejoradas del aprendizaje automático para predecir cómo interactúa la materia oscura con la materia visible, lo que potencialmente redefine nuestra comprensión cósmica.

El mercado a gran escala: Crecimiento e impacto económico

Se prevé que el mercado informático global a gran escala, con un valor de 4050 millones de dólares en 2023, alcance los 25 900 millones de dólares en 2031, impulsado por la demanda en el ámbito académico, sanitario y de la seguridad nacional. 

Los gobiernos de todo el mundo están invirtiendo mucho:

  • El Departamento de Energía de los Estados Unidos ha financiado iniciativas a gran escala desde 2008, culminando con sistemas como Frontier y El Capitan.
  • El superordenador europeo Jupiter, lanzado en 2024, tiene como objetivo avanzar en la investigación de materiales cuánticos.
  • Según se dice, China opera múltiples sistemas a gran escala para aplicaciones aeroespaciales y de IA.

Empresas como NVIDIA colaboran con laboratorios nacionales de los Estados Unidos para diseñar conjuntamente hardware a gran escala. Esta sinergia garantiza que las tecnologías comerciales (por ejemplo, los aceleradores de IA) se beneficien de una investigación de vanguardia —y viceversa—.

El camino por delante: Retos y direcciones futuras

Si bien la exascale es transformadora, los científicos ya están estudiando el siguiente hito: la zettascale (10^21 operaciones por segundo). 

Para lograr la zettascale será necesario:

  • Nuevos materiales: Los chips basados en silicio se están acercando a los límites físicos. El proyecto Angstrom del MIT explora los semiconductores 2D y la computación fotónica para reducir el consumo energético.
  • Integración cuántica: Los sistemas híbridos que combinan los procesadores cuánticos y de exaescala clásicos podrían resolver problemas de optimización que son intratables solo para cualquiera de ellos.
  • IA ética: A medida que el aprendizaje automático penetra en los flujos de trabajo a gran escala, garantizar unos algoritmos imparciales se convierte en algo fundamental —un área de interés para el Schwarzman College of Computing del ITM—.

Los sistemas actuales a gran escala consumen megavatios de energía, lo que plantea dudas sobre la viabilidad a largo plazo. Las innovaciones como los chips neuromórficos (que imitan la eficiencia del cerebro) y los centros de datos energéticamente eficientes son clave para un crecimiento sostenible.

Conclusión: Exascale como catalizador del descubrimiento

La computación a gran escala no se trata solo de velocidad, sino de posibilidad. Desde la simulación de la formación de galaxias hasta la ayuda en el diseño de fármacos que salvan vidas, estos sistemas están ampliando los límites del conocimiento humano. Nos permiten no solo resolver ecuaciones más rápidamente, sino también hacer preguntas que ni siquiera podíamos enmarcar antes —y que nos llevarán a avances inimaginables—. Tanto para las industrias como para los investigadores, la era de la exaescala promete un futuro en el que los retos más complejos puedan resolverse —un quintil de cálculos a la vez—.

04/2025
High-performance AI for Federal Agencies
Accelerate IT for federal agencies with simple, accelerated, and scalable AI infrastructure from Pure Storage and NVIDIA.
Resumen de la solución
4 pages

Explore los recursos y eventos clave

WEBINAR
Una nueva era para la seguridad bancaria: lo esencial para mejorar la resistencia operativa

A la luz de la nueva normativa de la Ley de Resiliencia Operativa Digital (DORA), la resiliencia operativa se ha convertido en una de las cuestiones más importantes del sector financiero.

Ver el Webinar
LIDERAZGO INTELECTUAL
La carrera por la innovación

Las últimas ideas y puntos de vista de los líderes del sector que están a la vanguardia de la innovación en almacenamiento.

Más información
INFORME DE ANALISTA
Planifique su futuro ciberresiliente

Aprenda estrategias de colaboración para aprovechar plenamente las inversiones en ciberseguridad y garantizar una respuesta y una recuperación rápidas.

Lea el informe
RECURSO
Deje de comprar almacenamiento y apueste por las plataformas

Explore las necesidades, los componentes y el proceso de selección de plataformas de almacenamiento empresarial.

Lea el informe
CONTACTAR CON NOSOTROS
Contactar con PureIcono de información
Icono del chat
¿Preguntas, comentarios?

¿Tiene alguna pregunta o comentario sobre los productos o las certificaciones de Pure?  Estamos aquí para ayudarle.

Icono de la llave
Programe una Demostración

Programe una demostración en vivo y vea personalmente cómo Pure puede ayudarle a convertir sus datos en unos resultados potentes. 

Llámenos al: +34 51 889 8963

Medios de comunicaciónpr@purestorage.com

 

Castellana 81

28046 Madrid

Oficinas Pure: 1415 y 1417 (planta 14)

info@purestorage.com

CERRAR
CerrarCerrar icono X
Your Browser Is No Longer Supported!

Older browsers often represent security risks. In order to deliver the best possible experience when using our site, please update to any of these latest browsers.