- La computación a exaescala permite realizar al menos 10^18 operaciones por segundo, superando con creces a los superordenadores de escala peta.
- Su arquitectura se basa en millones de núcleos, procesadores heterogéneos y sistemas de memoria y red de altísima velocidad para procesar datos en paralelo.
- La exaescala impulsa avances en clima, medicina, industria, finanzas, IA y seguridad nacional, con impacto directo en ciencia y economía.
- Sus principales retos son el consumo energético, el desarrollo de software escalable, la gestión masiva de datos y los dilemas éticos y medioambientales.

La computación a exaescala marca un antes y un después en la historia de los ordenadores. Estamos hablando de máquinas capaces de hacer en un segundo lo que a un portátil corriente le llevaría décadas, algo que hace unos años sonaba casi a ciencia ficción y que hoy ya es una realidad en varios centros de supercomputación del mundo.
Esta nueva liga de la supercomputación de alto rendimiento no solo afecta a científicos y grandes laboratorios: tiene implicaciones directas en la industria, la economía, la salud, el clima o la seguridad. Desde acelerar el diseño de medicamentos hasta mejorar las predicciones meteorológicas o entrenar modelos de inteligencia artificial gigantescos, la exaescala se ha convertido en una pieza clave de la infraestructura digital global.
Qué es exactamente la computación a exaescala
Cuando hablamos de exaescala nos referimos a sistemas capaces de ejecutar al menos un exaflop de rendimiento, es decir, diez elevado a dieciocho operaciones de coma flotante por segundo (1018). En otras palabras, un quintillón de operaciones cada segundo, algo difícil de imaginar si no lo comparamos con lo que tenemos en casa.
Para hacerse una idea, un superordenador a exaescala puede igualar la potencia conjunta de cientos de miles de portátiles funcionando al mismo tiempo. Dependiendo del sistema concreto, las estimaciones hablan de equivalencias en torno a más de 100.000 ordenadores, llegando en algunos casos a superar el músculo informático de aproximadamente 270.000 equipos personales en situaciones de carga máxima.
Este salto de prestaciones se apoya en la filosofía de la computación de alto rendimiento (HPC), que consiste en agrupar miles o millones de recursos de cómputo interconectados y hacer que trabajen en paralelo sobre un mismo problema. Esa suma masiva de potencia, bien coordinada, es la que permite ejecutar simulaciones y modelos tan complejos que un ordenador convencional ni siquiera podría empezar a resolver en un plazo razonable.
La exaescala marca así la siguiente etapa tras los superordenadores de escala peta, que se movían en el rango de los petaflops (1015 operaciones por segundo). Tras exprimir a fondo esa generación, la comunidad científica detectó que las necesidades de cómputo seguían creciendo a un ritmo brutal, empujadas por la avalancha de datos y por problemas cada vez más sofisticados.
Un poco de historia: del ENIAC a los gigantes exaescala
Para entender el salto que hemos dado, conviene mirar atrás. El ENIAC, considerado el primer ordenador electrónico de propósito general, se estrenó en 1946 en Estados Unidos. Pesaba unas 27 toneladas, ocupaba alrededor de 167 metros cuadrados y era capaz de realizar unas 5.000 operaciones por segundo, una cifra que hoy parecería ridícula frente a cualquier portátil de gama baja.
Los ordenadores personales actuales trabajan con capacidades en la órbita del gigaflop, es decir, miles de millones de operaciones por segundo. En pocas décadas hemos pasado de gigantes de válvulas que llenaban una sala entera a dispositivos portátiles que caben en una mochila y que superan en millones de veces el rendimiento de aquellos pioneros.
En el terreno de la supercomputación, la progresión ha sido todavía más espectacular. La potencia de los sistemas de HPC se ha multiplicado por diez aproximadamente cada cuatro años durante las últimas tres décadas. Ese crecimiento exponencial ha sido el motor que nos ha llevado, paso a paso, desde los primeros superordenadores vectoriales hasta los actuales monstruos heterogéneos con millones de núcleos de cálculo.
El hito de la exaescala se alcanzó en 2022 con Frontier, instalado en el Laboratorio Nacional de Oak Ridge (Estados Unidos). Este sistema fue el primero en sobrepasar oficialmente la barrera del exaflop sostenido, abriendo la puerta a una nueva era de cómputo científico e industrial y convirtiéndose en la referencia mundial de rendimiento.
Muy poco después, la carrera ha seguido apretando el acelerador. De acuerdo con el ranking TOP500, el superordenador denominado El Capitán se ha consolidado como uno de los grandes colosos actuales, con alrededor de 1,7 exaflops de rendimiento sostenido y cerca de 2,7 exaflops de potencia máxima teórica. Estados Unidos domina la parte alta de la tabla, aunque Europa sitúa varios equipos entre los diez primeros, mientras que China, pese a su enorme avance, tiende a no publicar todos sus desarrollos por motivos estratégicos.
Cómo funciona un superordenador a exaescala
Un sistema a exaescala no es, simplemente, un solo ordenador gigante. Es un conjunto masivo de nodos de cómputo interconectados, cada uno con sus propias CPU, GPU y memoria, trabajando de forma coordinada sobre un mismo problema. La clave está en el procesamiento paralelo extremo, que permite dividir una tarea inmensa en miles o millones de subtareas que se ejecutan al mismo tiempo.
La arquitectura de superordenadores como Jupiter en Alemania o LUMI en Finlandia se basa en esa idea: muchos nodos especializados, con redes de interconexión de altísima velocidad, memorias jerárquicas muy cuidadas y sistemas avanzados de refrigeración y alimentación eléctrica. Solo con este tipo de diseño es posible que un superordenador sea capaz de resolver un “superproblema” fragmentándolo en pequeñas piezas y procesándolas de forma paralela.
En este tipo de máquinas se suelen combinar CPU tradicionales con GPU y otros aceleradores como CUDA X. Las CPU se encargan de las tareas de control, secuenciales o menos paralelizables, mientras que las GPU y, en algunos casos, las FPGA, asumen el peso de los cálculos masivos que pueden ejecutarse en paralelo. Esta mezcla de procesadores configura lo que se conoce como arquitectura heterogénea, fundamental para sacar el máximo rendimiento dentro de unos límites de consumo razonables.
Otra pieza crítica es la interconexión de alta velocidad. No basta con tener muchos nodos; estos tienen que hablar entre ellos con latencias muy bajas y anchos de banda enormes. De lo contrario, el sistema se pasa más tiempo esperando a que lleguen los datos que calculando. Por eso, los fabricantes desarrollan tecnologías de red específicas para HPC, con topologías y protocolos afinados al milímetro.
Por último, el sistema de memoria y almacenamiento está diseñado de forma jerárquica: memorias muy rápidas pero pequeñas cerca del procesador (caché), memorias principales más amplias pero algo más lentas, y niveles de almacenamiento secundarios y terciarios (como SSD y cintas) donde se guardan datasets gigantescos y resultados de simulaciones. Esta combinación permite mantener cerca del procesador los datos “calientes”, mientras que el resto se guarda de forma más eficiente en capas más baratas.
Retos técnicos de la exaescala
Construir y operar un superordenador de exaescala no es solo cuestión de apilar más hardware. Surgen una serie de desafíos técnicos enormes relacionados con el consumo energético, el diseño de software, la fiabilidad o la gestión de datos que obligan a innovar en muchos frentes.
Eficiencia energética y refrigeración
Uno de los problemas más serios es el consumo eléctrico descomunal de estos sistemas. Los superordenadores punteros ya se mueven en rangos de varios megavatios de potencia, comparables al consumo de miles de hogares. Un salto ingenuo hacia la exaescala podría haber disparado esos números hasta niveles insostenibles, tanto económica como ambientalmente.
Para evitarlo, los diseñadores se han visto forzados a desarrollar arquitecturas mucho más eficientes en términos de rendimiento por vatio. Las GPU de última generación, las CPU optimizadas para HPC y los sistemas de alimentación y distribución de energía han evolucionado para apretar cada vez más la relación entre potencia de cálculo y consumo.
La refrigeración es otra pieza clave. Un superordenador a exaescala genera una cantidad de calor brutal que hay que disipar de forma segura. Por eso, se están implantando soluciones como la refrigeración líquida directa o el uso de centros de datos en ubicaciones con climas fríos. En casos como el de LUMI, en Finlandia, incluso se aprovecha el calor residual para alimentar redes de calefacción urbana, reduciendo el impacto medioambiental y mejorando la eficiencia global.
Software, paralelismo extremo y tolerancia a fallos
El hardware por sí solo no basta. Un reto igual de grande es desarrollar software capaz de escalar a millones de núcleos de cálculo de forma eficiente. Los modelos de programación tradicionales se quedan cortos cuando se multiplican los hilos y procesos hasta estos niveles.
Los programadores deben diseñar algoritmos con un paralelismo masivo, minimizar las comunicaciones entre nodos, equilibrar las cargas y gestionar bien la memoria para que el sistema no se ahogue en su propia complejidad. Esto requiere nuevas bibliotecas, entornos de ejecución, compiladores y herramientas de análisis de rendimiento específicos para la exaescala.
A esto se suma la necesidad de tolerancia a fallos. Con tantos componentes, es prácticamente seguro que en un superordenador de exaescala haya algún fallo de hardware de forma frecuente. El software tiene que estar preparado para detectar errores, recuperar datos y seguir ejecutando las tareas sin tener que reiniciar desde cero simulaciones que pueden llevar días.
Arquitectura de almacenamiento y gestión de datos
Las simulaciones a exaescala generan y consumen cantidades de información astronómicas. Un experimento numérico puede producir petabytes de datos que hay que almacenar, organizar y poner a disposición de los investigadores. Por eso, la arquitectura de almacenamiento es tan importante como la de cómputo.
Los centros de supercomputación están implantando sistemas de almacenamiento jerárquico que combinan memorias muy rápidas (como NVMe y SSD) con soluciones de gran capacidad (discos duros, cintas, almacenamiento en la nube científica, etc.). A esto se añaden técnicas de compresión, deduplicación y gestión inteligente de ficheros para reducir el espacio ocupado y acelerar el acceso a la información.
Principales áreas de aplicación de la exaescala
La potencia de cálculo de la exaescala se traduce en aplicaciones concretas en prácticamente todos los ámbitos con un alto grado de digitalización. Cada sector encuentra en estos sistemas una herramienta para atajar problemas que antes eran intratables o que, al menos, llevaban demasiado tiempo como para ser prácticos.
Investigación científica y modelización del clima
Uno de los grandes beneficiados es el campo de la investigación climática. Los modelos del sistema Tierra requieren simular la atmósfera, los océanos, la criosfera, la biosfera y su interacción a múltiples escalas espaciales y temporales. Los ordenadores a exaescala permiten generar modelos climáticos mucho más detallados, con resoluciones más finas y horizontes temporales más largos.
Gracias a esta capacidad, se pueden predecir fenómenos meteorológicos extremos con más precisión, estudiar escenarios de cambio climático a nivel regional y experimentar virtualmente con diferentes políticas de mitigación. Proyectos como Destination Earth persiguen crear un gemelo digital del planeta, un modelo climático global de altísima fidelidad que apoye la toma de decisiones en gobiernos, empresas y organizaciones internacionales.
En otros campos científicos, los superordenadores a exaescala permiten simular procesos que van desde la escala subatómica hasta la cosmológica. En astrofísica, por ejemplo, se pueden reproducir la formación de galaxias, el comportamiento de agujeros negros o explosiones estelares con un nivel de detalle y realismo que antes era imposible.
Ciencia de materiales, genómica y medicina
La exaescala también está revolucionando la ciencia de materiales, permitiendo estudiar el comportamiento de nuevas aleaciones, compuestos y estructuras a nivel atómico. Esto acelera el diseño de materiales más resistentes, ligeros o eficientes para sectores como la energía, el transporte o la construcción.
En el ámbito biomédico, los superordenadores han tenido un papel clave, por ejemplo, en el desarrollo de vacunas frente a la COVID‑19. La capacidad para analizar enormes bases de datos genómicos, simular interacciones moleculares y probar miles de posibles compuestos en modelos virtuales hace que el tiempo de descubrimiento de nuevos fármacos y tratamientos se reduzca drásticamente.
Los sistemas a exaescala permiten asimismo avanzar hacia la medicina personalizada, donde se pueden simular tratamientos adaptados al perfil genético y clínico de cada paciente. Proyectos europeos que cuentan con la participación de centros de supercomputación como el de Barcelona investigan el uso de superordenadores e inteligencia artificial para mejorar el diagnóstico y tratamiento de varios tipos de cáncer.
Industria, economía y simulación de procesos
Fuera del laboratorio, las empresas utilizan la exaescala para optimizar procesos productivos, diseñar productos más competitivos y reducir costes. En la industria automotriz, por ejemplo, se emplean estos sistemas para simular vehículos en todo tipo de condiciones, estudiar la aerodinámica, la eficiencia energética o el comportamiento de nuevos motores.
Un caso llamativo es el de proyectos como los de GE Aerospace, donde se utilizan superordenadores para analizar diseños de motores a reacción con el objetivo de reducir las emisiones de CO2 hasta en un 20 %. Este tipo de simulaciones habrían sido impensables sin la capacidad de cálculo y el nivel de detalle que ofrecen la petaescala primero y la exaescala ahora.
En el sector financiero, la potencia de estos sistemas permite simular servicios y productos financieros bajo distintos escenarios regulatorios y de mercado, analizar riesgos complejos y realizar estudios de sensibilidad con una profundidad que excede las técnicas tradicionales. Esto ayuda tanto a grandes bancos como a aseguradoras y fondos de inversión a tomar decisiones mejor informadas.
Además, muchos proveedores de tecnología ofrecen ya la supercomputación en modalidad HPC as a Service, es decir, como servicio en la nube. De este modo, empresas que no pueden costear un superordenador propio pueden acceder bajo demanda a recursos de exaescala para acelerar sus proyectos de diseño, simulación o análisis de datos.
Inteligencia artificial y aprendizaje automático
La inteligencia artificial y, en particular, el aprendizaje profundo, son otros grandes impulsores de la exaescala. Los modelos de IA actuales —desde los sistemas de procesamiento del lenguaje natural hasta los algoritmos de visión por computador— requieren enormes volúmenes de datos y una capacidad de cómputo colosal para ser entrenados.
La computación a exaescala permite entrenar redes neuronales de dimensiones gigantescas, explorar arquitecturas de modelo más complejas y reducir de forma considerable el tiempo necesario para poner en marcha nuevas generaciones de algoritmos. Esto abre la puerta a mejoras radicales en campos como el reconocimiento de voz, la traducción automática, la conducción autónoma o los sistemas de recomendación.
Al combinar la exaescala con grandes datasets, los algoritmos de aprendizaje automático pueden aprender patrones con más rapidez y precisión, lo que se traduce en sistemas más inteligentes y útiles para la sociedad y la economía. Al mismo tiempo, surgen debates sobre la mejor forma de regular y usar éticamente estos avances.
Seguridad nacional y ciberdefensa
En el ámbito de la seguridad, los superordenadores a exaescala se utilizan para simular armas nucleares y otros sistemas de defensa sin necesidad de realizar pruebas reales, algo de gran importancia desde el punto de vista geopolítico y de no proliferación.
También se emplean en criptoanálisis avanzado, es decir, en el estudio y ruptura potencial de cifrados complejos, así como en el diseño de nuevas técnicas criptográficas resistentes a ataques con supercomputadores e incluso a futuros ordenadores cuánticos.
Además, la exaescala se aplica en la ciberseguridad para analizar grandes volúmenes de tráfico de red, detectar patrones anómalos y responder a ataques avanzados. La capacidad de procesar datos en tiempo casi real resulta fundamental para reaccionar con rapidez frente a amenazas sofisticadas y persistentes.
El #ExascaleDay y la dimensión social de la exaescala
El llamado #ExascaleDay se celebra internacionalmente como una especie de día grande de la comunidad de supercomputación. Esta fecha conmemora el salto de la petaescala a la exaescala y rinde homenaje a los científicos, ingenieros y técnicos que llevan años empujando los límites del cómputo.
La idea de los superordenadores a exaescala empezó a tomar forma hace más de una década, cuando los sistemas de escala peta empezaron a quedarse cortos para ciertas líneas de investigación. Se vio claro que, para entender a fondo sistemas tan complejos como el cuerpo humano a múltiples escalas —desde el interior de una célula hasta órganos completos— o para modelizar patrones meteorológicos desde metros hasta miles de kilómetros, hacía falta un salto cualitativo de potencia.
Desde la puesta en marcha de Frontier como primer sistema operativo de exaescala, los investigadores han logrado hitos espectaculares. Por ejemplo, se ha mejorado la predicción del tiempo simulando los datos climáticos de todo un año en apenas un día, se han hecho accesibles millones de publicaciones biomédicas en búsquedas en línea para acelerar diagnósticos y tratamientos, y se han analizado decenas de miles de variantes del virus de la COVID‑19 reduciendo el tiempo de cálculo de una semana a unas 24 horas.
Este tipo de resultados muestra cómo la exaescala no es una curiosidad técnica reservada a unos cuantos centros de investigación, sino una infraestructura con impacto directo en la vida cotidiana, desde la salud pública hasta la respuesta ante emergencias climáticas.
La carrera internacional por el liderazgo en exaescala
La supercomputación a exaescala se ha convertido en un terreno de competencia económica y geopolítica. Estados Unidos, China, Japón y la Unión Europea invierten miles de millones en el desarrollo de estas infraestructuras porque las consideran estratégicas para la ciencia, la industria y la seguridad nacional, así como para el sector de los semiconductores.
Estados Unidos lidera actualmente las primeras posiciones de los rankings con sistemas como Frontier y El Capitán, además de tener una larga tradición con superordenadores como Summit o Sierra. Japón, por su parte, ha destacado con Fugaku, un superordenador de referencia con cientos de petaflops orientado también a aplicaciones de inteligencia artificial y simulaciones a gran escala.
China ha tenido sistemas emblemáticos como Sunway TaihuLight, conocido por su alta eficiencia energética, y se sabe que continúa desarrollando superordenadores muy avanzados, aunque no todos se dan a conocer públicamente. Europa impulsa iniciativas como EuroHPC para construir una red de centros de supercomputación competitiva y fomentar un ecosistema industrial y científico propio en torno a la exaescala.
En el continente europeo destacan instalaciones como el superordenador Hawk en Alemania, utilizado entre otras cosas para simulaciones en la industria automotriz, o proyectos como Júpiter, un sistema exaescala previsto para operar a finales de 2024 que reforzará el papel de Europa en este terreno.
Impacto social, económico y ético de la exaescala
Más allá de los récords de rendimiento, la exaescala plantea una serie de preguntas sociales y éticas nada triviales. Uno de los debates principales gira en torno a cómo asegurar que los beneficios de estas tecnologías se reparten de forma equitativa y no quedan concentrados en unos pocos países o grandes corporaciones.
También preocupa el impacto medioambiental de construir y mantener centros de datos que consumen tanta energía. Aunque se avanza en eficiencia y en el uso de energías renovables, la huella de carbono y el consumo de recursos siguen siendo variables a vigilar con cuidado si queremos que la exaescala encaje en un modelo de desarrollo sostenible.
En el ámbito de la inteligencia artificial, la exaescala amplifica la capacidad de entrenar modelos inmensos, lo que puede derivar en aplicaciones muy poderosas con implicaciones en privacidad, vigilancia o toma de decisiones automatizada. De ahí que sea imprescindible acompañar estos avances con marcos regulatorios y debates públicos sobre el tipo de usos que queremos fomentar o limitar.
En paralelo, la exaescala abre oportunidades claras para abordar retos globales críticos del siglo XXI: desde modelizar mejor la evolución del clima y las pandemias hasta diseñar infraestructuras más resilientes o mejorar la seguridad de las comunicaciones. La clave estará en orientar la enorme capacidad de cómputo disponible hacia proyectos que aporten valor social real.
Si miramos el conjunto, la computación a exaescala representa un salto gigantesco en potencia de cálculo que ya se traduce en avances científicos, industriales y médicos de primera magnitud; al mismo tiempo, obliga a replantearse cómo gestionamos la energía, los datos, la seguridad y la ética en un mundo donde los superordenadores son capaces de realizar un quintillón de operaciones por segundo y de influir, de manera silenciosa pero decisiva, en la forma en que vivimos y trabajamos.
Redactor apasionado del mundo de los bytes y la tecnología en general. Me encanta compartir mis conocimientos a través de la escritura, y eso es lo que haré en este blog, mostrarte todo lo más interesante sobre gadgets, software, hardware, tendencias tecnológicas, y más. Mi objetivo es ayudarte a navegar por el mundo digital de forma sencilla y entretenida.

