Caminar entre las hileras de armarios de superordenadores del Leadership Computing Facility del Laboratorio Nacional de Argonne, situado a unos 40 kilómetros de Chicago, es como pasear por una versión de alta tecnología del laberinto de Overlook de «El resplandor», sin el loco que maneja un hacha.

Los dos superordenadores principales de ese laberinto de acero, llamados Mira y Theta, constan de 101 armarios del tamaño de un frigorífico estándar que contienen pilas de bastidores y pesan entre 3.450 y 4.390 libras cada uno. Su peso total es de 160 toneladas, gran parte de las cuales se deben a los sistemas de refrigeración por agua que evitan el sobrecalentamiento. Junto con otros sistemas más pequeños, las máquinas se alojan en un centro de datos de 25.000 pies cuadrados con techos bajos y suelo de baldosas blancas. Con todo ese equipo zumbando, no es un lugar tranquilo. Cerca de los ordenadores, los visitantes tienen que hablar y gritar para que se les oiga por encima de un fuerte zumbido constante.

Se espera que el extremadamente potente y rápido superordenador Aurora llegue al Laboratorio Nacional de Argonne en algún momento de 2021. | Crédito: Argonne National Laboratory

Seis mil millones de veces más rápido: El nuevo hogar del superordenador Aurora

Por muy extensas que sean las instalaciones, son insuficientes para albergar a la bestia que pronto aterrizará allí. En algún momento de 2021, si todo va según lo previsto, un nuevo superordenador fantásticamente potente apodado Aurora se instalará allí. Así que, para preparar su llegada, se está llevando a cabo una gran ampliación. Con un precio de 500 millones de dólares, Aurora será el primero de los tres superordenadores denominados de «exaescala», capaces de realizar un billón (o quintillón) de cálculos por segundo, en los que el Departamento de Energía de EE.UU. (DOE), que dirige Argonne y otros 17 laboratorios nacionales, está invirtiendo 1.800 millones de dólares. (Otro, bautizado como Frontier, se instalará pronto en el Laboratorio Nacional de Oak Ridge, en Tennessee).

No es de extrañar que para esa cantidad de dinero, Aurora sea capaz de realizar pequeños milagros computacionales. Medido en 1018 FLOPS (que significa operaciones en coma flotante por segundo), el sistema será seis mil millones de veces más rápido que su predecesor, el innovador Cray-1 de 1964. Dicho en términos más tangibles, por cortesía de Design News, «una persona que sumara 1+1+1 en una calculadora manual una vez por segundo, sin tiempo libre para comer o dormir, necesitaría 31,7 billones de años para hacer lo que Aurora hará en un segundo».

Eso es entre cinco y diez veces más rápido que el actual campeón de los superordenadores, una megamáquina de IBM-Nvidia llamada Summit que reside en Oak Ridge. Alucinante.

¿A quién desbancará Aurora? He aquí un vistazo a los 10 superordenadores más rápidos del mundo según el grupo de expertos de TOP500.

«Hay limitaciones en lo que podemos hacer hoy en día en un superordenador», dijo recientemente Mike Papka, director de la Leadership Computing Facility, tras dar una vuelta por el espacio. «Con Aurora, podemos llevarlas al siguiente nivel. Ahora mismo, podemos hacer simulaciones de la evolución del universo. Pero con Aurora, podremos hacerlo de una manera más realista, con más física y más química añadidas. Estamos empezando a hacer cosas como intentar comprender cómo interactúan los distintos medicamentos entre sí y, por ejemplo, alguna forma de cáncer. Ahora podemos hacerlo a pequeña escala. Podremos hacerlo a una escala aún mayor con Aurora».

Como uno de los 52 superordenadores del Departamento de Energía, Aurora será probablemente el único sistema de exaescala que exista cuando se estrene. (Es decir, a menos que China construya uno primero -lo que algunos conocedores dicen que es bastante improbable a pesar de los informes de que el país está luchando para hacer uno para 2020). En una conferencia de prensa de marzo de 2019 en la que se anunció la instalación de Aurora, el director asociado del laboratorio de Argonne, Rick Stevens, explicó que el sistema se encargará de las aplicaciones informáticas de alto rendimiento, así como del análisis de los datos en flujo que generan los aceleradores, detectores, telescopios y otros equipos de investigación.

Rick Stevens, director asociado del Laboratorio Nacional de Argonne, habla de Aurora, el primer ordenador a exaescala de Estados Unidos.

Pero, de momento, Aurora sigue siendo un trabajo en curso mientras que Summit se lleva la gloria. Summit, que se puso en marcha hace varios años en una versión mucho menos potente y se lanzó a mediados de 2018, costó 200 millones de dólares, puede realizar cálculos matemáticos complejos a un ritmo de 200 cuatrillones (o 200 trillones) por segundo y es responsable de arrebatar a China el primer puesto de la lista TOP500. Físicamente imponente, está formado por más de 300 unidades -de tamaño similar a las de Mira y Theta- que pesan un total de 340 toneladas, ocupan 9.250 pies cuadrados y están alimentadas por 9.216 chips de procesamiento central. En su interior hay kilómetros de cable de fibra óptica, y la refrigeración de este coloso requiere 4.000 galones de agua por minuto. Además, consume energía vorazmente, lo suficiente como para alimentar miles de hogares.

Cuando el «padre de la supercomputación», Seymour Cray, comenzó a construir sus revolucionarias máquinas en la década de 1960, tal despliegue de músculo computacional era incomprensible. Más de medio siglo después, se está convirtiendo poco a poco en la norma, y algún día parecerá tan pintoresco como lo es ahora un Atari 2600.

Theta es uno de los dos superordenadores del Laboratorio Nacional de Argonne.

¿Qué es un superordenador? (Pista: la computación paralela es la clave)

Los superordenadores llevan años empleando una técnica llamada «procesamiento paralelo masivo», por la que los problemas se dividen en partes y son trabajados simultáneamente por miles de procesadores, a diferencia del método «en serie» de uno en uno de, por ejemplo, tu viejo MacBook Air. He aquí otra buena analogía, esta vez de Explainthatstuff.com:

Es como llegar a una caja con un carrito lleno de artículos, pero dividirlos entre varios amigos. Cada amigo puede pasar por caja por separado con algunos de los artículos y pagar por separado. Una vez que todos hayan pagado, pueden reunirse de nuevo, cargar el carro y marcharse. Cuantos más artículos haya y más amigos tengas, más rápido será hacer las cosas por procesamiento paralelo, al menos, en teoría.

«Hay que utilizar la computación paralela para aprovechar realmente la potencia del superordenador», dice la candidata al doctorado del Instituto Politécnico Rensselaer Caitlin Joann Ross, que recientemente hizo una residencia de seis meses en Argonne. «Hay que entender cómo hay que intercambiar datos entre los procesos para hacerlo de forma eficiente, así que hay un montón de pequeños retos diferentes que hacen que sea muy divertido trabajar con él». Aunque hay días en los que puede ser ciertamente frustrante»

Los problemas de «depuración», dice, son la principal causa de esa frustración. Los cálculos que pueden funcionar sin problemas utilizando cuatro procesadores, por ejemplo, pueden fallar si se añade un quinto.

«Si todo funciona a la perfección», dice Ross, «lo que sea que se esté ejecutando se ejecuta mucho más rápido que en un ordenador con menos procesadores o con un solo procesador. Hay ciertos cálculos que pueden tardar semanas o meses en ejecutarse en un ordenador portátil, pero si se pueden paralelizar de forma eficiente para ejecutarlos en un superordenador, pueden tardar un día».

Otra área de trabajo de Ross consiste en simular los propios superordenadores, más concretamente, las redes utilizadas en los superordenadores. Los datos de las aplicaciones que se ejecutan en los superordenadores reales se introducen en un simulador que permite probar diversas funciones sin necesidad de desconectar todo el sistema. Una de esas funciones es la llamada «interferencia de comunicaciones».

«En la vida real, diferentes usuarios envían trabajos al superordenador, que realiza algún tipo de programación para determinar cuándo se ejecutan esos trabajos», afirma Ross. «Por lo general, hay varios trabajos diferentes que se ejecutan en el superordenador al mismo tiempo. Utilizan diferentes nodos de cálculo, pero comparten los recursos de red. Así que la comunicación del trabajo de otro puede ralentizar el tuyo, en función de la forma en que se enrutan los datos a través de la red. Con nuestras simulaciones, podemos explorar este tipo de situaciones y probar cosas como otros protocolos de enrutamiento que podrían ayudar a mejorar el rendimiento de la red.

El neurocientífico israelí Henry Markham habla de la construcción de un modelo del cerebro humano.

¿Para qué se usan los superordenadores?Sólo para simular la realidad, eso es todo

Durante las últimas décadas y hasta la actualidad, la principal contribución de la supercomputación a la ciencia ha sido su capacidad cada vez mayor para simular la realidad con el fin de ayudar a los seres humanos a hacer mejores predicciones de rendimiento y diseñar mejores productos en campos que van desde la fabricación y el petróleo hasta la industria farmacéutica y el ejército. Jack Dongarra, uno de los principales expertos en supercomputación del mundo, compara esa capacidad con la de tener una bola de cristal.

«Digamos que quiero entender lo que ocurre cuando dos galaxias chocan», dice Dongarra. «Realmente no puedo hacer ese experimento. No puedo tomar dos galaxias y hacerlas colisionar. Así que tengo que construir un modelo y ejecutarlo en un ordenador. O en los viejos tiempos, cuando se diseñaba un coche, se cogía ese coche y se estrellaba contra un muro para ver cómo aguantaba el impacto. Eso es muy caro y lleva mucho tiempo. Hoy en día, no hacemos eso muy a menudo; construimos un modelo informático con toda la física y lo estrellamos contra un muro simulado para entender dónde están los puntos débiles».

¿Para qué se utilizan los superordenadores?

Los superordenadores son utilizados básicamente por las empresas y las organizaciones gubernamentales para simular resultados. Estos velocísimos ordenadores pueden utilizarse para todo, desde la búsqueda de nuevos depósitos de petróleo hasta el desarrollo de nuevas medicinas que salven vidas. De hecho, los superordenadores de todo el mundo se están utilizando para ayudar en la investigación y el desarrollo de una vacuna para el COVID-19.

Las empresas, especialmente, ven el valor monetario (ROI, como dicen los tipos corporativos) en las simulaciones de supercomputación, ya sea para fabricar coches, perforar petróleo o descubrir nuevos medicamentos. En 2018, las compras corporativas y gubernamentales contribuyeron a un mercado de computación de alto rendimiento cada vez más robusto.

«De los quinientos ordenadores más importantes, más de la mitad están en la industria», dice Dongarra, que pasó una parte temprana de su carrera en Argonne. «La industria lo entiende. Están invirtiendo en ordenadores de alto rendimiento para ser más competitivos y obtener una ventaja sobre su competencia. Y creen que ese dinero está bien gastado. Están invirtiendo en estas cosas para ayudar a impulsar sus productos y la innovación, su línea de fondo, su productividad y su rentabilidad»

Pero es más grande que sólo el retorno de la inversión.

«Las empresas comerciales tradicionales pueden ver cálculos de retorno de la inversión del tipo: ‘Nos ha ahorrado esta cantidad de costes de pruebas físicas’ o ‘Hemos podido llegar al mercado más rápido y, por tanto, hemos obtenido ingresos adicionales'», afirma Andrew Jones, consultor de computación de alto rendimiento con sede en el Reino Unido. «Pero un cálculo básico del ROI de la HPC no es necesariamente el origen del valor. Si se pregunta a una empresa petrolera, no se reduce a poder encontrar petróleo un 30% más barato. Las empresas que utilizan la supercomputación para realizar mejoras a gran escala y aumentar la eficiencia tienen una ventaja sobre sus competidores.

«Y lo mismo ocurre con gran parte de la ciencia», añade Jones. «No se busca necesariamente el rendimiento de la inversión en un sentido específico, se busca la capacidad general: si nuestros investigadores son capaces de hacer ciencia que sea competitiva a nivel internacional o no».’

La necesidad de velocidad

‘»No hay dos mayores infractores de ‘mira qué grande es mi sistema’ que EE.Porque los ordenadores más rápidos permiten a los investigadores obtener más rápidamente información sobre lo que están trabajando, hay una necesidad cada vez mayor -o al menos un fuerte deseo- de velocidad. Dongarra lo llama «una búsqueda interminable», y las capacidades sostenidas a exaescala de Aurora (aún no probadas) serían la cúspide de esa búsqueda hasta ahora. Aun así, será uno de tantos. En otros 26 países del mundo funcionan decenas de superordenadores con nombres a veces épicos (Titán, Excalibur). Fabricados por 36 proveedores diferentes, son impulsados por 20 generaciones de procesadores y sirven a una variedad de industrias, así como a funciones gubernamentales que van desde la investigación científica hasta la defensa nacional.

Estas estadísticas provienen del sitio web TOP500.org. Este sitio, cofundado por Dongarra, lleva controlando todo lo relacionado con la supercomputación desde 1993, y utiliza su LINPACK Benchmark (que calcula la velocidad a la que un ordenador puede ejecutar un programa o varios) para medir el rendimiento. Según su último resumen de los más grandes y más malos del mundo, Estados Unidos cuenta con cinco (pronto serán seis) de los 10 primeros, incluyendo el superordenador más rápido del planeta en el Summit de Oak Ridge y el segundo más rápido, Sierra, en el Laboratorio Nacional Lawrence Livermore de California. El segundo clasificado, China, sólo tiene dos (pero pronto serán tres). Claro que el país ocupa 227 de los 500 primeros puestos y ha fabricado 303 de las máquinas de la lista, pero Estados Unidos puede seguir blandiendo su gigantesco dedo de espuma. Por ahora. La competición está en marcha y no muestra signos de disminuir.

«No hay dos mayores infractores de ‘mira qué grande es mi sistema’ que Estados Unidos y China», dice Nicole Hemsoth, cofundadora y coeditora de The Next Platform.

China ha hecho de la computación de alto rendimiento un «punto de orgullo nacional». | Crédito:

Si bien China ha estado históricamente menos preocupada por el Top 500, explica, en los últimos años han hecho de la computación de alto rendimiento «un punto de orgullo nacional», poniendo más énfasis en el «rendimiento de los gráficos» y gastando miles de millones para conseguirlo. Otros competidores de la exaescala son Francia y Japón. Según un estudio, 10.000 millones de dólares de los 130.000 millones que se prevé gastar en superordenadores entre 2018 y 2021 se destinarán a sistemas de exaescala como el que está previsto para Argonne.

«La carrera entre países es en parte real y en parte artificial», dice Jones. «Así que, por ejemplo, si eres el director de un laboratorio nacional estadounidense y estás tratando de conseguir financiación para tu próxima máquina de HPC, es un muy buen argumento decir que, ‘Bueno, China tiene una que es diez veces más grande, así que tenemos que ponernos al día’. La Unión Europea y China juegan al mismo juego contra Estados Unidos, así que hay un poco de tensión creada que no es necesariamente real, pero que está ayudando a impulsar la .»

Los medios de comunicación también juegan un papel importante. A los periodistas les encanta sacar a relucir estadísticas de supercomputación alucinantes y explicarlas de forma evocadora. Hay un ejemplo de ello al principio de este artículo. Aquí hay otro, del New York Times: «Si un estadio construido para 100.000 personas estuviera lleno, y todos los presentes tuvieran un portátil moderno, harían falta 20 estadios para igualar la potencia de cálculo de Summit». ¿NO ESTÁ ENTRETENIDO?

Los funcionarios del gobierno también disfrutan de un poco de fanfarronería de la supercomputación, hablando de su gigantesco poder de procesamiento como la clave para la mejora de la sociedad – y, por supuesto, la evidencia de la genialidad total de su país. John F. Kennedy, que impulsó la carrera espacial en 1961, habría estado encantado con esto.

«Es competitividad económica básica», dice Jones. «Si uno cae tan lejos que su nación ya no es económicamente competitiva con otras naciones de tamaño comparable, entonces eso lleva a un montón de otros problemas políticos y de seguridad a los que hay que hacer frente».

Capacidad de computación + potencia = poderío militar

Más allá de los aspectos económicos y de seguridad, añade, los que entienden claramente las implicaciones de la computación de alto rendimiento ven sus enormes beneficios para la ciencia, los negocios y otros sectores. «Así que es una obviedad que hagamos estas cosas». (Es cierto que algunos informes dicen que esos beneficios son exagerados). En el ámbito del armamento nuclear, por ejemplo, los superordenadores han demostrado ser una gran ayuda para las cosas que explotan. Las sofisticadas simulaciones han eliminado la necesidad de realizar pruebas en el mundo real.

«No desarrollan algo, salen al desierto, perforan un agujero y ven si funciona», dice Dongarra sobre una práctica que dejó de hacerse hace décadas. «Simulan ese diseño en un superordenador. También simulan lo que les ocurre si están en una estantería durante tantos años, porque tienen que verificar que la reserva funcionará».

En una importante actualización reciente, el Laboratorio de Investigación de las Fuerzas Aéreas -uno de los cinco centros de supercomputación del Departamento de Defensa de EE.UU.- instaló cuatro superordenadores compartibles en los que todo el ejército estadounidense puede realizar investigaciones clasificadas. El proyecto se promocionó como una forma de ayudar a los investigadores de la Fuerza Aérea, el Ejército y la Armada a «responder rápidamente a los desafíos más urgentes y complejos de nuestra nación, lo que también está acelerando nuevas capacidades para el combatiente a un menor costo para el contribuyente».

Interprete eso como quiera.

Algunos expertos creen que la supercomputación dará forma al futuro de la IA, pero no está claro exactamente lo que eso significa. | Crédito:

Supercomputación e inteligencia artificial

La inteligencia artificial sigue siendo bastante rudimentaria, pero los superordenadores están cambiando esa situación al acelerar los procesos de aprendizaje automático para producir resultados más rápidos a partir de más datos, como en esta investigación sobre la ciencia del clima.

«Dedicarse a la supercomputación es creer en el poder del algoritmo para destilar información valiosa y significativa a partir de la implementación repetida de la lógica procedimental», escribe Scott Fulton III en un artículo perspicaz en ZDNet. «En la base de la supercomputación hay dos ideales: uno que profesa que la máquina de hoy acabará alcanzando una solución nueva y extraordinariamente valiosa, seguido de una segunda noción, más sutil, según la cual la máquina de hoy es un prototipo de la de mañana».

Como dijo el director de Argonne, Paul Kearns, a HPCWire, Aurora está destinada a la IA de «próxima generación» que acelerará los descubrimientos científicos y posibilitará mejoras en ámbitos como la previsión meteorológica extrema, los tratamientos médicos, la cartografía cerebral o el desarrollo de nuevos materiales. Incluso nos ayudará a comprender mejor el universo, añadió, «y eso es sólo el principio».

Aunque Dongarra cree que los superordenadores darán forma al futuro de la IA, no se puede prever exactamente cómo ocurrirá.

«Hasta cierto punto, los ordenadores que se están desarrollando hoy se utilizarán para aplicaciones que necesitan inteligencia artificial, aprendizaje profundo y cálculos de redes neuronales», dice Dongarra. «Va a ser una herramienta que ayude a los científicos a entender y resolver algunos de los problemas más desafiantes que tenemos»

«Va a ser» – tiempo futuro. El trabajo de IA sigue siendo sólo un pequeño porcentaje de lo que hacen los superordenadores. En su mayor parte, dice Jones, son «máquinas del tiempo» que están «trayendo la próxima ciencia de cinco años adelante a la actualidad»

«El noventa por ciento de las instalaciones tradicionales de HPC todavía están haciendo cargas de trabajo tradicionales de HPC: simulaciones de ingeniería, dinámica de fluidos, modelado del tiempo y del clima», explica. «Y la IA está ahí a un nivel del cinco o el diez por ciento, aumentando esas cargas y ayudando a que funcionen mejor, pero todavía no domina los requisitos para la compra de plataformas de HPC o incluso para guiar los programas de financiación de HPC».

Hemsoth cree que probablemente pasarán otros cinco años antes de que los flujos de trabajo de HPC existentes incluyan una gran cantidad de IA y aprendizaje profundo, los cuales tendrán requisitos de computación diferentes a los actuales.

«Todo el mundo se está precipitando un poco en lo que respecta a la IA», dice. «Están comprando sistemas que son adecuados para la IA tal y como es ahora. La IA será una parte práctica de las cargas de trabajo, pero va a cambiar. Y el software y la aplicación reales en los que el material debe ejecutarse van a cambiar, lo que va a cambiar el hardware que se necesita tener. Este material está evolucionando rápidamente, pero con ciclos de producción de hardware realmente largos, especialmente si eres un laboratorio nacional y tienes que adquirir este material entre tres y cinco años antes de tener la máquina».

Sea cual sea la forma que adopte la supercomputación en el futuro, será más potente y transformadora. | Crédito:

El futuro de la supercomputación

«La mejora de la humanidad es un objetivo noble que hay que tener».»

Otro bombazo cerebral: tu actual smartphone es tan rápido como lo era un superordenador en 1994, uno que tenía 1.000 procesadores y hacía simulaciones nucleares. (¿Hay una aplicación para eso?) Es lógico, pues, que el smartphone (o como se llame) que tengas dentro de un cuarto de siglo pueda estar teóricamente al nivel de Aurora. La cuestión es que estas cosas son rápidas, y cada vez lo son más. Así es como Dongarra lo resume:

«Alcanzamos los teraflops en 1997 en una máquina de los Laboratorios Nacionales Sandia. Fueron 1012 teraflops. Luego, en 2008, alcanzamos los petaflops -1015- en Los Álamos. Ahora estamos a punto de alcanzar la exaescala, con 1018 operaciones, a principios de 2020 o 2021. Probablemente, en 10 u 11 años, llegaremos a la zetaescala: 1021 operaciones por segundo. Cuando yo empecé en la informática, hacíamos megaflops: 106 operaciones. Así que las cosas cambian. Hay cambios en la arquitectura, en el software y en las aplicaciones que tienen que ir a la par. Pasar al siguiente nivel es una progresión natural».

Un artículo reciente en TOP500.com titulado «La supercomputación se encamina hacia una crisis existencial» pinta un panorama de lo que está por venir en el que las simulaciones pasan a un segundo plano.

«El aprendizaje automático, en particular, podría llegar a dominar la mayoría de los dominios informáticos, incluida la HPC (e incluso el análisis de datos) durante la próxima década y media», escribe el autor Michael Feldman. «Aunque en la actualidad se utiliza sobre todo como un paso auxiliar en la computación científica tradicional, tanto para el preprocesamiento como para el postprocesamiento de simulaciones, en algunos casos, como el del descubrimiento de fármacos, podría sustituir a las simulaciones por completo».

Sea cual sea la forma que adopten los superordenadores, Papka, de Argonne, afirma que serán cada vez más potentes y transformadores, y que afectarán a todo, desde lo más cotidiano hasta lo más profundo, desde el diseño de baterías más eficientes para los coches eléctricos hasta, tal vez, la erradicación de enfermedades tan combatidas como el cáncer. O eso espera.

«La mejora de la humanidad», dice Papka, «es un objetivo noble».

Lee más historias sobre empresas de hardware

Deja una respuesta

Tu dirección de correo electrónico no será publicada.