Passar entre as filas de armários de supercomputadores no Laboratório Nacional de Argonne, localizado a cerca de 25 milhas de Chicago, é como vaguear por uma versão de alta tecnologia do “The Shining’s” Overlook Maze – menos o louco do machado.

Os dois supercomputadores primários naquele labirinto de aço, chamados Mira e Theta, compreendem 101 armários do tamanho de geladeiras padrão que contêm pilhas de racks e pesam entre 3.450 e 4.390 lbs. cada um. Seu total combinado: 160 toneladas – grande parte desse peso devido aos sistemas de resfriamento de água que evitam o superaquecimento. Junto com vários outros sistemas menores, as máquinas estão alojadas num centro de dados de 25.000 pés quadrados com tetos baixos e um piso de azulejos brancos. Com todo esse equipamento a rodar para longe, não é um lugar calmo. Mais perto dos computadores, os visitantes têm de falar shout para serem ouvidos acima de um zumbido constante.

O supercomputador extremamente potente e rápido Aurora deverá chegar ao Laboratório Nacional de Argonne em algum momento de 2021. | Crédito: Argonne National Laboratory

Six Billion Times Faster: A nova casa do Aurora SuperComputer

Sprawling embora as instalações sejam, é insuficiente para acomodar a besta que vai aterrar lá em breve. Em algum momento de 2021, se tudo correr como planeado, um novo supercomputador fantasticamente poderoso, apelidado de Aurora, vai assumir a residência. E assim, em preparação para a sua chegada, está em curso uma grande expansão. Com um preço de 500 milhões de dólares, a Aurora será o primeiro de três supercomputadores chamados “exascale”, capazes de realizar cálculos de um bilhão (também conhecido como quintilhão) por segundo, nos quais o Departamento de Energia dos Estados Unidos (DOE), que administra Argonne e outros 17 laboratórios nacionais, está investindo 1,8 bilhão de dólares. (Outro, dublado Frontier, será instalado em breve no Laboratório Nacional de Oak Ridge, no Tennessee).

Não surpreende que para esse tipo de massa, a Aurora seja capaz de realizar pequenos milagres computacionais. Medido como 1018 FLOPS (que significa operações de ponto flutuante por segundo), o sistema será seis bilhões de vezes mais rápido que o seu predecessor, o inovador Cray-1 de 1964. Em termos mais tangíveis, cortesia do Design News, “Uma pessoa adicionando 1+1+1 numa calculadora manual uma vez por segundo, sem tempo para comer ou dormir, precisaria de 31,7 trilhões de anos para fazer o que a Aurora fará em um segundo”.

É entre 5 a 10 vezes mais rápido que o actual campeão dos supercomputadores, uma mega-máquina IBM-Nvidia chamada Summit que reside em Oak Ridge. Mente, explodido.

Quem Aurora desocupará o lugar? Aqui está um olhar sobre os 10 supercomputadores mais rápidos do mundo, de acordo com o banco de cérebros no TOP500.

“Há limitações no que podemos fazer hoje em dia num supercomputador”, disse recentemente Mike Papka, diretor do Leadership Computing Facility, depois de dar uma volta pelo espaço. “Com a Aurora, podemos levá-los para o próximo nível. Neste momento, podemos fazer simulações da evolução do universo”. Mas com o Aurora, poderemos fazer isso de uma forma mais realista, com mais física e mais química adicionada a eles. Estamos começando a fazer coisas como tentar entender como diferentes drogas interagem umas com as outras e, digamos, alguma forma de câncer. Podemos fazer isso em pequena escala agora. Poderemos fazer isso em uma escala ainda maior com a Aurora”.

Como um dos 52 supercomputadores do Departamento de Energia, a Aurora será provavelmente o único sistema exascale que existe quando estrear. (Isto é, a menos que a China construa um primeiro – o que, segundo alguns informantes, é bastante improvável, apesar dos relatos de que o país está a lutar para fazer um até 2020). Numa conferência de imprensa em março de 2019 anunciando a instalação da Aurora, o diretor do laboratório associado da Argonne, Rick Stevens, explicou que o sistema irá lidar com aplicações de computação de alto desempenho, bem como a análise de dados de streaming gerados por aceleradores, detectores, telescópios e outros equipamentos de pesquisa.

Rick Stevens, diretor associado do laboratório do Laboratório Nacional de Argonne, fala sobre Aurora – o primeiro exascale computador da América.

Neste ponto, no entanto, Aurora continua sendo um trabalho em andamento enquanto Summit obtém a glória. Originalmente previsto para entrar em funcionamento há vários anos, em uma encarnação muito menos poderosa e lançado em meados de 2008, Summit custou 200 milhões de dólares, pode realizar cálculos matemáticos complexos a uma taxa de 200 quadrilhões (ou 200 trilhões) por segundo e é responsável por roubar o poleiro número um da América na lista TOP500 da China. Fisicamente imponente, é composto por mais de 300 unidades – de tamanho semelhante ao de Mira e Theta – que pesam um total de 340 toneladas, ocupam 9.250 pés quadrados e são alimentados por 9.216 chips de processamento central. No interior há quilómetros de cabo de fibra óptica, e o arrefecimento deste gigante requer 4.000 galões de água por minuto. Também consome energia vorazmente – o suficiente para alimentar milhares de casas.

Quando o “pai da supercomputação”, Seymour Cray, começou a construir suas máquinas revolucionárias nos anos 60, uma tal exibição ondulante de músculo computacional era incompreensível. Mais de meio século depois, está lentamente se tornando a norma – e um dia parecerá tão peculiar como um Atari 2600 agora.

Theta é um dos dois supercomputadores do Laboratório Nacional de Argonne. | Crédito: Argonne National Laboratory

O que é um Supercomputador?(Dica: Computação paralela é a chave)

Os supercomputadores têm empregado durante anos uma técnica chamada “processamento maciçamente paralelo”, onde os problemas são divididos em partes e trabalhados simultaneamente por milhares de processadores, ao contrário do método “em série”, digamos, do seu velho MacBook Air regular. Aqui está outra boa analogia, esta de Explainthatstuff.com:

É como chegar a uma caixa com um carrinho cheio de itens, mas depois dividir os seus itens entre vários amigos diferentes. Cada amigo pode passar por um checkout separado com alguns dos itens e pagar separadamente. Uma vez que todos tenham pago, você pode se reunir novamente, carregar o carrinho e sair. Quanto mais itens houver e quanto mais amigos você tiver, mais rápido ele consegue fazer as coisas por processamento paralelo – pelo menos, em teoria.

“Você tem que usar computação paralela para realmente tirar proveito do poder do supercomputador”, diz a candidata ao doutorado do Instituto Politécnico Rensselaer Caitlin Joann Ross, que recentemente fez uma residência de seis meses em Argonne. “Você tem que entender como os dados precisam ser trocados entre processos para fazê-lo de forma eficiente, por isso há muitos pequenos desafios diferentes que tornam muito divertido trabalhar com eles”. Embora existam dias em que certamente pode ser frustrante”

“Depuração”, diz ela, são a principal causa dessa frustração. Cálculos que podem funcionar sem problemas usando quatro processadores, por exemplo, podem quebrar se um quinto for adicionado.

“Se você tem tudo funcionando perfeitamente”, diz Ross, “então o que quer que você esteja rodando está rodando muito mais rápido do que em um computador com menos processadores ou com um único processador. Há certos cálculos que podem levar semanas ou meses para rodar no seu laptop, mas se você puder fazer um paralelo eficiente para rodar em um supercomputador, pode levar um dia”

Outra área do trabalho de Ross envolve a simulação dos próprios supercomputadores – mais especificamente, as redes usadas em supercomputadores. Os dados de aplicações que rodam em supercomputadores reais são alimentados em um simulador, o que permite que várias funções sejam testadas sem que todo o sistema seja desligado. Algo chamado “interferência nas comunicações” é uma dessas funções.

“Na vida real, diferentes usuários submeterão trabalhos ao supercomputador, que fará algum tipo de agendamento para determinar quando esses trabalhos forem executados”, diz Ross. “Normalmente, haverá vários jobs diferentes rodando no supercomputador ao mesmo tempo”. Eles usam nós de computação diferentes, mas compartilham os recursos da rede”. Portanto, a comunicação do trabalho de outra pessoa pode atrasar o seu trabalho, com base na forma como os dados são roteados através da rede. Com nossas simulações, podemos explorar esses tipos de situações e testar coisas como outros protocolos de roteamento que poderiam ajudar a melhorar o desempenho da rede.

Neurocientista israelense Henry Markham fala sobre a construção de um modelo do cérebro humano.

Para que são usados os supercomputadores?Apenas Simulando a Realidade, Isso é Tudo

Durante as últimas décadas e até hoje, a principal contribuição da supercomputação à ciência tem sido a sua habilidade de sempre melhorar a simulação da realidade, a fim de ajudar os seres humanos a fazer melhores previsões de desempenho e projetar melhores produtos em campos que vão desde fabricação e petróleo até farmacêuticos e militares. Jack Dongarra, um dos maiores especialistas em supercomputação do mundo, gosta dessa habilidade de ter uma bola de cristal.

“Digamos que eu quero entender o que acontece quando duas galáxias colidem”, diz Dongarra. “Eu não posso realmente fazer essa experiência. Eu não posso pegar duas galáxias e colidi-las”. Então eu tenho que construir um modelo e rodá-lo em um computador. Ou nos velhos tempos, quando eles projetavam um carro, eles pegavam aquele carro e batiam contra uma parede para ver o quão bem ele resistia ao impacto. Bem, isso é muito caro e demorado. Hoje em dia, não fazemos isso com muita frequência; construímos um modelo de computador com toda a física e batemos com ele contra uma parede simulada para entender onde estão os pontos fracos”

Para que são usados os supercomputadores?

Os supercomputadores são basicamente usados por corporações e organizações governamentais para simular resultados. Estes computadores rápidos em chamas podem ser usados para tudo, desde encontrar novos repositórios de petróleo até desenvolver novos medicamentos que salvam vidas. Na verdade, supercomputadores em todo o mundo estão sendo usados para auxiliar na pesquisa e desenvolvimento de uma vacina para COVID-19.

As empresas, especialmente, vêem o valor monetário (ROI, como dizem os tipos corporativos) nas simulações de supercomputação, quer estejam fabricando carros, perfurando petróleo ou descobrindo novos medicamentos. Em 2018, as compras corporativas e governamentais contribuíram para um mercado cada vez mais robusto de computação de alto desempenho.

“Dos quinhentos computadores mais de metade estão na indústria”, diz Dongarra, que passou uma parte inicial de sua carreira na Argonne. “A indústria entende. Eles estão investindo em computadores de alto desempenho para serem mais competitivos e ganharem vantagem sobre a concorrência”. E eles sentem que o dinheiro é bem gasto. Eles estão investindo nessas coisas para ajudar a impulsionar seus produtos e inovação, seus resultados, sua produtividade e sua lucratividade”

Mas é maior do que apenas o ROI.

“A empresa comercial tradicional pode ver cálculos de retorno do investimento de, ‘Poupou-nos esta quantidade de custos de testes físicos,’ ou, ‘Conseguimos chegar ao mercado mais rapidamente e, portanto, ganhar rendimento extra,'” diz Andrew Jones, um consultor de computação de alto desempenho baseado no Reino Unido. Mas um cálculo básico do ROI para HPC não é necessariamente de onde vem o valor”. Se perguntarmos a uma empresa petrolífera, não se trata de conseguir encontrar petróleo 30 por cento mais barato”. Resume-se a ser capaz de encontrar petróleo ou não”

As empresas que usam supercomputação para fazer grandes melhorias de imagem e aumentar a eficiência têm uma vantagem sobre os seus concorrentes.

“E o mesmo é verdade para muita da ciência”, acrescenta Jones. “Você não está necessariamente procurando por um retorno de investimento em um sentido específico, você está procurando por capacidade geral – se nossos pesquisadores são capazes de fazer ciência que é competitiva internacionalmente ou não””

A necessidade de velocidade

“”Não há dois maiores infratores de ‘olhar o tamanho do meu sistema’ do que a U.S. e China”‘

Porque computadores mais rápidos permitem que os pesquisadores ganhem mais rapidamente uma maior percepção do que estão trabalhando, há uma necessidade cada vez maior – ou pelo menos um forte desejo – de velocidade. Dongarra a chama de “uma busca sem fim”, e as capacidades exascendentes (ainda não comprovadas) de Aurora seriam o auge dessa busca até agora. Ainda assim, será uma de muitas. Mais supercomputadores com nomes às vezes épicos (Titan, Excalibur) operam em 26 outros países ao redor do mundo. Fabricados por 36 fornecedores diferentes, eles são dirigidos por 20 gerações de processadores e servem uma variedade de indústrias, bem como funções governamentais que vão desde a pesquisa científica à defesa nacional.

Estas estatísticas são do site TOP500.org. Co-fundado por Dongarra, ele tem mantido o controle de todas as coisas de supercomputação desde 1993, e usa seu LINPACK Benchmark (que estima quão rápido um computador é capaz de executar um programa ou muitos) para medir o desempenho. De acordo com seu último resumo dos maiores e piores do mundo, a América tem cinco (em breve seis) dos dez melhores – incluindo o supercomputador mais rápido do planeta em Oak Ridge’s Summit e o segundo mais rápido, Sierra, no Lawrence Livermore National Laboratory, na Califórnia. A China, vice-campeã, tem apenas dois (mas em breve será três). Claro, o país ocupa 227 dos 500 primeiros lugares e já fabricou 303 das máquinas dessa lista, mas os EUA ainda podem brandir o seu dedo de espuma gigante. Por enquanto. O concurso está em andamento e não mostra sinais de abater.

“Não há dois maiores infratores de ‘olhar o tamanho do meu sistema’ do que os EUA e a China”, diz Nicole Hemsoth, co-fundadora e co-editora de The Next Platform.

China fez da computação de alto desempenho um “ponto de orgulho nacional”. | Crédito:

Embora a China tenha historicamente estado menos preocupada com os Top 500, ela explica, nos últimos anos eles fizeram da computação de alto desempenho “um ponto de orgulho nacional”, dando mais ênfase ao “desempenho de topo” e gastando milhares de milhões para alcançá-lo. Outros concorrentes exascalistas incluem a França e o Japão. De acordo com um estudo, US$ 10 bilhões de um projeto de US$ 130 bilhões gastos em supercomputadores entre 2018 e 2021 irão para sistemas exascales como o que está previsto para Argonne.

“A corrida entre países é em parte real e em parte artificial”, diz Jones. “Então, por exemplo, se você é o diretor de um laboratório nacional dos EUA e está tentando garantir financiamento para sua próxima máquina HPC, é um argumento muito bom para dizer que, ‘Bem, a China tem uma que é dez vezes maior, então nós precisamos nos recuperar”. A União Europeia e a China jogam o mesmo jogo contra os EUA, por isso há um pouco de tensão criada que não é necessariamente real, mas que está a ajudar a conduzir o .”

Os media também desempenham um papel significativo. Os jornalistas adoram lançar as estatísticas dos supercomputadores e explicá-las de forma evocativa. Há um exemplo disso no início desta história. Aqui está outro, do New York Times: “Se um estádio construído para 100.000 pessoas estivesse cheio, e todos nele tivessem um portátil moderno, seriam precisos 20 estádios para igualar o poder de fogo computacional de Summit.” VOCÊ NÃO ENTREGOU?

Os funcionários do governo também gostam de um pouco de supercomputação, falando do seu gigantesco poder de processamento como a chave para a melhoria da sociedade – e, é claro, evidência da total deslumbramento do seu país. John F. Kennedy, que reavivou a corrida espacial em 1961, teria estado em todo o lado.

“É a competitividade económica básica”, diz Jones. “Se você cair tão longe que sua nação não seja mais economicamente competitiva com outras nações de tamanho comparável, então isso leva a toda uma carga de outras questões políticas e de segurança para lidar”

COmputando SPeed + Power = Military Might

Além dos aspectos econômicos e de segurança, ele acrescenta, aqueles que entendem claramente as implicações da computação de alto desempenho vêem seus enormes benefícios para a ciência, os negócios e outros setores. “Por isso, não é nada inteligente fazermos isto.” (É verdade, alguns relatórios dizem que esses benefícios são exagerados.) Na frente do armamento nuclear, por exemplo, os supercomputadores têm provado ser uma grande vantagem para as coisas que vão “boom”. Simulações sofisticadas eliminaram a necessidade de testes no mundo real.

“Eles não desenvolvem algo, saem para o deserto, fazem um buraco e vêem se funciona”, diz Dongarra sobre uma prática que parou décadas atrás. “Eles simulam esse projeto em um supercomputador. Eles também simulam o que acontece com aqueles que estão em uma prateleira por tantos anos, porque eles têm que verificar se a reserva vai funcionar”

Em uma grande atualização recente, o Laboratório de Pesquisa da Força Aérea – um dos cinco centros de supercomputação do Departamento de Defesa dos EUA – instalou quatro supercomputadores compartilháveis nos quais todo o exército dos EUA pode conduzir pesquisas classificadas. O projeto foi promovido como uma forma de ajudar os pesquisadores da Força Aérea, Exército e Marinha “a responder rapidamente aos desafios mais urgentes e complexos da nossa nação, o que também está acelerando novas capacidades para o combatente de guerra a custos mais baixos para o contribuinte”

Interprete que como você quiser.

Alguns especialistas acreditam que a supercomputação irá moldar o futuro da IA, mas não está claro exatamente o que isso significa. | Crédito:

Supercomputação e Inteligência Artificial

A inteligência artificial ainda é bastante rudimentar, mas os supercomputadores estão mudando isso através de processos de aprendizagem de máquinas turbo-carregadoras para produzir resultados mais rápidos a partir de mais dados – como nesta pesquisa de ciência climática.

“Estar envolvido em supercomputação é acreditar no poder do algoritmo para destilar informações valiosas e significativas da implementação repetida da lógica processual”, escreve Scott Fulton III em uma história perspicaz sobre a ZDNet. “Na base da supercomputação estão dois ideais: um que professa que a máquina de hoje irá eventualmente alcançar uma nova e extraordinariamente valiosa solução, seguido por uma segunda e mais sutil noção de que a máquina de hoje é um protótipo para o futuro.”

Como o diretor da Argonne Paul Kearns disse à HPCWire, Aurora destina-se à “próxima geração” de IA que irá acelerar a descoberta científica e fazer possíveis melhorias em áreas como previsão meteorológica extrema, tratamentos médicos, mapeamento cerebral, o desenvolvimento de novos materiais. Ele até nos ajudará a entender melhor o universo, acrescentou, “e isso é apenas o começo”.

Enquanto Dongarra pensa que os supercomputadores moldarão o futuro da IA, não é totalmente previsível como isso vai acontecer.

“Até certo ponto, os computadores que estão sendo desenvolvidos hoje serão usados para aplicações que precisam de inteligência artificial, aprendizagem profunda e computação de redes neurológicas”, diz Dongarra. “Vai ser uma ferramenta que ajudará os cientistas a entender e resolver alguns dos problemas mais desafiadores que temos”.

“Going to be” – tempo futuro. O trabalho da IA ainda é apenas uma pequena percentagem do que os supercomputadores fazem. Para a maioria, diz Jones, eles são “máquinas do tempo” que estão “trazendo a próxima ciência de cinco anos à frente para os dias de hoje”

“Noventa por cento das instalações tradicionais de HPC ainda estão fazendo cargas de trabalho tradicionais de HPC – simulações de engenharia, dinâmica de fluidos, modelagem climática e meteorológica”, explica ele. “E a IA está lá nos cinco ou dez por cento aumentando-as e ajudando a fazê-las funcionar melhor, mas ainda não está dominando os requisitos para a compra de plataformas de HPC ou mesmo para orientar programas de financiamento de HPC.”

A Hemsoth pensa que provavelmente ainda faltarão mais cinco anos para que os fluxos de trabalho de HPC existentes incluam muita IA e aprendizagem profunda, ambos com requisitos de computação diferentes dos atuais.

“Todos estão se precipitando um pouco quando se trata de IA”, diz ela. “Eles estão comprando sistemas que são certos para a IA como ela é agora”. A IA será uma parte prática das cargas de trabalho, mas isso vai mudar. E o software e a aplicação real que as coisas precisam para rodar vai mudar, o que vai mudar o hardware que você precisa ter”. Este material está evoluindo rapidamente, mas com ciclos de produção de hardware realmente longos – especialmente se você for um laboratório nacional e tiver que adquirir este material de três a cinco anos antes mesmo de obter a máquina.”

O que quer que a supercomputação tome forma no futuro, será mais poderosa e transformadora. | Crédito:

O Futuro da Supercomputação

“A melhoria da humanidade é um objetivo nobre de se ter””

>

Outro “brain blaster”: seu smartphone atual é tão rápido quanto um supercomputador era em 1994 – um que tinha 1.000 processadores e fazia simulações nucleares. (Existe algum aplicativo para isso?) Então, é lógico que o smartphone (ou como quer que se chame) que você tem em um quarto de século poderia teoricamente estar no nível do Aurora. A questão é que este material é rápido – e só está a ficar mais rápido. Aqui está como Dongarra o resume:

“Chegámos a teraflops em 1997 numa máquina nos Laboratórios Nacionais Sandia. Isso foi 1012 teraflops. Depois, em 2008, chegámos ao petaflops – 1015 – em Los Alamos. Agora estamos à beira de atingir exascale, com 1018 operações, por volta do início de 2020 ou 2021. Em provavelmente 10 ou 11 anos, vamos estar em zettascale – 1021 operações por segundo. Quando comecei na computação, estávamos a fazer megaflops – 106 operações. Então as coisas mudam. Há mudanças na arquitetura, mudanças no software e aplicativos que têm que se mover junto com isso. Ir para o próximo nível é uma progressão natural”

Uma história recente no TOP500.com intitulada, “Supercomputing is going towards an existential crisis”, pinta uma imagem das coisas que estão por vir em que as simulações ficam em segundo plano.

“Machine learning, in particular, poderia vir a dominar a maioria dos domínios de computação, incluindo HPC (e até mesmo análise de dados) na próxima década e meia”, escreve o autor Michael Feldman. “Enquanto hoje é usado principalmente como um passo auxiliar na computação científica tradicional – tanto para simulações de pré e pós-processamento, em alguns casos, como a descoberta de drogas, ele poderia substituir completamente as simulações”

O que quer que os supercomputadores assumam, Argonne’s Papka diz que eles se tornarão cada vez mais poderosos e transformadores, afetando tudo, do pedestre ao profundo – desde o design de baterias de carros elétricos mais eficientes até, talvez, a erradicação de doenças de longa duração como o câncer. Ou assim ele espera.

“A melhoria da humanidade”, diz Papka, “é um objetivo nobre de se ter”

Ler mais histórias sobre empresas de ferragens

Deixe uma resposta

O seu endereço de email não será publicado.