GABRILA65162183544miv_Superinteressante Created with Sketch.

Supercomputadores mais rápidos, para quê?

Os supercomputadores de hoje são muito lentos para resolver problemas que envolvam cálculos complexos. Na luta por mais velocidade, os pesquisadores investem no desenvolvimento de programas e constroem máquinas com milhares de processadores.

Fátima Cardoso

Bilhões de operações feitas por um processador, milhões de instruções por segundo, dezenas de milhões de dólares por uma máquina. É nessa linguagem numerosamente estratosférica que conversam os engenheiros, pesquisadores e fabricantes de supercomputadores. Os mais poderosos computadores de hoje têm sua velocidade medida em gigaflops, o que significa centenas de milhares de vezes mais rápidos que um micro do tipo PC. Ainda assim, os pesquisadores se engalfinham numa luta renhida para ver quem consegue fazer o computador mais veloz, quebrando a barreira dos teraflops — trilhões de operações de ponto flutuante por segundo.

Seria um caso de preciosismo tecnológico, puro exercício de evolução dos chips ou simplesmente uma guerra pela conquista do mercado? Nenhuma das alternativas. É preciso mais velocidade de processamento, mais memória e mais rapidez na transmissão de dados “para resolver problemas complicados, que envolvam grandes estruturas de dados e grande quantidade de cálculos”, resume Marcelo Zuffo, professor do Departamento de Engenharia Elétrica da Escola Politécnica da Universidade de São Paulo (USP) e pesquisador do Laboratório de Sistemas Integráveis.

Esses problemas complexos que exigem tantos cálculos não se resumem a divagações restritas às paredes dos laboratórios — são os milhares de equações necessárias para que o computador possa fazer simulações de clima, de túneis de vento em altíssima velocidade, visualizar o corpo humano numa tela em tempo real, permitir a elaboração de novos medicamentos, simulação genética de novas plantas e por aí afora. Com supercomputadores capazes de processar à velocidade de teraflops, essas tarefas hoje impensáveis, ou que levam tempos absurdos para ser completadas, seriam rotina.

Tome-se como exemplo o cálculo da dissipação da fumaça de um cigarro pelo ar de um ambiente. Seria preciso construir no computador um grid, ou seja, um cubo dividido em quadradinhos por onde a fumaça se espalharia. Se o cubo tiver 500 pontos de cada lado, são 125 milhões de pontos no total. Incluam-se aí as variações de velocidade da fumaça, a temperatura e a pressão do ar, diferentes em cada uma das 250 000 etapas de tempo em que seria dividida a simulação. No fim, um computador ideal mostraria a cena imagem por imagem, como um cineminha. A velocidade necessária para fazer todos esses cálculos num tempo razoável é 10 teraflops. Um computador com velocidade de 100 megaflops, quase o dobro da estação de trabalho SUN SPARCstation, muito utilizada para computação gráfica, levaria um ano para completar a tarefa.

Esse tipo de trabalho exige bilhões de bytes (conjunto de 8 bits de informação, equivalentes a uma palavra ou um número) de memória, só para rodar num computador. Ao se analisar um avião dividido em várias partes, uma simples fatia envolve o processamento de quase 100 bilhões de bytes (100 gigabytes) de dados. Para se fazer modelagem de clima, divide-se a atmosfera em milhões de seções, cada uma com sua própria pressão, temperatura, umidade, direção do vento. Basta ver a diferença que vai fazer um supercomputador japonês NEC SX-3/12R (velocidade: 3 gigaflops) no futuro centro de computação do Instituto Nacional de Pesquisas Espaciais (INPE), a ser montado no final deste ano na cidade de Cachoeira Paulista (SP). Com as máquinas atuais, o INPE leva cerca de seis horas para fazer a previsão do tempo de 24 horas, baseando-se num modelo matemático da atmosfera alimentado com dados vindos de estações coletoras internacionais. “Com o NEC, o cálculo levará cerca de 15 minutos”, afirma Carlos Nobre, chefe do Centro de Previsão do Tempo e Estudos Climáticos do INPE.

Outro trabalho para o super NEC no INPE será o estudo do clima. Hoje se prevê a possibilidade de secas no Nordeste com métodos estatísticos, mas a intenção no futuro é fazer simulações do clima no computador. No caso do Nordeste seria duplamente complicado, porque envolveria um modelo matemático de atmosfera acoplado a um modelo do oceano — e haja cálculos. “O clima brasileiro vai mudar com o desmatamento da Amazônia? O que o efeito estufa provocaria no clima do Brasil? Só é possível obter essas respostas com simulação em supercomputadores”, explica Carlos Nobre.

Simular fenômenos naturais em computadores por meio de modelos matemáticos já virou moda, e para alguns muito mais que isso. “Antes havia a matemática, para demonstrar os fenômenos físicos, e a ciência experimental. Hoje há uma nova ciência, a de simulação em computadores”, acredita Carlos Mariño, gerente geral para a América Latina da Cray Research, a indústria americana que domina o mercado dos supercomputadores. Essa nova ciência pode significar economia de tempo e dinheiro. Tome-se o exemplo do desenvolvimento do Boeing 737-300, sucessor do Boeing 737-200. Os engenheiros da Boeing desenharam novas turbinas para substituir as antigas, pouco eficientes no consumo de combustível, mas testes no túnel de vento indicaram que as novas não poderiam ser colocadas no mesmo lugar. Partiu-se então para um novo desenho de turbinas e para a simulação numérica de seu comportamento no supercomputador, que mostrou aos engenheiros o lugar ideal para prendê-las na borda da asa do 737-300, desde que se alterasse um pouco seu formato.

Os pesquisadores brasileiros ficaram mais perto desse poder de cálculo desde que a Universidade Federal do Rio Grande do Sul (UFRGS), em Porto Alegre, instalou um Cray Y-MP2E (velocidade: 660 megaflops) em julho do ano passado, comprado por 4,6 milhões de dólares, graças a um financiamento federal da Finep (Financiadora de Estudos e Projetos). Cerca de oitenta projetos estão sendo desenvolvidos com a ajuda do Cray, dez deles de fora da universidade. Como o supercomputador está ligado à Rede Nacional de Pesquisa, onze universidades, como as de Brasília e Campinas, têm acesso a ele via telefone. Todos os candidatos a utilizar o Cray, porém, precisam submeter o projeto de pesquisa a um comitê de avaliação da UFRGS, para que ninguém use o tempo da máquina em estudos na área militar ou nuclear — exigência do governo americano para vender a um país do Terceiro Mundo um computador desse porte.

Professor do Departamento de Engenharia Química da UFRGS, o pesquisador Argimiro Rezende Secchi utiliza no Cray modelos de simulação de instalações industriais em seu trabalho sobre pólos petroquímicos. “A simulação dos processos químicos, usada para estudar o funcionamento das unidades industriais de transformação de petróleo, envolve problemas com mais de 10000 equações”, conta Secchi. “No Cray, faço cálculos em alguns segundos, enquanto num microcomputador levaria anos.”

A química longe do alcance dos olhos também é um campo promissor na incorporação do super-computador como ferramenta. O que antes se supunha na teoria e se experimentava na prática agora se pode ver na tela. Por modelagem molecular, os químicos vêem a distribuição dos átomos, das cargas elétricas e os locais onde as ligações químicas podem acontecer, conhecendo por dentro a estrutura e prevendo o comportamento dos compostos. Para a síntese de novas drogas é uma maravilha, pois existe a possibilidade de prever se o princípio ativo de um medicamento vai se ligar mesmo a determinada enzima de uma bactéria, que o medicamento foi designado para destruir — ainda que, por enquanto, a simulação não substitua o trabalho do laboratório.

A desvantagem da simulação numérica se traduz na própria lerdeza dos computadores — dependendo de como se divide o problema, como no caso dos quadradinhos do cigarro, demora muito para se obter uma resposta. Estima-se que um computador de arquitetura vetorial levaria 200 anos para calcular a simulação global do comportamento do oceano durante um século. Como ninguém sobreviveria para ver o resultado, a única saída é quebrar a barreira dos teraflops.

A largada da corrida por essa velocidade foi dada há quase vinte anos, quando o americano Seymour Cray lançou o Cray 1, o primeiro computador digno de ser chamado de super. Sua velocidade era de 100 megaflops, custava 9 milhões de dólares e era 100 vezes menos poderoso que o mais recente e veloz modelo Cray, o Y-MP C90 (que custa a partir de 18 milhões de dólares). Nos últimos três anos, a briga esquentou. Entrou na competição o processamento paralelo massivo, uma opção de arquitetura de computadores em relação ao tradicional processamento vetorial dos super mais famosos.

Enquanto na arquitetura vetorial os chips são caríssimos e complicadíssimos, além de exigir uma parafernália para refrigeração da unidade de processamento, pois a conexão entre processamento e memória é feita por um único sistema que dissipa muito calor, o processamento massivo adotou a linha popular. São vários nós de processamento e memória juntos, feitos com chips até que baratinhos (coisa de alguns milhares de dólares cada um), que vão sendo ligados uns aos outros em blocos como os brinquedinhos Lego. A idéia é boa — se um processador processa muitos flops, dois processadores processam muito mais… A questão é fazer os 500 funcionarem.

“Os chamados multicomputadores, de processamento paralelo massivo, têm problemas de escalabilidade”, explica Marcelo Zuffo, da USP. Traduzindo, o ganho de velocidade com o acréscimo de processadores só acontece até certo ponto, depois disso a quantidade de nós de processamento não torna o computador mais rápido. Isso por dois motivos: o primeiro é que o trânsito de informações entre um nó de processamento e outro fica tão complicado quanto o de uma metrópole em dia de chuva — sempre é preciso parar nos cruzamentos para esperar alguém passar. O segundo é como paralelizar o programa, ou seja, distribuir as tarefas por 500 ou 1 000 processadores de forma eficiente, para que todos trabalhem muito e nenhum tenha de esperar o outro acabar de fazer seus cálculos para entrar em ação. Só um programador muito experiente e talentoso é capaz de fazer isso.

Mesmo com tais obstáculos, o processamento massivo está ganhando terreno. Duas máquinas poderosas chegaram ao mercado nos últimos meses, o Intel Paragon XP/S e o Connection Machine CM-5. O CM-5 é um supercomputador de processamento paralelo massivo, que pode ter de 32 a 16.384 nós de processamento, cada um com a velocidade de 128 megaflops. Na configuração máxima, chegaria teoricamente aos sonhados teraflops. Por enquanto, o mais rápido que a Conection Machine vendeu, ao Centro Nacional para Aplicações em Supercomputação, da Universidade de Illinois, tem 64 gigaflops. Dizem seus engenheiros que um CM-5 levaria três meses para calcular um século de modelagem oceânica, em lugar dos 200 anos dos super vetoriais.

O Paragon é a versão comercial do Touchstone Delta, um computador de 528 processadores construído pela Intel para o Concurrent Supercomputing Consortium, uma união de treze instituições (entre universidades, empresas e governo) criada para desenvolver a máquina dos teraflops. A versão mais rápida já vendida chega à velocidade de 150 gigaflops. Quem quiser comprar um, pode escolher configurações entre 5 e 300 gigaflops, com preço variável entre 2 e 55 milhões de dólares. Só que adquirir um computador desses é como comprar um Fórmula 1 — é preciso alguém que saiba pilotar, ou seja, um programador que possa paralelizar o programa para todos os processadores trabalharem. Diz a Intel que o Paragon é escalável à velocidade de teraflops, ou seja, basta acrescentar módulos com nós de processamento que ele chega lá. Os dólares aumentariam muito, também. Mas Justin Rattner, diretor de tecnologia da Divisão de Supercomputadores da Intel, acredita que com tanto esforço de pesquisa “os computadores multiteraflops, de preço acessível e fáceis de usar, logo serão realidade”.

Até a Cray Research, tradicional fabricante de supercomputadores vetoriais, está entrando no barco do processamento massivo. “No final de 93, a Cray lançará o T3D, com 1 024 processadores, que chegará à velocidade de 150 gigaflops”, anuncia Carlos Mariño. No Laboratório de Sistemas Integráveis da USP, a aposta também é nessa direção. Lá se constroem protótipos, como um montado com 64 processadores que utilizarão os chips i860 da Intel (os mesmos do Paragon), que atingem cada um a velocidade de 100 megaflops. “Não nos preocupamos só com a velocidade, e sim com o conhecimento e a tecnologia que desenvolvemos para construí-los e para saber como paralelizar os programas”, conta Marcelo Zuffo.

Uma das principais pesquisas de sua equipe está na área de visualização em Medicina. Colocando no computador imagens do corpo humano adquiridas por tomografia, vê-se o que quiser dentro do paciente — os órgãos, os músculos, os ossos ou tudo junto. Com os computadores que possuem hoje, os pesquisadores do LSI levam até vinte minutos para fazer uma imagem com um grid de 8 mlhões de pontos. Na época dos teraflops, haverá computadores que construirão pacientes na tela em tempo real: conforme as imagens do paciente são adquiridas pela tomografia, o médico já tem na tela o retrato do corpo literalmente inteiro.