Destrinchando números
Jogue muitos bytes em um computador e, voilà, ele organiza tudo e tira conclusões. É o megaprocessamento de dados, que vai mudar a ciência
Texto Sara Godinho
O insight dos pensadores sempre foi fundamental para a ciência. É só pensar na fábula da maçã que caiu na cabeça de Isaac Newton e que o inspirou a criar a Teoria da Gravitação Universal. Hoje, porém, não dependemos apenas do momento “heureka” para avançar nos estudos científicos. Tem também o megaprocessamento de dados – o que, na prática, quer dizer que podemos jogar uma quantidade exorbitante de dados dentro de um computador superpotente e deixar que ele se vire. No fim, a máquina vai organizar a bagunça e mostrar resultados dificílimos de conseguir de outra forma.
O megaprocessamento já está em uso. É assim que as grandes livrarias da internet conseguem sugerir livros de acordo com o perfil de cada cliente – ou, pelo menos, tentam fazer isso. Ao analisar as informações de compras anteriores de um dos milhões de clientes em um programa, ela compara gostos de usuários semelhantes e cria padrões (por exemplo: quem gosta de tricô tem interesse em crochê). Assim, o site oferece livros que você vai querer ler mesmo que nem saiba que eles existem.
Isso tudo só é possível por causa do desenvolvimento acelerado dos sistemas de computadores, que, a cada dia, permitem analisar ainda mais dados por um preço mais em conta. É mais uma consequência da Lei de Moore – nos anos 60, Gordon Moore previu que a capacidade de processamento dos chips aumentaria exponen-cialmente, dobrando a cada 18 meses. Ou seja: processar mais dados fica cada vez mais barato.
Como o espaço para armazenar informações se tornou farto como mesa de Natal em filme, a quantidade de fotos, arquivos e informações que acumulamos não para de crescer. O mesmo vale para os dados recolhidos por um governo ao longo de um ano, ou para a quantidade de vídeos hospedados no YouTube. Só o Google processa 20 petabytes por dia, entre indexar e analisar páginas internet afora, gerar anúncios contextualizados e tarefas semelhantes.
Processar essa montanha de informações pode levar a um bocado de informações que não conhecemos – ou, em outras palavras, pode fazer ciência. A comparação de imagens de telescópios está levando à descoberta de planetas, galáxias e fenômenos nunca previstos. Seguradoras conseguem prever o risco de atentados terroristas. Órgãos do governo tentam prever a eclosão de epidemias ou conflitos étnicos, para tentar evitá-los.
Para ter ideia da importância dessa ferramenta, tem gente dizendo que ela tornou a intuição dos cientistas obsoleta. Essa é a tese de Ian Ayres, autor do livro Super Crunchers – Por Que Pensar com Números É a Nova Maneira de Ser Inteligente (Ed. Ediouro), que inspirou uma reportagem de capa da revista americana Wired, com o sugestivo – e exagerado – título “O Fim da Ciência”. A tese é que fazer previsões com base na estatística é mais eficiente que confiar na intuição e quebrar a cabeça elaborando modelos teóricos.
Mas, exageros à parte, as duas abordagens devem conviver pacificamente por muito tempo. Até porque o megaprocessamento não consegue dar conta de tudo – os programas e a matemática utilizados não são bons para lidar com números anômalos, por exemplo. Aí é que entram as sacadas dos cientistas – que, aliás, valem cada vez mais.
Se acostumou com o petabyte? Então prepare-se para conhecer o exabyte. Por enquanto, sua magnitude é tamanha que torna o conceito inútil na vida real. Mas saiba que com 5 exabytes você pode registrar cada palavra que a humanidade já falou em toda a sua história, transcrita em forma de texto.
+ Voo barato
Acompanhando o valor de 175 bilhões de tarifas originárias em 79 aeroportos dos EUA, a empresa Farecast consegue prever, com uma eficácia de 70-75%, quando é o melhor momento de comprar uma passagem de avião. O serviço descobriu, por exemplo, que a velha máxima de que, quanto maior a antecedência, menor o valor, é um mito. Exceto em alta temporada e feriados nacionais, o melhor é comprar sua passagem entre 8 e 2 semanas antes da viagem.
+ Acelerador de partículas
O Grande Colisor de Hadrons (LHC, na sigla em inglês) ficou conhecido como “a máquina do fim do mundo” por tentar recriar o big-bang. Mas o certo mesmo seria chamá-lo de “grande devorador de memória”. Isso porque ele vai produzir 15 petabytes por ano. Os dados têm origem em 1 bilhão de fotografias que serão produzidas por 6 detectores de partículas. As imagens vão registrar 40 milhões de trombadas de prótons acelerados na velocidade da luz – tudo isso para captar uma partícula chamada bóson de Higgs.