Clique e Assine a partir de R$ 6,90/mês

Caos

Pânico no abastecimento de energia. Tumulto no clima. Guerra no trânsito. E algumas coisas piores ainda. Certas ameaças pordem fazer a civilização ruir do dia para a noite. E algumas estão mais próximas que parecem

Por Da Redação Atualizado em 31 out 2016, 18h47 - Publicado em 16 abr 2011, 01h00

Salvador Nogueira e Alexandre Versignassi

Terça-feira, 10 de novembro de 2009, 22h13. Quem estava em casa viu um episódio singular: as lâmpadas acesas diminuíram brutalmente sua iluminação. A situação durou uns segundos, até que tudo apagou. Olhando pela janela, via-se que não era uma coisa a toa: o mundo estava sem luz. Ou quase: 18 estados.

Ao longo da madrugada do dia seguinte, as coisas começaram a voltar ao normal. O que restou foi o susto, a experiência desagradável de ter de subir escadas ou – pior – passar algum tempo preso dentro de um elevador, e um prejuízo econômico para quem teve aparelhos queimados e para os estabelecimentos que deixaram de funcionar pela falta de energia. Vida que segue. Mas, ei, e se a luz não tivesse voltado? E se dias, ou semanas, se passassem antes que a energia fosse restaurada? Algo assim poderia mesmo ter acontecido. Uma tempestade solar de grande porte poderia ter derrubado nossa rede elétrica de tal modo, que os reparos levariam todo esse tempo. E não há nada de ficção científica nessa tempestade solar. Uma desse tipo já aconteceu em setembro de 1859. Ela consiste basicamente numa “cuspida” de material solar que, ao vagar na direção da Terra, interage com seu campo magnético de forma violenta. Essas partículas solares podem destruir sistemas elétricos, criando blecautes que fariam nosso apagão parecer mais “apaguinho”. Desnecessário dizer que ainda não temos o conhecimento para prever quando o Sol vai ficar de mau humor. E que o caos seria instaurado rapidamente em nossas cidades. Pior de tudo: esse é só um dos exemplos de potenciais catástrofes que podem se abater sobre o mundo moderno. Na verdade, o caos está à espreita no dia a dia.

Podemos enumerar 4 grandes cavaleiros do apocalipse aí: os problemas nas redes de distribuição de energia, nos sistemas de telecomunicações, no trânsito e no clima, que provavelmente já sofre os primeiros efeitos do aquecimento global. Cada um deles pode nos levar para o beleléu num piscar de olhos se não fizermos nada para contra-atacá-los.

Estamos apagando

Ficamos cada vez mais tempo sem luz e a alternativa mais viável de energia barata é a que mais destrói o planeta. Como resolver? Acabando com a burrice das linhas de transmissão.

Chuvas são ótimas para um país que vive de energia hidrelétrica, como o nosso. E o futuro promete ser mais chuvoso ainda, por culpa do aquecimento global (coisa que vamos ver melhor nas próximas páginas). Então esse é um lado bom do acúmulo de gases-estufa na atmosfera?

Não. O último apagão provou que não é nada disso. Chuvas demais podem ser um problema tão grande para o sistema hidrelétrico quanto chuvas de menos. Até o fechamento desta edição, a hipótese mais provável para o apagão era uma pane causada pelo excesso das chuvas. Não nos reservatórios das usinas, mas sobre as torres de distribuição. Mais especificamente, no sistema que mantém os cabos de energia isolados das torres. Não fosse ele, ambos se tocariam e haveria curtos-circuitos o tempo todo. Os cabos, então, ficam protegidos por isoladores de cerâmica, que impedem esse contato. Mas a chuva e os ventos no estado de São Paulo podem ter danificado isoladores e feito algumas torres entrar em curto. Nisso, o sistema de distribuição ficou sobrecarregado, e um dispositivo de segurança pode ter cortado o fluxo de energia da rede toda para evitar que ele se queimasse inteiro. Aí veio um apagão.

A solução, aí, é melhorar a manutenção dos isoladores, para que eles aguentem bem as tempestades. O problema é que existem 90 mil quilômetros de fios e milhares de torres país afora para serem cuidadas. E, quanto mais chover, maior deve ser a frequência dessa manutenção. Como a tendência é de mais água mesmo, o jeito é redobrar os cuidados para não deixar meio país no escuro de novo. Mas a realidade não ajuda: hoje, 60% dos brasileiros, os clientes das 20 maiores companhias de energia do país, ficam mais tempo sem luz do que em 2004.

O motivo? Seria pitoresco se não fosse trágico: os caras que cuidam das redes ficam… Bom, espera um pouco. A gente conta essa história já, já. Agora é hora de lembrar outra coisa: a energia elétrica está esquentando o mundo. Mais de 60% da eletricidade do planeta vem da queima de carvão nas termelétricas, coisa que lota a atmosfera de CO2. E a construção de termelétricas só cresce. A China inaugura duas novas por semana. E, se continuarem nesse pé, os chineses vão produzir sozinhos a mesma quantidade de CO2 que o mundo todo lança na atmosfera hoje. Um futuro sufocante. E escaldante.

Para resolver isso, primeiro, precisaremos aceitar pôr a mão no bolso para colocar em prática algumas ideias que estão no papel e, pelo menos nele, parecem lindas. A mais básica é o investimento pesado em fontes renováveis para a produção de eletricidade. Sim, estamos falando daquelas coisas manjadas, mas ainda pouquíssimo exploradas, como usar a luz solar ou o poder dos ventos. É que uma coisa é fato: a quantidade total de energia disponível na Terra na forma de radiação proveniente do Sol ou mesmo dos fluxos de ar pela atmosfera seria capaz de, sozinha, abastecer a humanidade. Por que diabos isso ainda não decolou? A chave está na economia. Não adianta fazer uma belíssima usina solar se o custo dessa energia for muito maior que o da produzida pelo carvão. Na hora em que o bolso aperta, todo mundo aposta no que é mais barato, não no que é mais legal ou sustentável. E cada megawatt obtido com carvão custa metade do de uma usina solar. A diferença tende a diminuir com o tempo: já existem tecnologias experimentais que barateiam a produção de energia solar, e o carvão é um recurso não-renovável – existe muito hoje, mas uma hora acaba. Só que nem uma coisa nem outra deve virar realidade nas próximas décadas (ou séculos, se alguém esperar pelo fim do carvão). Então o jeito é melhorar o que temos agora. E aí entram em cena as “redes inteligentes” (smart grids). Trata-se de uma tecnologia em fase experimental, que promete uma revolução como a da internet na distribuição de energia. A ideia por trás dela é aumentar a produção e diminuir o desperdício. Hoje, mesmo quando você não consome a eletricidade, ela está sendo produzida. E acaba perdida. Isso é uma facada para as energias alternativas – como seus megawatts são caros, desperdiçá-los é suicídio. Mas as smart grids podem acabar com esse problema. O conceito por trás delas é permitir que os diversos pontos da rede conversem entre si, para que seja possível saber onde a energia está sobrando, e onde está faltando. Isso elimina os desperdícios do sistema. Mais: as smart grids ajudam a descentralizar a produção de energia. Em vez de uma Itaipu da vida fazer todo o trabalho duro, com um sistema mais esperto até você pode ser produtor de eletricidade. Sim: você teria como instalar painéis solares em casa, ir para o trabalho e vender a energia que os painéis produzem durante o dia para a rede. É como se um prédio de escritórios fosse abastecido pelas microusinas no teto das casas de seus funcionários. Para completar, um sistema assim, menos centralizado em grandes usinas, torna os apagões mais raros. Essa revolução já está começando nos países desenvolvidos. É hora de estudar a idéia a sério por aqui, não?

Ah. Ainda não falamos daquele motivo pitoresco que tem deixado os brasileiros com menos luz. Vire a página para saber.

*16 terawatts

É a quantidade de energia consumida anualmente no mundo. Só 7% disso vem de fontes renováveis.

2 termelétricas

Por semana. É o quanto a China tem construído para sustentar seu crescimento, que move o mundo é movido a carvão.

Afogados no trânsito

Hoje o mundo produz duas vezes mais carros por ano do que há duas décadas. Em cidades como São Paulo a frota cresceu 50% de 2001 para cá. O que fazer para matar o trânsito? Tirar você da jogada.

Há quem diga que o problema do trânsito em metrópoles como São Paulo está em vias de ser resolvido: assim que todos os carros pararem de vez, incapazes de trafegar em direção alguma, é só asfaltar por cima e começar tudo de novo.

O pior é que estamos quase lá. Até outro dia São Paulo tinha 4 milhões de carros se espremendo por suas avenidas. Isso era em 2001. Hoje são 6 milhões. Um salto de 50%. A cidade está parando: cada motorista passa quase 3 horas engarrafado por dia, em média.

No meio dessa muvuca de carrocerias também estão empacados alguns serviços essenciais para qualquer cidade. A manutenção da rede elétrica, por exemplo. Um dos motivos para que hoje os brasileiros passem mais tempo sem luz do meio da década para cá é que os carros do pessoal que cuida da rede demoram mais para chegar aonde precisam. É o que dizem as empresas de energia. Se uma árvore cai num poste elétrico e isso deixa algumas quadras sem luz, o blecaute vai durar mais do que antes simplesmente porque o povo da manutenção fica mais tempo engarrafado.

A solução para o problema é a que todo mundo conhece. Transporte coletivo amplo e decente. Mas em cidades com ritmo de crescimento caótico, sobretudo em países em desenvolvimento e que ainda enfrentam as consequências de uma recente explosão demográfica, mesmo com o investimento público no setor fica difícil acompanhar a demanda.

Por outro lado, São Paulo e outras cidades à beira de parar têm planos ambiciosos para expandir suas linhas de metrô e agregar ao sistema de trens quebra-galhos de luxo como monotrilhos – veículos que andam em passarelas por sobre avenidas, num estilo similar ao que os visionários da equipe de Walt Disney conceberam para permitir o transporte em seus parques temáticos na Flórida.

Com esforços assim, ao longo de muitos anos, uma cidade começa a caminhar na direção de metrópoles que, se não acabaram com o trânsito, pelo menos viram ele parar de piorar. Foi o caso de Londres que, além de bombar o transporte público, fechou o cerco aos automóveis particulares. Hoje o metrô atinge quase a cidade toda e periferia é recheada de linhas de trem. Os carros? Sim, eles estão lá. Continuam sendo objeto de desejo e divertem seus donos. Mas não passam tanto tempo na rua: custa caro sair com eles. O londrino que quiser pegar seu Mini Cooper e ir para o trabalho tem que pagar R$ 25 de pedágio para entrar nos bairros centrais da cidade. Parece pouco, mas dá R$ 6 mil por ano para usar de segunda a sexta – uma fração considerável do preço de um Mini, aliás, que sai por R$ 40 mil lá.

Acabar com os carros virou uma utopia moderna. Essa cajadada mataria vários coelhos de uma vez só: trânsito, poluição e uma parcela considerável das emissões de gases-estufa. Mas isso também derrubaria uma das vigas de sustentação da economia mundial. A produção de carros dobrou entre 1991 e 2008, chegando a 70 milhões de veículos novos por ano. Isso foi fundamental para gerar mais empregos em áreas tão díspares quanto a mineração, que tira da terra o ferro que vira o aço das carrocerias, e a computação, que desenvolve os chips que comandam o motor dos carros flex. Boa parte da recuperação pós-crise da economia americana é creditada ao programa cash for clunkers (“dinheiro por sucata”), em que o governo dava um cheque de US$ 4 500 a quem quisesse trocar seu carro velho por um zero.

Além disso, com ou sem trânsito, o carro continua sendo a 2a compra mais desejada pela maioria dos mortais – atrás apenas da casa própria. E os carros que não poluem deixaram de ser ficção há anos. Basta uma rede capaz de distribuir hidrogênio, um combustível limpo, ou energia para futuros carros elétricos que o problema da poluição e do efeito estufa acaba – isso se a eletricidade também vier de fontes amigáveis com a natureza, claro, mas aí é outra história. O ponto é que, se quisermos uma solução para o trânsito, temos de considerar um futuro com tantos ou mais carros do que hoje. Fazer o quê, então?

O problema: você

Uma das soluções que mais prometem é tirar você do volante: fazer com que o carro converse com o GPS e se dirija sozinho, pelo menos nas áreas mais agitadas das metrópoles. Convenhamos, somos péssimos motoristas. Nós nos distraímos com facilidade, somos responsáveis – coletivamente – por mais de 90% dos acidentes de trânsito e nossa resposta lenta a semáforos ajuda no congestionamento. Como?

Quando um semáforo abre, o motorista na primeira fila leva em média um segundo ou dois para colocar o carro em movimento. O carro que vem imediatamente atrás reage ao avanço do primeiro, e consome mais um segundo ou dois para avançar. O terceiro, guiado pelo segundo, acumula mais dois segundos de atraso. E assim por diante. Numa fila de 10 carros, são perdidos 20 segundos, que serão descontados do tempo que o semáforo permanece no verde. Quem nunca se perguntou, num momento de frustração: “O sinal abriu! Por que ninguém anda?!”

Agora imagine um sistema de controle remoto em que um computador coordenasse todos os carros em uma avenida. Ao abrir o semáforo, ele colocaria todos ao mesmo tempo em movimento, sem risco de batida e ganhando os preciosos segundos que de outro modo seriam perdidos. Esse conceito de “condução em pelotão” é uma coisa estudada a sério pelos engenheiros e pode virar realidade nos próximos anos. Esse sistema não tiraria completamente o motorista do volante. Ele seria aplicado só nas avenidas onde isso fizesse sentido: seja para evitar congestionamentos, seja para aumentar a segurança.

E, devagarinho, a gente deve chegar a esse futuro. A Darpa, agência de pesquisa tecnológica do Exército americano, realizou algumas competições com prêmios polpudos a quem desenvolvesse automóveis capazes de autodireção. O vencedor de 2007 completou um percurso urbano (mas sem congestionamento) de 96 quilômetros em 4h10 (média de 22 km/h).

“O desenvolvimento das tecnologias para veículos com direção autônoma, e para veículos que não batam, aparecerá nos próximos 5 a 10 anos”, diz Larry Burns, que até outubro foi vice-presidente de pesquisa e desenvolvimento e planejamento estratégico da General Motors, nos EUA. Mas, por enquanto, a única solução realmente ao alcance do motorista é ligar o rádio, ouvir um som e relaxar, trancado em meio a um mar de automóveis

Meia hora por dia. É o tempo que os paulistanos passam a mais no trânsito de 10 anos para cá.

Existem 5 951 686 automóveis na capital paulista: 1 carro a cada 1,8 habitante.

Loucura do clima

O aquecimento global é paradoxal; muitos de seus efeitos devastadores não são visíveis no momento, mas a falta de intervenção imediata irá torná-los inevitáveis no futuro. O caos vem devagar, mas de forma irrefreável – e já dá pra sentir as primeiras mudanças.

De uns tempos para cá, não é mais uma questão de discutir “será que está rolando aquecimento global?” A pergunta agora é: “Já estamos sentindo os efeitos dele?” E a resposta é: provavelmente sim.

Continua após a publicidade

São Paulo, por exemplo, teve neste ano o inverno mais chuvoso de sua história. Claro, não dá para dizer que esse episódio específico foi causado pelo aquecimento global. Afinal, flutuações no regime de chuvas são comuns. Mas o que dá para dizer é que uma das predições dos modelos climáticos do aquecimento é que a quantidade de chuvas tende a aumentar.

Tem a ver com o fato de que o aquecimento não acontece só na atmosfera mas também nos oceanos. “Há uma boa base física para estabelecer uma relação entre valor da temperatura da superfície do mar e a intensidade dos ventos de um furacão e também da quantidade de chuva, isto é, quanto mais quente a temperatura do mar, maiores serão os ventos, a duração do furacão e a quantidade de chuva”, afirma Carlos Nobre, climatologista do Inpe (Instituto Nacional de Pesquisas Espaciais).

Portanto, não só veremos estações mais chuvosas nos próximos anos como teremos maior ocorrência de furacões de alta intensidade, sobretudo no Atlântico Norte, onde eles já são mais comuns. A chuva que invadiu o sudeste brasileiro fora de hora e episódios trágicos como o Katrina, que devastou a cidade de Nova Orleans, não podem ser individualmente atribuídos ao aquecimento global. Mas o fato de que eles vão se tornar mais comuns pode. E que não venha alguém tentar pegar os dados de 5 anos para trás numa tentativa de desbancar o aquecimento global.

É bem verdade que 2009 será mais frio que 2008, ano que, por sua vez, foi bem menos quente que o de 2005. Mas isso está longe de ser evidência de um surpreendente “resfriamento global”. “Não faz sentido falar de aquecimento global na escala de um ano para outro porque o clima apresenta significativas variações naturais nessa escala de tempo, como os fenômenos El Niño ou La Niña”, explica Nobre. “A comparação deve ser feita na escala de muitas décadas. Nesse sentido, a média da temperatura global à superfície dos últimos 10 anos é a maior do registro histórico.”

As temperaturas começaram a ser registradas sistematicamente por instrumentos em 1880. E, daquela época para cá, não houve década mais quente que a atual. O ano de 2005 foi o mais quente de todos. Ou seja, gostemos ou não, o bicho está pegando. E as razões estão ligadas a tudo que discutimos nas páginas anteriores. O aumento do consumo de energia pelas redes leva à emissão de mais carbono na atmosfera. Mais carros nas ruas, lá se vai mais carbono para o ar. Comeu um hambúrguer? Toma carbono na atmosfera (veja na seção Essencial, página 25). Só para recapitular: esse carbono, combinado na forma de moléculas conhecidas como gases-estufa (como o dióxido de carbono e o metano), faz com que a atmosfera aumente sua capacidade de aprisionar a energia enviada pelo Sol. Resultado: um planeta mais quente.

Esse distúrbio, que começou a se fazer presente para valer nas últimas décadas do século 20, está alterando sensivelmente o equilíbrio do planeta. O mundo está ficando mais quente, e vários fenômenos observados hoje (numa Terra mais ou menos 0,5 grau mais quente que a média dos anos 1950-1980) já dão uma mostra do que está por vir. Além do aumento na intensidade dos furacões e nos regimes de chuvas, o gelo das calotas polares está indo para as cucuias. “Não há dúvida de que a progressiva perda de gelo marinho flutuando no oceano Ártico é causada pelo aquecimento do ar – que come o gelo por cima – e das águas – que come o gelo por baixo”, afirma Carlos Nobre.

Mesmo assim, há outra verdade sobre o aquecimento: existem poucas certezas sobre como ele vai afetar nosso futuro. Isso é uma característica da própria ciência: ela não produz fatos com a rapidez que os jornalistas gostam. Nem teria como produzir: ela lida com uma realidade complexa, em que várias hipóteses têm o mesmo valor. Por exemplo: segundo alguns modelos de previsão, a temperatura deve subir pouca coisa a mais que o 0,5 ºC de hoje. Enquanto isso, outros modelos indicam que o aumento será de 6,5 ºC (um apocalipse).

O problema é que a atmosfera da Terra ainda é um sistema complexo demais até para os nossos melhores computadores – se não fosse, a previsão do tempo seria muito mais certeira do que é hoje. A incerteza sobre o clima é tanta que nem sabemos com total exatidão quais são os gases-estufa que mais contribuem para o aquecimento (como você pode ver na tabelinha aqui à esquerda).

Mas isso é o de menos: seja qual for o cenário, espera-se que muitos efeitos devastadores venham a tona, como a elevação agressiva do nível do mar e a transformação da Amazônia numa savana, uma mata de vegetação rasteira. Ao que parece, já estamos condenados a sofrer esses efeitos. Por uma razão muito simples: os gases-estufa que lançamos no ar não vão embora do dia para a noite. Mesmo que paremos de emitir amanhã, tudo que colocamos na atmosfera até hoje vai levar uns 100 anos para sair de lá.

Ou seja, não dá mais para fugir do aquecimento. Se correr, ele pega, se ficar, ele come. O trabalho, então, é impedir que a mudança no clima se torne catastrófica. Isso envolve cortar emissões para que a Terra possa se recuperar com o passar das décadas, mas também se preparar para as adaptações que serão necessárias. Não será fácil. Nem barato. E pode exigir uma medida radical: a reconstrução da atmosfera na marra (veja mais no Essencial de novo!).

2005 foi o ano mais quente da história registrada, 0,63 grau acima da média do perÌodo 1951-1980.


Investigação em andamento

O mundo está esquentando. É fato. Mas a atmosfera ainda é um mistério: não sabemos o quanto cada gás contribui exatamente para o aquecimento. Eis as especulações mais recentes:

• Vapor d’água (H2O): 36 a 66%

• Dióxido de carbono (CO2): 9 a 26%

• Metano (CH4): 4 a 9%

• Ozônio (O3): 3 a 7%

A vulnerabilidade da Internet

Hoje, todo mundo pode falar com todo mundo na hora em que quiser, em tempo real. As redes de satélites e a internet transformaram o planeta numa aldeia global. Mas será que essa aldeia pode ser atacada por uma poderosa tribo rival?

A internet foi feita para sobreviver ao fim do mundo. Sem exagero. Criada pelos militares americanos durante a Guerra Fria, no final dos anos 60, ela tinha basicamente o objetivo de continuar funcionando direitinho, como se nada tivesse acontecido, até sob um ataque nuclear. O ponto ali era garantir que o controle do arsenal americano continuasse nas mãos do governo mesmo se o Pentágono virasse pó. Como fazer isso? Espalhando as máquinas que controlam esse arsenal pelo país inteiro e interligando-as em uma rede, em vez de deixar todo o controle em Washington. Aí não teria erro: para destruir a capacidade de retaliação dos americanos, os soviéticos teriam que destruir não só o QG central mas centenas de outras estações de comando que davam acesso a todo o sistema de defesa. Uma operação impossível.

Deu tão certo, que, quando a rede ganhou o mundo, esse caráter indestrutível continuou firme. Cada computador do planeta tinha acesso à rede toda, e o próprio conteúdo da rede estava distribuído em milhões de máquinas, em todos os cantos do mundo. À imagem e semelhança do sistema de defesa americano.

E ela foi crescendo até virar o que virou: a “nuvem”, como dizem os teóricos da computação. Nuvem porque é uma coisa sem forma física, que você não pode tocar. Ela funciona como um grande computador que está em todos os lugares ao mesmo tempo. A ponto de ninguém mais precisar ter muita coisa arquivada em seus próprios discos rígidos. Suas fotos podem ficar no Flickr, seus milhares de e-mails estão arquivados no Google, seu perfil do Facebook continua lá firme mesmo que caia uma bomba atômica na sua cidade (e tudo graças à paranoia da Guerra Fria!). Mas existe uma ameaça invisível nessa história. Uma não. Duas.

A força da internet está na descentralização dela, certo? Só que a rede está cada vez mais centralizada. Aí é a lógica: isso deixa a internet mais vulnerável.

As duas ameaças invisíveis têm a ver com isso. E a primeira é a mais visível: estamos cada vez mais dependentes dos gigantes da rede – as empresas que criaram e dominaram a nuvem. O problema é que essa história de nuvem é só poesia. As fotos do Flickr, as mensagens do Gmail e tudo o mais ficam em lugares físicos, palpáveis. Claro. São as “fazendas de servidores” – galpões com centenas de milhares de computadores que armazenam tudo aquilo que antes costumava ficar nos discos rígidos de cada pessoa.

O problema aí é a centralização mesmo. No caso de um ataque de hackers (ou de terroristas de carne e osso) às centrais de servidores do Google, os 146 milhões de usuários do Gmail teriam uma grande dor de cabeça. Moral da história: a computação em nuvem é muito melhor e mais confortável que a de antes. Mas também é menos segura.

A outra ameaça é menos óbvia. Só que mais letal. Tem a ver com a própria arquitetura da rede. A internet foi se formando de maneira aleatória. E, com o passar do tempo, ela naturalmente fica mais concentrada em certos pontos, e não em outros. Um dos maiores especialistas em redes é o húngaro Albert-Lázló Barabási, do departamento de física da Northeastern University, em Boston. Ele trabalha nisso há mais de uma década e demonstrou teoricamente a fragilidade de redes concebidas como a internet.

As pesquisas mostram que, grosso modo, a arquitetura da internet tem algumas peças-chave, alguns pontos que são mais conectados a outros que o resto e que mantêm, por assim dizer, o castelo de cartas em pé. Esses pontos estão distribuídos aleatoriamente, mas podem ser identificados. Barabási demonstrou que, ao sabotar apenas 4% dos servidores ligados à internet, se você escolhê-los corretamente, é possível derrubá-la por inteiro. De uma vez. Em tese, vírus podem se espalhar com rapidez suficiente para fazer esse serviço.

Como fazer isso acontecer? Bem, aí é problema dos hackers, diz Barabási. “Provamos que a rede é vulnerável. Agora, para saber como proceder para causar esse estrago, você deve perguntar a um hacker.”

Lamentavelmente, os hackers estão trabalhando nisso. Em 2008, começou a circular um vírus chamado Conficker. Ele explorava uma falha do Windows para se apoderar de computadores alheios. Controlando um número suficiente de máquinas, o criador do Conficker – ainda não descoberto, mas suspeita-se que ele viva na China – poderia derrubar a internet.

A primeira detecção do vírus ocorreu em novembro de 2008, e desde então os criadores de antivírus trabalham em formas de erradicá-lo. Estima-se que 5 milhões de máquinas estejam infectadas ainda hoje, e o Conficker chegou a dar muito trabalho no ano que passou. A rede de computadores da Marinha francesa, por exemplo, foi infectada em janeiro e ficou sob quarentena durante vários dias, forçando aeronaves a ficar em solo pela incapacidade de baixar da rede seus planos de voo. No Reino Unido, vários sistemas militares e do governo foram afetados. Os computadores das forças da Alemanha também sofreram nas mãos do vírus.

Hoje, o Conficker não parece mais ser a grande ameaça que já foi, embora não possa ser desprezado (sua programação continua sendo atualizada para compensar as ações dos antivírus). O problema é que esse é só um exemplo. Sabe-se lá quantos hackers estão por aí, maquinando estratégias para acabar com a internet ou, o que é mais provável, criar o caos a partir dela.

E não é só a internet que vive perigosamente. Certas ameaças rondam os nossos satélites: uma é o lixo espacial. Em fevereiro de 2009, um satélite russo desativado colidiu com outro, ativo, americano, da empresa Iridium. Resultado: perda total. Foi o primeiro acidente do tipo, mas mostra que já colocamos tanta tranqueira lá em cima que essas colisões tendem a se tornar mais comuns no futuro.

Pois é. Seja no no céu, seja na terra, a humanidade parecer gostar desse flerte com o caos. Mas só a consciência de que ele está sempre à espreita já é meio caminho andado para resolver nossos problemas. Agora só falta a outra metade.

145 MILHÕES de pessoas. É a quantidade de internautas que ficaram sem e-mail quando o Gmail deu pau por uma hora, em setembro.

1 160 computadores. É o que existe em cada um dos 130 contêineres que compõem uma das fazendas de servidores do Google. Boa parte dos seus dados estão em lugares assim.

Para saber mais

Globa Warming: The Complete Briefing
John Houghton, Cambridge University Press, 2009.

The Green Guide to Power
Jon Bowman, Book Surge, 2008.

Continua após a publicidade

Publicidade