Por que os acidentes acontecem?
A teoria do caos explica como um acontecimento insignificante pode se transformar numa tragédia desproporcional. E há gente tentando prever - e evitar - as catástrofes.
Rafael Kenski
Em 25 de julho de 2000, um Concorde da Air France acelerava na pista do Aeroporto Charles de Gaulle, em Paris, para atingir a velocidade de 400 quilômetros por hora, como fazia em todas as decolagens. No caminho, passou em cima de uma pedaço de titânio de 45 centímetros que um DC-10 deixara no asfalto minutos antes. Um dos pneus da asa esquerda explodiu e lançou uma tira de borracha de 4,5 quilos contra o fundo do tanque de combustível que estava um pouco à frente. O choque fez um furo no tanque e gerou calor suficiente para incendiar a gasolina que começou a vazar. As chamas atingiram as duas turbinas do avião, que estavam logo atrás. Elas continuaram a funcionar, mas com menos potência, e espalhando o combustível em um rastro de 60 metros. O Concorde subiu. Os sistemas de segurança do avião detectaram então que a origem do fogo eram as turbinas – e não o tanque –, o que fez o piloto desligá-las e tentar um pouso de emergência com os motores que sobravam.
A falta das turbinas fez com que, segundos depois, o avião atingisse o ponto crítico em que o ar sob as asas não faz pressão suficiente para garantir a sustentação. O Concorde – o mais veloz avião de passageiros do mundo – caiu sobre um hotel em Paris. Foram 113 mortos – quatro deles estavam em terra –, um hotel em ruínas, um avião destruído. E tudo começou com um pedacinho de metal de nem 0,5 metro de comprimento.
Diagnóstico: azar. Certo? Talvez não. Claro que ninguém supunha que um simples pedaço de metal poderia derrubar um avião tão moderno. Mas acidentes como esse – em que uma sucessão de pequenas falhas insignificantes dá origem a enormes catástrofes – são corriqueiros. E, segundo os pesquisadores que estudam a chamada “teoria do caos, um dos ramos mais interessantes da Matemática, tendem a se tornar cada vez mais comuns. É como se estivesse funcionando a todo momento, na vida de todos nós, a Lei de Murphy, aquela segundo a qual “se uma coisa pode dar errado, ela dará, e na pior hora possível”.
A explicação para a prevalência cada vez maior da Lei de Murphy é que, pela teoria do caos, os riscos de que fatores insignificantes se transformem em tragédia aumentam à medida que aumenta a potência das fábricas, dos veículos e das máquinas. “Quanto mais energia você concentra em um espaço pequeno, maiores as conseqüências de qualquer ato”, diz Moacyr Duarte, especialista em contenção de catástrofes da Universidade Federal do Rio de Janeiro. Um acidente em uma fábrica no início do século XX poderia ser grave, mas não chega aos pés de um descuido em uma usina nuclear. Quanto maior a complexidade do sistema, mais elementos interagem entre si e maiores as chances de acidente.
Muitas vezes, os próprios equipamentos que cuidam da segurança aumentam a complexidade e acabam causando acidentes. Automatizar o gerenciamento de uma rede de trens, por exemplo, abre a possibilidade de as pessoas não estarem acostumadas com essas máquinas e as configurarem mal, ou de esses equipamentos quebrarem e levarem a colisões ou descarrilamentos. “É impossível eliminar todas as possibilidades de erro. O nosso trabalho consiste em reduzir o risco a níveis aceitáveis”, diz o engenheiro João Batista Camargo Júnior, da Universidade de São Paulo, que pesquisa formas de evitar acidentes em redes de transportes.
“A idéia da propagação de erros está no centro da teoria do caos”, afirma o físico Celso Grebogi, da Universidade de São Paulo (USP), um dos autores mais citados no mundo nessa linha de pesquisa. A idéia é que, apesar de serem construídas com equações exatas, as máquinas sofisticadas não são tão estáveis quanto parecem. Da mesma forma que um floco de neve pode dar origem a uma avalanche, uma falha simples pode fazer um avião cair, uma fábrica pegar fogo ou uma empresa ir à falência se as condições em que ela acontecer favorecerem o desastre.
Da mesma forma, nossos equipamentos são compostos de várias partes que interagem, se movimentam e podem dar origem a momentos de instabilidade. É nesses momentos que a catástrofe fica mais próxima. As redes elétricas, que estão entre as construções mais complexas já feitas, podem absorver interferências corriqueiras como a queda de uma central. Mas, se essa falha acontecer em um momento de grande demanda, o sistema tende a chegar perto da área de instabilidade, bastando mais um empurrão para o desastre. Uma situação como essa aconteceu em janeiro, quando uma conexão entre Ilha Solteira e Araraquara, no interior de São Paulo, falhou em um momento de sobrecarga. Na tentativa de resolver o problema, outra linha na mesma região foi desligada, piorando a situação e jogando todo o sistema em uma instabilidade irreversível. Resultado: 11 Estados sem luz.
Fenômenos do mesmo tipo são encontrados em campos como engenharia, biologia, medicina, química e, principalmente, nos sistemas humanos. “Empresas e instituições financeiras são formadas por múltiplos agentes interagindo, trocando materiais e informações em uma dinâmica complexa. Às vezes, eles adquirem uma configuração tal em que basta uma fagulha para desencadear o desastre”, diz o economista Thomaz Wood Jr., da Fundação Getúlio Vargas, de São Paulo. Em 2000, a euforia da internet fez a Nasdaq – o mercado de ações americano voltado para o setor tecnológico – funcionar em uma base irracional e instável. Bastou as primeiras empresas quebrarem que o mercado inteiro veio abaixo. Qual seria o responsável por um desastre como esse? “As pessoas estão acostumadas a pensar em termos de causa e efeito, mas não existe um culpado para essas situações. É uma questão de como o próprio sistema estava configurado naquele momento”, diz Thomaz.
Da mesma forma, o catastrófico aumento de violência em muitas cidades não é só questão de falta de polícia, mas de uma enorme conjunção de fatores que envolve valores dominantes, educação, oportunidades, sistema legal e desigualdade social.
A dinâmica desses desastres parece desafiar a lógica da maioria das pessoas. “Quando indivíduos tentam resolver problemas complicados, trazem à tona um tipo de raciocínio que estimula erros. A partir daí, a situação se torna cada vez mais complexa e encoraja decisões que tornam as falhas ainda mais prováveis”, diz o psicólogo Dietrich Dörner, da Universidade de Bamberg, Alemanha, no livro The Logic of Failure (A lógica do fracasso, inédito no Brasil). Dörner chegou a essa conclusão depois de realizar experimentos em que os participantes tentavam resolver situações complexas em jogos de computador. Em um deles, ele simulou um povo africano, os moros, que vivia da criação de gado e de plantar grãos. A situação não era boa: a mortalidade infantil era alta, o rebanho sofria de doenças transmitidas por moscas e havia seca e fome. Cada um dos 12 participantes tinha liberdade para, depois de estudar a situação, propor quaisquer soluções que achasse adequadas.
Com exceção de um, todos fracassaram. Em um primeiro momento, criaram uma rede de atendimento médico e diminuíram a mortalidade infantil; eliminaram as moscas e aumentaram a quantidade de gado; bombearam água do subsolo em grandes quantidades e enriqueceram as plantações. Depois de anos (simulados pelo computador), todas essas boas intenções tinham levado a uma catástrofe: as reservas de água se esgotaram, os rebanhos devoraram todas as pastagens e ficaram sem comida e a população, que havia aumentado muito, estava morrendo de fome.
Após dezenas de experiências semelhantes, Dörner percebeu que os maus participantes, de um modo geral, tinham uma abordagem menos complexa do sistema. Costumavam privilegiar apenas um aspecto, repetiam a mesma solução para vários problemas, não questionavam sua maneira de pensar e não analisavam as conseqüências de seus atos a longo prazo. Apesar de serem apenas simulações de computador, Dörner encontrou nelas modelos de comportamento semelhantes aos que ocorrem em catástrofes reais. “Eles aparecem especialmente em problemas como a degradação ambiental, a proliferação das armas nucleares, o combate ao terrorismo e o controle da superpopulação. Assim como na experiência dos moros, tentativas de lidar com esses perigos geralmente criam novos problemas ou exacerbam os antigos”, diz Dörner.
O pesquisador ressalta a importância de garantir a todos os envolvidos na operação de sistemas complexos uma habilidade chamada “pensamento sistêmico” (veja quadro na página 78). Trata-se da capacidade de perceber o conjunto de elementos, em vez de se preocupar só com os mecanismos com os quais se trabalha no dia-a-dia. “Em sistemas complexos não é possível fazer apenas uma coisa, qualquer passo afetará muitos outros elementos”, diz Dörner. Assim como as ferramentas evoluíram de pedaços de pedra para máquinas sofisticadas e gigantescas, o nosso comportamento precisa passar do simples raciocínio de causa e efeito para a análise de múltiplos fatores em interação. “Uma educação mais completa é fundamental para que as pessoas possam decidir que riscos são aceitáveis e quais não são”, afirma Moacyr.
Uma área em que a abordagem complexa é crucial é o ambiente. Começa a ganhar força uma corrente que analisa os ecossistemas como uma mudança contínua, em que as catástrofes naturais são essenciais. “Estamos acostumados a ver os ecossistemas como a convivência de espécies em equilíbrio. Na verdade, todas as comunidades são freqüentemente assoladas por incêndios, enchentes, tempestades, terremotos ou secas”, diz o ecólogo Seth Reice, da Universidade da Carolina do Norte, Estados Unidos. Não reconhecer a importância desse tipo de interferência pode levar a desastres ainda maiores. Durante décadas, os administradores do Parque de Yellowstone, nos Estados Unidos, o mais antigo parque nacional do mundo, apagaram todos os incêndios que encontraram. Acontece que, sem o fogo, que eliminava as árvores mais altas e permitia que os raios de sol chegassem às plantas rasteiras, muitas das espécies menores desapareceram.
Além disso, o fim dos pequenos incêndios fez com que uma grande quantidade de matéria orgânica se acumulasse no solo. Quando, em 1988, um grande incêndio começou, havia combustível suficiente para que ele se alastrasse por quase metade do parque. “Distúrbios acontecem e são parte do ciclo natural. A questão é ficarmos espertos e sairmos do caminho deles”, diz Reice.
Ver os sistemas de forma mais dinâmica, complexa e instável é um dos fatores mais importantes para evitar acidentes. É possível, no entanto, que um novo método desenvolvido a partir da teoria do caos consiga prever catástrofes com meses e até anos de antecedência. É o que acredita o polêmico geofísico Didier Sornette, que divide seu tempo entre as universidades da Califórnia, Estados Unidos, e de Nice, na França. Seu método começou a ganhar forma em 1990, quando ele estudava a ruptura em materiais como concreto, fibras de carbono e alguns metais. Ele percebeu que os rompimentos desses materiais surgiam de minifraturas que iam aumentando e se somando devido ao tempo ou à pressão. Quando uma rachadura atingia um tamanho crítico, a liga inteira se tornava instável – da mesma forma que o pêndulo em seu ponto mais alto – e se rompia.
Sornette percebeu, então, que, antes do rompimento, as tais rachaduras liberavam sons e outras formas de energia muito sutis que se tornavam mais fortes quando se aproximavam do ponto crítico. Essas oscilações apareciam em diversos compostos, mas eram mais claras em materiais heterogêneos – em outras palavras: em sistemas complexos.
Sornette decidiu, então, buscar esses sinais em outros sistemas complexos. Conseguiu detectar oscilações parecidas em deslizamentos de terra, mesmo em registros feitos mais de um ano antes de eles acontecerem. Também encontrou-as em um dos eventos mais traumáticos por que passamos: o nascimento. Para o pesquisador, as contrações uterinas apresentam sinais matematicamente parecidos com os das rachaduras, que podem indicar a hora do nascimento e alertar partos prematuros. “Não estamos interessados em explicar todos os mecanismos por trás desses eventos extremos. Queremos apenas prevê-los”, diz Sornette.
Se já parece estranho encontrar os mesmos sinais em sistemas físicos e biológicos, mais surpreendente foi vê-los em estruturas feitas pelo homem. Sornette encontrou os mesmos padrões nas oscilações dos preços nas Bolsas de Valores e afirma que suas previsões se aplicariam com sucesso para as dez maiores quedas desde 1962. Ele acredita que, com pesquisas futuras, seus métodos poderão prever desde terremotos até crises sociais, atentados terroristas e epidemias. “A idéia é ainda muito controversa, mas é possível que a maioria dos eventos extremos siga padrões semelhantes e, portanto, tenha um grau de previsibilidade”, afirma.
Mesmo que essas pesquisas não levem a previsões confiáveis, o importante é termos em mente que acidentes fazem parte do mundo e sempre acontecerão. A nossa própria evolução dependeu disso: não estaríamos aqui se um asteróide não tivesse destruído os dinossauros há 65 milhões de anos. Saber como e por que os desastres acontecem é questão de entender a dinâmica do que está ao redor e pensar nas conseqüências de cada um de nossos atos. Neste mundo complexo, cada gesto mínimo nosso implica em riscos – precisamos decidir quais são aceitáveis, já que eliminá-los é impossível.
Frases
Um pedaço de 0,5 metro de metal solto na pista causou 113 mortes
Em sistemas complexos, qualquer gesto afetará muitos outros elementos
A teoria do caos
No século XVII, Isaac Newton mudou a ciência ao descobrir que alguns fenômenos da natureza poderiam ser explicados com leis matemáticas. A partir daí, muitos pesquisadores acreditaram que as leis poderiam explicar e prever o comportamento de todos os fenômenos se fossem reunidas informações suficientes. Até que, em 1961, o meteorologista Edward Lorenz, do Instituto de Tecnologia de Massachusetts (MIT), descobriu por acaso um dos mais importantes argumentos contra essa idéia. Ele havia programado um modelo, nos primitivos computadores da época, que simulava o movimento de ventos e de massas de ar. Um dia, quis repetir uma situação em seu programa e digitou os números correspondentes a ela, só que com algumas casas decimais a menos. Acreditava-se que essa ligeira imprecisão levaria a um resultado só um pouco diferente, mas ele se transformou totalmente. Era como se o bater de asas de uma borboleta na Ásia causasse, meses depois, um tornado na América.
Lorenz percebeu que seu modelo, embora construído com equações simples, poderia se tornar caótico e imprevisível. Nascia a “teoria do caos”. Pesquisas feitas depois mostraram que o “efeito borboleta”, como ficou conhecido, poderia ser encontrado em milhões de fenômenos, como o trânsito, o movimento de partículas em um líquido e as cotações da Bolsa. Cada um desses sistemas, apesar de obedecer a regras simples, pode adquirir infinitas configurações, de acordo com a influência de fatores aparentemente insignificantes – como casas decimais ou o bater das asas das borboletas. “A própria história funciona dessa forma”, diz o físico Celso Grebogi, da USP. “A modificação de um pequeno acontecimento séculos atrás poderia levar o mundo para uma outra situação”.
Como evitar desastres
Segundo o psicólogo alemão Dietrich Dörner, operar sistemas complexos é como jogar xadrez sem saber todas as regras, em um tabuleiro com peças amarradas entre si, onde movimentar um peão muda a posição de todas as outras figuras. Ele dá as dicas de como se dar bem nessas situações:
1. Defina objetivos
Saiba com clareza o que você quer fazer. Se for algo pouco específico, como “aumentar a produtividade da empresa”, procure desdobrar em outras metas, tomando o cuidado de não perder de vista o objetivo final. Evite objetivos contraditórios: saiba sempre qual deles é prioritário.
2. Crie um modelo
Estude os elementos do sistema e as relações entre eles, sem se confundir com detalhes excessivos nem reunir todos os fatores em uma explicação só. Entenda com0 o sistema funciona.
3. Faça previsões e extrapolações
Mais importante do que o estado atual de um sistema é a forma como ele tem evoluído. Uma dúzia de casos de uma doença infecciosa pode dar origem a uma epidemia em pouquíssimo tempo. Concentre-se nas tendências.
4. Planeje e execute as ações
Mas não sem antes imaginar quais serão os efeitos secundários de cada ato. Evite repetir uma solução vitoriosa para todos os casos. Os generais mais experientes foram os que mais sofreram baixas nas guerras do começo do século XX. Acostumados às guerras do século anterior, perderam todos os soldados quando a metralhadora foi inventada.
5. Analise os efeitos
Use suas ações como laboratório para saber se o modelo e a estratégia ainda são válidos. Se o trator não virou quando você girou o volante, problema: o modelo que você tinha do veículo precisa ser revisto urgentemente, antes que aquele muro chegue.
Para saber mais
Na livraria
Inviting Disaster, James R. Chiles, HarperCollins, Estados Unidos, 2001
The Silver Lining, Seth R. Reice, Princeton University Press, Estados Unidos, 2001
Caos, James Gleick, Campus, Rio de Janeiro, 1989
The Logic of Failure, Dietrich Dörner, Perseus, Estados Unidos, 1996
Na internet