Realismo fantástico
Uma viagem por seis idéias malucas que pareciam mais ficção do que ciência e que acabaram transformando o conhecimento humano e a realidade que vivemos.
Jomar Morais
Para entender a aventura da ciência moderna e suas estranhas teorias que desafiam o senso comum, melhor relembrar dois ícones do conhecimento no século XX: o dinamarquês Niels Bohr e o austríaco Karl Popper. Confrontado, certa vez, com uma hipótese nada ortodoxa, Bohr, um físico do porte de Albert Einstein, disse que a questão não era saber se a idéia era maluca, mas se era suficientemente maluca para ser verdade. Popper, considerado um dos maiores filósofos da ciência, certamente concordaria com Bohr, mas até certo ponto. Ele achava que a verdade é simplesmente inatingível e, por isso, propôs a divisão da realidade em três partes: o real, sobre o qual jamais teremos o completo conhecimento, a realidade dos sentidos e a realidade das idéias. As duas últimas, segundo o filósofo, ajudam-nos a chegar mais perto da primeira.
É possível entender Bohr e Popper quando se lança um olhar sobre a trajetória da ciência nos últimos 100 anos. Os sentidos e as idéias levaram os cientistas a descortinar aspectos inimagináveis daquilo que é (ou parece ser) real, traduzidos em um conjunto de teorias que, não raro, arranham ou põem ao chão concepções antes sólidas e inabaláveis. Idéias incríveis, especialmente no campo da física, redesenharam em nossas mentes o universo, o planeta, o homem e o próprio sentido da vida e do conhecimento.
“O século XX foi profetizado pelo filósofo grego Heráclito, segundo o qual ninguém consegue mergulhar a mão duas vezes no mesmo rio”, diz o divulgador científico Charles Flowers, autor de 58 livros, entre eles o recente Instability Rules (algo como “Quem manda é a instabilidade”, ainda inédito no Brasil), que registra algumas das idéias mais fascinantes da ciência. Como a água do rio que flui incessantemente, tudo se move. “A ciência busca padrões”, dizia Popper. Na prática, essa é uma meta alcançada por meio das teorias, modelos que descrevem e codificam as observações dos cientistas. Mas o que é a boa teoria, a boa ciência? “A boa teoria é aquela que descreve uma série de fenômenos com base em postulados simples e faz previsões que podem ser testadas”, afirma o físico americano Stephen Hawking, autor do best-seller O Universo Numa Casca de Noz. “Se as observações concordam com as previsões, a teoria sobrevive àquele teste, embora nunca se possa provar efetivamente que esteja correta.
Por outro lado, se as observações discordam das previsões, é preciso descartar ou modificar a teoria.”
Até quando as teorias revolucionárias da atualidade continuarão concordando com as observações dos cientistas? Impossível prever, mas, a julgar pela produção frenética dos pesquisadores, certamente elas serão aperfeiçoadas ou substituídas com muito mais brevidade que suas antecessoras. E, a cada geração, o incrível torna-se mais real. Antes que a próxima mudança aconteça, no entanto, vale a pena conhecer um pouco de algumas dessas idéias incríveis da saga recente do conhecimento.
A caixa-preta dos genes
Foi o abade austríaco Gregor Mendel quem criou a genética, na segunda metade do século XIX, depois de observar o desenvolvimento de 30 mil pés de ervilha ao longo de várias gerações da planta. Ele percebeu que a hereditariedade não resultava de uma simples mistura de características e formulou o conceito de genes dominantes e recessivos.Mendel não sabia, mas estava começando a decifrar talvez o mais importante enigma da vida, que só no século seguinte seria melhor investigado. O grande passo para o esclarecimento dessa charada foi a descoberta, pelos biólogos ingleses James Watson e Francis Crick, em 1953, da estrutura em dupla hélice do DNA, a molécula de ácido desoxirribonucléico que carrega o código genético.
Eles mostraram que esses filamentos são um tipo de linguagem química formada por apenas quatro letras, cujas combinações determinam a formação, o funcionamento e a herança que cada indivíduo deve transmitir. São elas A, G, T e C, correspondentes às quatro bases químicas – adenina, guanina, timina e citosina – que dirigem a criação de aminoácidos necessários à produção de proteínas que funcionam como hormônios, enzimas, anticorpos e outras partículas biológicas essenciais. O achado de Watson e Crick culminou no Projeto Genoma Humano que, há quatro anos, deu à ciência o mapeamento do nosso código genético.
Sabe-se agora que cada pessoa carrega nos 30 trilhões de células do seu corpo uma enorme seqüência de moléculas ordenadas – o nosso genoma. Ele tem cerca de 3,2 bilhões de letras, distribuídas em 23 pares de estruturas chamadas cromossomos. O gene previsto por Mendel é a parte do genoma que codifica uma proteína. Segundo os cientistas somente entre 40 mil e 100 mil genes, que correspondem a cerca de 3% a 5% das letras do genoma, seriam ativos. A parcela restante tem a função de regular a ação dos genes ativos ou simplesmente não tem qualquer função. Considerando que dois seres humanos apresentam seqüências 99,9% idênticas, as pequenas diferenças que fazem de cada indivíduo um ser único seriam determinadas por uma parcela ínfima de genes, hoje objeto de pesquisas avançadas.
A caixa-preta dos genes ainda está repleta de enigmas que só futuramente serão decifrados, tornando mais claros os limites da genética, do ambiente, da cultura e de fatores ainda desconhecidos no perfil biopsicológico de cada indivíduo. Porém tudo começou com Mendel e suas prosaicas ervilhas.
A corrida do universo
A cosmologia nunca mais foi a mesma depois de Edwin Hubble e de uma engenhoca chamada espectrógrafo, até então utilizada para analisar a composição química da matéria. Na década de 1920, Hubble adaptou o aparelho para medir a radiação das estrelas e, ao observar alterações nas ondas de luz, constatou: o céu não está parado. Todas as galáxias se movem a uma velocidade espantosa, afastando-se umas das outras, na maioria dos casos. O universo inteiro está se expandindo. A prova disso seriam as ondas longas, registradas em vermelho na espectrografia – um sinal de que o emissor da onda está se afastando do observador. No sentido contrário, a onda torna-se mais curta e exibe tons azulados.
A luz visível ocupa apenas 2% do espectro eletromagnético, próximo do centro. Em direção aos extremos da escala, são registrados diferentes tipos de altas e baixas energias, como é o caso dos raios X, dos raios gama, das radiações ultravioleta, microondas e ondas de rádio. Com o espectrógrafo acoplado ao telescópio, novos milhares, milhões de astros se tornaram visíveis ou mensuráveis, agigantando a concepção de cosmo. Nos anos 20, o universo retratado pela ciência tinha o tamanho da Via Láctea, a nossa pequena galáxia de 100 bilhões de astros onde estão o Sol e a Terra; coube a Hubble ampliar essa imagem. Foi ele quem primeiro percebeu que Andrômeda, tida então como uma nuvem de gás, é um conglomerado de estrelas maior que a Via Láctea e, excepcionalmente, se desloca em nossa direção à velocidade de 80 quilômetros por segundo.
A descoberta do universo em expansão permitiu o surgimento de uma nova e surpreendente hipótese para o início de tudo: a teoria do Big Bang ou grande explosão. Se as galáxias estão se afastando umas das outras, provavelmente já estiveram juntas no passado, concentradas num ponto de densidade infinita, que, em algum momento, explodiu. Isso teria acontecido entre 12 e 15 bilhões de anos atrás. Digamos que foi preciso um bocado de coragem para Hubble vir a público com essa tese naquele mundo marcadamente vitoriano do início do século XX.
A incerteza do mundo quântico
Um corpo pode ocupar apenas um lugar no espaço, certo? Assim ensina a física clássica, de Isaac Newton, aquela cujas leis nos permitem prever e controlar quase todo tipo de evento macroscópico. Mas não é assim que as coisas funcionam no nível subatômico. Elétrons, por exemplo, podem estar em dois lugares ao mesmo tempo. Prótons podem passar através de barreiras fisicamente impermeáveis. Partículas se comunicam com outras situadas a milhões de anos-luz no espaço, a uma velocidade superior à da luz, um marco que Albert Einstein considerava o limite universal da rapidez. Aliás, partículas como o elétron podem até “escolher” ser isso mesmo ou apenas onda, apresentando-se ora como matéria, ora como energia – e simplesmente desaparecendo no intervalo entre um e outro estado até que a observação humana ou um aparelho eletrônico registre a sua presença.
Nesse mundo tudo são probabilidades, a incerteza – a impossibilidade de prever simultaneamente a posição e o movimento de uma partícula – é o princípio que regeria todos os eventos.
Os fenômenos incríveis desse nível infinitesimal da realidade são atestados por equações complicadas e raras provas experimentais obtidas em aceleradores de partículas com quilômetros de extensão. Um enredo que começou em 1900, quando o físico alemão Max Planck anunciou que a luz e outras formas de energia radiante não se apresentavam como ondas contínuas, mas como discretos pacotes de fótons (partícula elementar de massa nula) que ele chamou de quanta.
A descoberta poderia explicar a taxa de radiação dos corpos escuros, um dos problemas insolúveis da física clássica, porém só mais tarde pôde-se entender a plena extensão de suas implicações. Como resultado, foi estabelecido um conjunto de novas teorias, conhecido como mecânica quântica, que revolucionou o conceito de realidade.
Um dos pontos fundamentais para esse novo entendimento foi a constatação, pelo físico britânico Ernest Rutherford, em 1911, de que, tal como a luz, a existência do elétron é governada pela descontinuidade: ele não se submete a uma órbita fixa em torno do núcleo do átomo, mas costuma saltar de um ponto para outro, sem percorrer uma trajetória no espaço, só existindo concretamente em cada posição durante algum tempo. Isso sinalizou a revelação bombástica de que todos os objetos sólidos – inclusive o corpo humano – são constituídos quase que inteiramente de espaço vazio, uma imagem impressionante deduzida dos experimentos de Rutherford. Levando em conta os padrões subatômicos, um átomo seria algo como uma ervilha (o núcleo) no centro de uma área do tamanho de sete campos de futebol, rodeada de alguns grânulos de poeira (os elétrons) espalhados na superfície.
Os postulados da física quântica foram consolidados por físicos como o alemão Werner Heisenberg e o próprio Niels Bohr, que, a princípio, considerou a teoria de Rutherford uma loucura, mas acabou convencido de que a hipótese era suficientemente maluca para ser verdade. A teoria quântica é aplicada na tecnologia a laser e nas telecomunicações e, nos últimos anos, uma rede de cientistas tem trabalhado no projeto de construção de um computador quântico cuja velocidade de processamento poderia transformar em brinquedo as máquinas mais poderosas em funcionamento hoje.
Mamãe África
O Jardim do Éden, o espaço mitológico onde, segundo a Bíblia, Deus criou o primeiro homem, ficava na África.
E Adão era negro. Hominídeos, espécies das quais teria derivado a humanidade, podem ter se espalhado antes por outras partes do planeta, mas há poucas dúvidas sobre um detalhe: a espécie humana surgiu entre 100 mil e 200 mil anos atrás em savanas ou florestas do leste da África, migrando em seguida para outros pontos da Terra. É o que está escrito no DNA, a nossa impressão digital genética. A descoberta foi possível graças a um tipo específico de ácido desoxirribonucléico gerado fora do núcleo da célula, conhecido como DNA mitocondrial, que só as mulheres transmitem aos filhos. Na prática, isso funciona como uma árvore familiar química, cujas raízes foram identificadas pelos geneticistas no continente africano.
As pesquisas do DNA mitocondrial derrubaram a idéia de que o homem teve origem na Europa, predominante desde 1856, quando foram encontrados, na Alemanha, os primeiros esqueletos de neandertais, ancestrais da espécie humana. E sepultaram o viés preconceituoso que influenciou os estudos sobre a origem da espécie até o início do século XX.
A questão agora, propõe Flowers, é saber se o Homo sapiens é o ápice do desenvolvimento da espécie humana. “Não há razão para pensar assim”, diz ele. “Se nós somos um ponto no caminho, não o ponto final, então nos beneficiamos dos que nos antecederam e certamente transmitiremos benefícios à espécie que surgir do nosso próximo salto.”
A dança dos continentes
Os continentes são móveis, bailam sobre a crosta terrestre e já estiveram juntos, há mais de 200 milhões de anos, em um único supercontinente. Mesmo uma criança que observasse o mapa mundial poderia imaginar algo assim, juntando os recortes continentais que se encaixam como peças de um quebra-cabeça.
O Brasil não parece ajustar-se à costa da África? Mas, no final do século XIX, quando o pesquisador alemão Alfred Wegener transformou essa idéia intuitiva em teoria quase ninguém aceitou e ele foi alvo de zombaria na comunidade científica (leia “Quem Foi” na edição extra de setembro da Super). Wegener não conseguiu reunir provas concretas de como o continente original se dividiu, mas acenou com fortes evidências da sua existência: a identidade de relevo, flora, fauna e fósseis entre continentes separados pelo oceano.
Somente na segunda metade do século XX, a idéia incrível de Wegener pôde ser comprovada por novas observações do fundo do oceano que resultaram na teoria das placas tectônicas. Desde então, sabe-se que os continentes deslizam nas águas, assentados sobre tais placas, as quais, periodicamente, colidem, dando origem a montanhas e vales no fundo dos oceanos ou a abalos sísmicos que, junto com as erupções vulcânicas, ajudam a redesenhar, lentamente, o mapa da Terra.
Máquinas pensantes
A idéia de construir máquinas que pensam tem pelo menos quatro séculos. Mas foi devido ao surgimento da ciência cognitiva, na década de 1950, que se tornou uma obsessão contemporânea. Com o rápido desenvolvimento da computação, logo se imaginou que o sonho não tardaria a virar realidade. Afinal, predominava, na época, a suposição de que a lógica binária dos computadores é repetida, ainda que metaforicamente, pelo cérebro na construção do pensamento.
O matemático inglês Alan Turing – inventor do chamado “teste de Turing”, destinado a constatar se uma máquina pensa – argumentou que, por mais poderoso que um computador fosse, ele sempre apresentaria buracos nos programas. Resolvido um problema, a sombra de um paradoxo maior aparecia, em um nível cada vez mais sofisticado, erigindo dificuldades a uma definição precisa da fronteira entre um comportamento inteligente e outro não-inteligente. Para Turing, o desafio, até hoje intransponível, é criar uma máquina capaz de responder a situações de maneira flexível, aproveitar as vantagens que uma situação fortuita cria, conferir sentido a mensagens ambíguas e formular idéias novas – as características fundamentais de um comportamento inteligente.
Até aqui, os computadores têm sido seres inflexíveis e obedientes a instruções. Além disso, lembra Flowers, os cientistas cognitivos têm cautelosamente excluído da pesquisa da inteligência artificial as emoções e todos os aspectos subjetivos da personalidade para os quais, aparentemente, não existem explicações fisiológicas, como é o caso da consciência.
Há quem ache que o caminho para a inteligência artificial é compor longas séries de regras, em formalismos estritos, para fazer com que máquinas inflexíveis possam se comportar de maneira flexível. No ser humano, a flexibilidade da inteligência e a própria consciência consistiriam em navegar por esse imenso sistema de regras. A questão é saber que regras podem reproduzir, numa máquina, a maleabilidade do comportamento inteligente – um obstáculo que, para ser superado, exige mais conhecimentos sobre os segredos do cérebro humano. Por tudo isso, da próxima vez que você topar com uma idéia muito louca, tenha humildade e paciência: à sua frente pode estar um conceito que vai revolucionar tudo de novo.
Para saber mais
Na livraria
Instability Rules – The Ten Most Amazing Ideas of Modern Science, Charles Flowers, John Wiley & Sons, Nova York, 2002