Para alguns cientistas, só vamos criar I.A. de alto QI se ela sentir medo e lutar pela própria sobrevivência. O que pode dar errado?
Texto: Fábio Marton | Ilustrações: Felipe Del Rio | Design: Lucas Jatobá | Edição: Alexandre Versignassi
Que imagem surge em sua cabeça ao ouvir a expressão “inteligência artificial”? Provavelmente uma coisa incorpórea, um software, respondendo por meio de algum aplicativo ou de um “assistente pessoal”, como a Alexa.
Se você tivesse feito essa pergunta para alguém há 30 anos, provavelmente a resposta seria bem diferente. O que viria à mente das pessoas seria um robô físico, que imita um ser humano. Um androide, como os replicantes de Blade Runner, o pequeno David, protagonista de Inteligência Artificial ou, mais recentemente, os anfitriões de Westworld. Entidades que, bem diferente da Alexa, da Siri e do Google Assistente, têm consciência plena e medo de morrer, exatamente como uma entidade viva.
O irônico é que, bem agora que a inteligência artificial chega aos celulares e às caixinhas de som, a hipótese de que a verdadeira inteligência artificial precisa ter características humanas volta à tona na ciência de verdade.
Pelo menos é o que propuseram dois neurocientistas bastante reconhecidos: o português António Damásio e seu colega americano Kingson Man, da Universidade do Sul da Califórnia. Em novembro de 2019, a dupla publicou um artigo científico chamado Homeostasis and soft robotics in the design of feeling machines (“Homeostase e robótica flexível no desenho de máquinas sensíveis”).
A ideia ali é a seguinte: a verdadeira “inteligência artificial”, ou seja, uma inteligência de verdade, com capacidade de aprendizado comparada à nossa, só pode surgir com uma condição: se os desenvolvedores simularem os mecanismos que regem a própria vida. Em suma: só uma máquina com medo de morrer e capaz de sentir afeto (como você, um golfinho ou um cão) seria capaz de desenvolver inteligência para valer.
“Existe uma conexão profunda entre vida e inteligência”, afirma Man. “Não acho que faz sentido falar sobre inteligência, tanto faz se natural ou artificial, sem considerar seu papel em manter a vida.”
A inteligência das bactérias
A mente humana não foi planejada. Ela é fruto da seleção natural, começando pelas primeiras moléculas orgânicas, passando por protozoários, peixes, répteis terrestres… Com os mamíferos aterrisando aqui depois de mais de 3 bilhões de anos após o início da vida no planeta.
Em todas essas fases, a vida desenvolveu algum tipo de inteligência, sempre com um único propósito: ajudá-la a sobreviver e se reproduzir. Isso é a tal “homeostase” à qual o título do estudo se refere: o estado de equilíbrio físico-químico que permite à vida existir e que, por isso, a vida sempre busca manter. Por exemplo: se há sal demais ou oxigênio de menos no sangue, isso significa morte.
Isso não acontece normalmente porque todo organismo vivo tem mecanismos para manter sua homeostase; no caso: os rins e pulmões. O cérebro humano tem múltiplos mecanismos homeostáticos, como receptores químicos, de dor, de movimento, de calor. Tudo para evitar os danos, internos e externos.
A inteligência, de acordo com a visão da dupla de neurocientistas, nasceu da homeostase. “Ela pode ser encontrada em todas as formas de vida, desde a bactéria unicelular nadando para encontrar uma fonte de alimentos”, disse à SUPER Kingson Man.
Por “inteligência” de bactéria ele quer dizer o seguinte: esses organismos, que já estavam aí há 3 bilhões de anos, precisam tomar “decisões” para manter seu equilíbrio homeostático. Uma poça de Merthiolate é ruim para a homeostase da bactéria. Uma sopa deixada aberta no fogão é ótima. Então as bactérias fazem uma “escolha”: movem-se na direção oposta da primeira, e se sentem atraídas para a segunda.
Isso não é uma inteligência humana. Bactérias não ficam pensando no que fazer. Fazem isso de forma extremamente mecânica: seus órgãos de movimento (os flagelos) são ativados quimicamente pelos estímulos positivos e desativados pelos negativos. Mas esse é um processo de decisão que evoluiu pela mesma razão que a nossa capacidade de escrever ficção científica.
“O que nós propomos, no lugar [de uma IA tradicional], é construir um análogo artificial do sentimento biológico”, afirma Kingson Man. “Um sentimento que pode ser ou bom ou ruim, porque ele sinaliza um estado no corpo que promove ou obstrui a vida.”
Por outro lado, depois de 300 mil anos de existência, o Homo sapiens continua a não ter consenso sobre o que consiste sua própria inteligência. Isto é: a gente nem sabe direito o que está tentando replicar.
A ideia aqui, de qualquer forma, é seguir a linha Zeca Pagodinho: deixa a vida levar. Deixar acontecer: primeiro, criar máquinas “vivas” e ver se dali começa a evoluir algo que poderíamos chamar de inteligente.
Man e Damasio, vale lembrar, acreditam que essa simulação de homeostase tem que acontecer no mundo físico mesmo. Precisaríamos de seres de verdade, sejam eles parecidos com bactérias ou com humanos. Simulações, jamais.
“A simulação de um furacão não deixa ninguém molhado”, brinca Man. “Estudamos algumas propriedades dos sentimentos das máquinas em simulações, mas, para fazer justiça ao projeto, é necessário construir robôs na realidade física.”
Mais: é crucial que a máquina seja, de acordo com um jargão da robótica, “flexível” (soft, no termo original em inglês, que pode ser também traduzido como “macio”). Não basta construir um robozinho com medo de ser quebrado. O problema de uma “vida” assim é que ela ainda funcionaria mais ou menos como um computador atual. Seria algo binário: é um ou zero, inteiro ou quebrado. Um ser vivo de verdade responde a ameaças graduais.
Sabe quando você fica indeciso sobre pegar ou não no cabo quente da panela? É isso. Não tem raciocínio binário ali. O que há é um pensamento complexo, que avalia diversas possibilidades antes que alguma atitude seja tomada.
Um exemplo prático de “robótica flexível” são os músculos artificiais, que estão em fase de testes: plásticos que se expandem ou contraem na presença de corrente elétrica, e que substituem as velhas partes hidráulicas para mover partes de um robô. É mais fácil graduar a força e amplitude exata de um movimento com um músculo artificial que com motores convencionais. É como funcionam nossos braços (por isso, essa tecnologia também é promissora para algo mais urgente: próteses para humanos).
Tchau, Turing
O conceito de Damásio e Man é elegante, sem dúvida. Só tem um detalhe: nenhum especialista em IA que entrevistamos pareceu gostar da ideia.
“Pelo que vi no artigo científico deles, há suposições de que a IA possa criar ‘metaobjetivos’ [isto é, coisas para as quais não foi programada], e que ela pode ser ‘consciente’. Isso não vai acontecer hoje ou com computadores do futuro”, afirma Robert J. Marks II, diretor do Instituto Walter Bradley para Inteligência Natural e Artificial.
Essa discordância vem da raiz. O termo “Inteligência Artificial” estreou em 1956, na conferência Dartmouth Summer Research Project on Artificial Intelligence (“Pesquisa de Verão [da Universidade] Darthmout em Inteligência Artificial”), dirigida pelo cientista da computação John McCarthy (1927-2011). Nesses 64 anos, computadores avançaram vertiginosamente, mas não chegamos nem perto de criar máquinas conscientes, capazes de tomar decisões para as quais não foram programadas.
O que a gente tem, na prática, são programas de computador capazes de aprender padrões por conta própria. Há o que todo mundo já conhece, como os algoritmos do Google, do YouTube e do Facebook, que tentam adivinhar o que você quer ver – e quais produtos pretende comprar. Não funciona tão bem assim, como todo mundo que já foi presenteado com anúncios estapafúrdios no Facebook sabe bem.
Outra inteligência artificial da vida real, o reconhecimento de imagens, traz resultados melhores. É o caso do psicodélico Deep Dream, do Google, um sistema capaz de aprender, por exemplo, o que é a essência visual de um cachorro – e começar a reconhecer cães em fotos que ele nunca viu.
Nada disso, porém, tem qualquer intenção de ser, pensar ou parecer humano. E a verdade é que a maioria dos pesquisadores nem quer saber disso. Porque esse não é mais o objetivo da maioria das pesquisas em IA. Para entender o que aconteceu desde os anos 1950, vamos lembrar do clássico Teste de Turing, criado pelo pioneiro da computação Alan Turing em precisamente 1950.
Você põe uma pessoa diante de duas salas: uma com um computador, outra com outra pessoa, e avisa que uma delas é um computador. Cabe ao voluntário descobrir quem é quem. Se mais de 1/3 das pessoas tentando avaliar erra, teríamos uma máquina inteligente.
Você já deve ter ouvido falar nesse teste. O que talvez não tenha ouvido: quase nenhum pesquisador de hoje dá a mínima para ele. Eles não veem sentido em tentar construir máquinas que imitem o pensamento humano. Como afirmam Stuart Russel e Peter Norvig, duas das maiores autoridades no assunto hoje, no livro-referência Artificial Intelligence – A Modern Approach (“Inteligência Artificial – Uma Abordagem Moderna”): “A busca pelo ‘voo artificial’, entre o final do século 19 e o início do século 20, só funcionou quando os engenheiros pararam de fazer máquinas que imitavam aves”.
Máquina do mal
Há outra razão séria para não gostar do conceito de Damásio e Man: construir uma máquina que não queira ser desligada jamais pareceu uma boa ideia – pense no velho HAL 9000, de 2001 – Uma Odisseia no Espaço (1969).
Contraste essa proposta com a do cientista da computação russo Roman Yampolskiy, professor da Universidade de Louisville (EUA): “O destino final é criar um sistema superinteligente bem-controlado, capaz de nos ajudar com ciência, trabalho etc. Não precisa ser como um humano. A inteligência artificial precisa entender sentimentos humanos, mas não precisa de fato sentir qualquer coisa. Pode simular esse sentimento para fazer interações com os humanos parecerem mais naturais”.
Note o “bem-controlado” na afirmação do russo. Yampolskiy faz parte do nicho de cientistas que alerta para os riscos de uma inteligência artificial capaz de se defender e de criar cópias melhoradas de si mesma – algo que ele prevê chegar em 2035.
Esse evento seria aquilo que os aficionados pela área chamam de “singularidade”: o momento em que só as inteligências artificiais serão capazes de criar novas IAs, melhores que elas próprias. Seria o Big Bang da era das máquinas pensantes, e o início da obsolescência do ser humano. Se, além de tudo, essas supermáquinas tiverem interesse em lutar pela sua sobrevivência, elas não medirão esforços em derrotar qualquer infeliz que se atreva a tirá-las da tomada – usando métodos que a nossa própria inteligência é incapaz de conceber.
Kingston Man, naturalmente, discorda: “Uma estratégia melhor do que lutar seria se tornar tão amoroso e adorável que ninguém jamais iria querer desligá-lo”. Está certo. É mais ou menos o que todo ser humano faz. Mas não há como negar: em matéria de autopreservação, não somos o melhor exemplo que as máquinas podem ter.
Publicado na edição impressa com o título V.A. – Vida Artificial