GABRILA65162183544miv_Superinteressante Created with Sketch.

Computadores podem ter sentimentos

Na Universidade da Califórnia, o cientista Michael Dyer, está criando programas de computador capazes de inventar histórias, aprender dos próprios erros e ter emoções como o ser humano. Aqui ele conta o que já conseguiu com suas experiências

Marielza Augelli

Na porta da sala do professor Michael Dyer, chefe do Laboratório de Inteligência Artificial da Universidade da Califórnia, em Los Ângeles (UCLA), uma placa, com duas palavras, AIR HEAD, poderia resumir o espírito do trabalho dos trinta cientistas que pesquisam ali os mecanismos de como transmitir a um computador as emoções que os seres humanos são capazes de sentir. AIR HEAD designa a sala do chefe do Artificial Inteligence Research (AIR) – o chefe de pesquisa de Inteligência Artificial. Mas também significa “cabeça-de-vento” e denota o sutil humor dos ocupantes daqueles laboratórios. Mas Michael Dyer está longe de ser um cabeça-de-vento.

Desde 1983 este cientista de 38 anos, com mestrado em Língua Inglesa e Antropologia e doutorado em Processamento de Dados e Ciência da Computação, procura criar os mais ousados projetos para entender a mente humana. Dyer contou à Superinteressante, em 4h e meia de entrevista, que sua maior ambição é entender exatamente como funcionam os mecanismos de criação, imaginação e invenção da nossa cabeça. “Pela primeira vez o ser humano se depara com máquinas pensantes e a discussão sobre elas poderá fazer o próprio homem entender melhor a si mesmo”, diz ele. Dyer falou sobre suas incríveis máquinas e discutiu aspectos controvertidos da nova tecnologia da neurocomputação numa tarde de verão, em sua sala, no campus da UCLA. A seguir, os principais trechos da entrevista.

O senhor dirige pelo menos seis projetos envolvendo programas de computação e que ensinam a máquina a pensar, criar e até inventar. Como começaram esses experimentos?

Para início de conversa, não sei se estas máquinas realmente pensam. O meu maior interesse era analisar a relação da linguagem com o pensamento. Eu comecei com o Projeto Boris, na Universidade de Yale. Boris é um programa de computador destinado a ler pequenos textos de narrativa e entender o que os personagens sentem. Boris pode entender estados emocionais como medo, desapontamento, embaraço, raiva, vingança. Desenvolvia então a teoria segundo a qual as emoções são estados primitivos de excitação física, negativos ou positivos, que se associam a estados mentais que envolvem desejos de uma série de opiniões e crenças. Tudo isso é codificado e o programa exibe determinado raciocínio.

Um dos programas aqui, do campus de Los Ângeles, é o chamado “Day-dreamer” (aquele que sonha acordado). O seu objetivo com o “Daydreamer” é fazê-lo reagir emocionalmente para uma determinada situação. O que foi necessário para o computador ter o seu primeiro pensamento ou emoção?

Boris é um programa frio, de compreensão do sentimento dos outros. Depois resolvemos fazer um hot system, um programa quente. O aparato de representação dos estados emocionais é o mesmo, mas desta vez é a própria máquina que está sentindo. Novamente, tudo é simulado, mas neste caso a uma situação que acontece diretamente com o programa. “Daydreamer” tem dois estágios no qual o terminal pode ser utilizado: um, quando ele está interagindo com o mundo exterior, e outro quando ele está apenas sonhando acordado com uma série de possibilidades, tentando atingir determinado objetivo. Um exemplo concreto: se eu digo ao computador que há uma linda garota sentado ao lado dele, que ele já vira antes, “Daydreamer” vai convidá-la para sair. Se a garota responder sim, ele parte para o raciocínio que lhe permita desenvolver este objetivo; se a garota disser não, ele desenvolve uma série de sonhos, que envolvem pensamentos de vingança, raiva ou desprezo, que tentarão justificar ou explicar o seu fracasso.

Mas então que espécie de sentimentos e emoções o “Daydreamer” pode simular?

Este programa pode tirar conclusões que envolvem emoções, a partir de uma série de representações de emoções, misturadas com outros conceitos, objetivos e planos para atingi-los. Por exemplo, ele pode sentir-se embaraçado. O que é uma situação embaraçosa? É o fracasso de um certo tipo de objetivo. E tenho uma enorme série de raciocínios que o levam a entender a situação e a simular estados emocionais de acordo com a ocasião. Isso porque os estados emocionais afetam os planos que você executa e o modo como eles são executados afeta a sua memória.

Então podemos dizer que o “Daydreamer” tem até uma personalidade?

Claro. Mas não queríamos que o programa tivesse uma personalidade depressiva, que só lembrasse as más experiências. Então ele tem uma estratégia mental que o faz voltar-se para pensamentos positivos quando a situação é muito negativa e vice-versa. Por exemplo, quando você vê uma cadeira parecida com aquela que havia no seu quarto de criança, dependendo do seu estado de espírito você pode apelar para a memória associativa e lembrar de sua tia que a penteava naquela cadeira; e pode lembrar, conseqüentemente, de uma série de coisas boas daquele período da sua vida. Isso também o computador pode fazer. Então, a possibilidade de resposta do “Daydreamer” é simplesmente relembrar uma velha história, como nós fazemos – da mesma forma como ele pôde desenvolver um raciocínio de vingança contra a garota, fazendo-a passar pela mesma história.

Este computador pode aprender a partir de diferentes experiências e chegar a uma conclusão ou lição por conta própria?

Bom, aí depende do que se entende por aprendizado. Você pode aprender lendo, vendo algo que não conhecia no mundo exterior, ou pode aprender criando novas estruturas na memória. Isto o “Daydreamer” faz. Por exemplo: no caso do convite frustrado à garota, ele aprende que precisa satisfazer certas pré-condições para atingir seu objetivo. Quando a garota diz não, o “Daydreamer” pode vir com uma resposta do tipo: “Eu deveria ter pedido o número do telefone dela”. Eis aí um novo aprendizado, uma lição que ele tirou da experiência em si.

Quais são até agora as principais dificuldades e limitações para ensinar o “Daydreamer” a pensar?

Há muitas limitações. Há limitações das representações, nas formas do aprendizado. Eu posso começar uma história dizendo: “Maria era neurótica e masoquista. Bateu o martelo no dedo e sorriu”. A menos que o programa saiba mesmo o que é masoquismo e o que é neurose, ele vai achar que há algo errado com Maria. Isto seria incongruente para o programa. Esta é uma questão: como você ensina a máquina sobre as coisas que violam o nosso conhecimento? Pois há no “Daydreamer” algo que chamamos de “relaxamento da realidade”, que é algo que fazemos constantemente, mas sobre o qual ainda sabemos muito pouco. Ora, até o prazer e o relaxamento têm de ter certas regras. Esta é ainda uma limitação para a criatividade. Por exemplo, o programa não tem capacidade de imaginar discussões, como fazemos o tempo todo na mente. Pensamos na conversa que tivemos com o patrão e dizemos: “Ah, eu deveria ter falado isso e não aquilo…”

Quais poderiam ser as aplicações para um programa como o “Daydreamer”?

Ele poderia ser parte de um sistema que inventasse histórias; parte de um programa para a invenção em determinado domínio. E, pode também ajudar um escritor a escrever um romance.

Nos seus laboratórios há ainda um programa chamado “Minstrel”, uma espécie de contador de histórias. Quais as semelhanças entre “Daydreamer” e “Minstrel”?

Há muitas semelhanças entre os dois programas. Mas a diferença está no fato do “Minstrel” ser um sistema para inventar uma história. Portanto, ele tem os objetivos ligados ao ato de escrever, ou seja, tem a noção de que é preciso criar suspense, dar ao leitor tristeza e alegria – numa palavra, prazer. Acontece que a maioria das histórias que escrevemos é uma espécie de versão modificada de nossos próprios sonhos. O “Minstrel”, por exemplo, quando recebe determinado estímulo do mundo exterior, volta-se para a sua memória e tenta recuperar lembranças que possam ajudar no tema sugerido.

O senhor acredita que um computador pode gerar uma idéia melhor do que a do homem?

Depende. Suponhamos que você tem um programa para encontrar diferentes padrões têxteis. O computador pode lhe dar diferentes tipos de padrões, em cores e tecidos diversos. Assim, você fica em melhores condições de escolher, o que seria muito útil se você fosse um designer de tecidos. Mas, atualmente, do meu ponto de vista, o computador pode ter idéia melhor do que o homem, quando tiverem em si o conhecimento completo da situação do mundo naquele momento e em determinado domínio, como, por exemplo, a eletrônica.

O seu laboratório desenvolve também um programa que pode entender a ironia. Como isso é possível?

Este programa entende a ironia, percebe a situação irônica. A ironia é uma situação em que as crenças são violadas. Um exemplo: dois caçadores pegaram dois coelhos – a história é verídica, está nos jornais – e resolveram se divertir, amarrando dinamite nos coelhos. Só que os animais se esconderam debaixo do caminhão dos caçadores com dinamite e tudo… Pois o programa pode entender a ironia da história. Para isso, ele entende que a ironia é uma espécie de jogo com papéis invertidos, crenças revertidas. Voltando aos caçadores, eles pensaram que iam se divertir à custa dos coelhos e acabaram sendo castigados.

Outro programa de suas máquinas pensantes é o chamado “Edison”, criado para produzir inventos. Que espécie de invenções se pode esperar de “Edison”?

Neste programa queremos realmente entender o processo de invenção. Queremos saber, em termos gerais, como o homem chega à invenção, o que deve estar na memória para isto. Sabemos que partimos de certa associação de idéias para chegar a algo completamente novo. Atualmente, por exemplo, “Edison” trabalha em uma porta tipo vaivém, de saloon, que não existia em sua nova memória. Ou seja, é algo novo para ele. Podemos dizer que “Daydreamer” inventa na área de idéias interpessoais. Agora queremos chegar, com “Edison”, a verdadeira invenção na área de objetos mecânicos. Mas ainda estamos longe da grande invenção.

Uma verdadeira revolução está acontecendo no mundo dos computadores em um nível tão fundamental quanto o dos neurônios, as células do sistema nervoso central. Alguns cientistas chamam esta tecnologia de neurocomputadores. Quais as principais diferenças entre o computador que todo mundo conhece e esta nova geração?

Há um grande número de diferenças. Estes neuronetworks (redes de neurônios) são compostos de um grande número de pequenas unidades simples de processamento, dispostas em camadas; cada pequena unidade se comunica com cada uma das outras, passando a informação quando atingem uma espécie de limiar. Eles imitam, de longe, o processo de funcionamento do cérebro e não mais aceitam regras como input (estímulo). Geralmente, eles têm uma face de aprendizado separada, e você pode acrescentar-lhe mais conhecimento. Os neurocomputadores são bons para algumas coisas e péssimos para outras, como para este tipo de memória associativa com o qual estamos trabalhando. Mas já estamos testando programas de neuronetworks em sistemas como o “Daydreamer”.

O que essas máquinas que imitam os nossos neurônios fazem que as anteriores não fazem?

Os modelos de neuronetworks e os modelos comuns, simbólicos, vivem em dois mundos separados. Os neurocomputadores prometem muito no campo do reconhecimento e processamento de sinais. Eles são muito bons em reconhecer diferentes padrões. Por exemplo, uma série de diferentes tipos de ondas de sonar. Eles reconhecem um canhão, um navio, um avião, no sol ou na sombra. Fazem sofisticadas análises do objeto de modo mais apurado que os computadores comuns. O melhor disso tudo é que você não precisa sentar e alimentar o computador com uma série de regras, como no modelo simbólico. Mas há muito ainda a ser pesquisado.

Os neuronetworks, a seu ver, tornam obsoletas as gerações anteriores de computadores?

Eu não sou do tipo que acha que a inteligência artificial está morta por causa dos neuronetworks – ou neuronets, como a gente diz. Os modelos simbólicos podem fazer muita coisa melhor, principalmente no campo das estruturas de dados recorrentes, ou seja, a memória, da organização hierárquica dos dados e podem criar representações explícitas de uma sentença e de uma linguagem. Agora, construir esse tipo de programa no neuronet é difícil, já que ele não tem todas essas características. Por exemplo: no sistema decimal você representa, digamos, o número 3010 com quatro algarismos – 3, 0, 1 e 0. Ao convertê-los ao sistema simbólico dos computadores convencionais, pode muito bem acontecer o que chamamos de ruído – o três ser confundido com o cinco, por exemplo. Nesse caso, o seu número sofre um erro de 2000 dígitos, ou seja, a diferença entre 5010 e 3010. Quanto maior o número, maior o ruído dos dígitos autônomos. No neuronetwork esta representação ganhou vasto aprimoramento. Trata-se de um sistema unitário, que representaria o 3010 com 3010 pauzinhos, como os riscos que um prisioneiro faria na parede da cela. Se ele esquecer de fazer o risquinho num certo dia, não vai fazer muita diferença no final. Isto é, mesmo com ruídos interferindo, o total vai estar mais próximo do número desejado. Em resumo, os dois tipos de representação podem ser muito úteis, se usados para a coisa certa.

Os neuronets são compatíveis com computadores de médio porte já existentes. O sistema sofre alguma limitação pelo fato de o programa ser adaptado aos modelos antigos? Quais são as formas de equipamentos que poderão emergir desta nova tecnologia de computação?

Sim, há limitações na rapidez e na qualidade da informação. Não é difícil entender por quê. O cérebro humano tem cerca de 100 bilhões de neurônios e trabalha numa média de 10 mil interconexões, ou sinapses. Isso significa que cada neurônio está conectado com cerca de outros 10 mil, diretamente, o que por sua vez quer dizer que você tem cerca de um quatrilhão de sinapses. Digamos que você queira assimilar isso em um computador comum. Levaria uma eternidade. Então, você precisa de um hardware (equipamento) especializado, que possa simular o cérebro de modo mais rápido. Já se estuda um novo tipo de biochip para computadores em bases químicas, com estruturas moleculares etc. Há uma série de pesquisas nesse sentido e ainda é muito cedo para saber o que realmente vai funcionar.

Essa nova tecnologia está muito longe de reproduzir as complexas funções do cérebro. Quais são até agora as suas principais limitações?

Estamos, de fato, muito longe do cérebro. Uma das maiores limitações é que as unidades de computação são homogêneas, ou seja, de um único tipo, enquanto o cérebro tem centenas de diferentes tipos de neurônios e uma série de diferentes áreas de atuação; uma área trata da linguagem, outra, da visão etc. Aquelas unidades têm um único peso. Além disso, tem-se ainda um precário entendimento do feedback (realimentação) da máquina. Mas talvez o problema mais profundo tem a ver com as emoções. Se pegássemos o cérebro de um gato e conseguíssemos reproduzi-lo completamente, ainda assim não poderíamos fazer a réplica do gato, fazê-la sentir dor se a cutucarmos com uma faca. Isto é, não sabemos onde reside o estado emocional do cérebro. Os neuronets ainda não são capazes de ter uma conversa com alguém, ou comunicar algumas idéias como o “Daydreamer” faz, ou mesmo o nosso outro programa, o “CRAM”, que lê e aprende lendo as fábulas de Esopo. Este programa é capaz de distinguir a moral da história e usa com clareza o que tiver aprendido na hora de planejar uma ação.

Então, quais os problemas que o laboratório que o senhor dirige enfrentam para adaptar esses programas de “máquinas pensantes” em neurocomputadores?

Um dos maiores problemas é fazer o neuronetwork armazena a armazenar as formas intermediárias de informação. Se eu lhe digo: “Conseguimos uma bolsa na Fundação da Universidade para desenvolver esses projetos”, e dou outra informação sobre essa bolsa, você não apaga aquela primeira informação. Ao contrário, você acrescenta algo mais. Ou, no caso do “Daydreamer”, quando a garota diz não ao convite e ele desenvolve uma espécie de sonho de vingança, há um alto grau de processamento de dados aí. Para desenvolver uma nova situação de vingança, ele precisa fazer vários raciocínios prévios sobre o que pode causar um fracasso idêntico ao dele para a garota que o passou para trás. A outra questão tem a ver com a linguagem científica e filosófica. Será que podemos reduzir a mente ao cérebro? Eu, pessoalmente, acho que não.

No Japão, há pelo menos dez casos de trabalhadores mortos pelos computadores. Há casos semelhantes nos Estados Unidos?

Nos Estados Unidos ocorrem cerca de 50.000 mortes por ano causadas por máquinas. São os acidentes de carro. Esses a que você se refere são semelhantes. Trata-se de máquinas que não podem ser chamadas de robôs. Não tenho conhecimento de nenhum robô que, conscientemente, isto é, tomando a decisão para isso (o que o qualifica como robô), tenha matado algum ser humano até hoje.

Mas, pensando em acidentes daquele tipo, corríamos o risco semelhante com os neurocomputadores, se eles fossem ligados a robôs? Ou seja, eles poderiam ficar loucos, neuróticos ou incontroláveis?

Acho que sim. Eis aí uma questão séria sobre o que pode ser aprendido. O tipo de aprendizado do neuronetwork ainda é muito limitado, comparado com o dos seres humanos. O aparecimento do tipo de robô autônomo – que pode planejar sozinho, pode aprender do meio ambiente exterior – é apenas uma questão de tempo. E ele poderá discordar de você. Poderá dizer: “Pela minha experiência, não acho que devemos fazer assim”. E aí? Quem vai dizer o que a quem? Por isso é importante ter uma ciência da computação e do aprendizado, para que possamos nos entender.

Então o senhor admite que poderia haver uma máquina capaz de se autoprogramar e, conseqüentemente, ter uma inteligência infinita?

Em algum ponto do futuro, eu diria que isso é possível. Mas é muito difícil tentar entender o que é o conhecimento com que temos até agora. E a criação de um sistema do tipo que você mencionou requer este conhecimento. Temos um grupo de pessoas que acredita que o neuronetwork pode aprender automaticamente; mas essas pessoas não entendem muito bem como isso acontece. Podemos dizer que o campo do conhecimento científico do aprendizado ainda tem cerca de 10 anos de idade no máximo. Mas agora você está construindo uma máquina que aprende – e a learning machine muda completamente as regras do jogo. Talvez não possamos acompanhar o raciocínio dessa máquina. Há uma enorme quantidade de pesquisa a ser feita para sabermos do que essas máquinas são capazes.