E se surgisse uma máquina consciente?
Robôs desse tipo iriam precisar de um salário e seriam capazes de aumentar a qualidade de vida e o PIB mundial – ou elevar o desemprego de vez.
Não foi desta vez. Em junho, um engenheiro do Google afirmou que uma inteligência artificial com que trabalhava havia adquirido consciência – mas a história revelou-se um caô. As supostas provas eram uma seleção muito bem editada de conversas, feita para parecer que a IA realmente havia adquirido consciência e temia pela própria “morte” ao ser desligada. O funcionário acabou afastado do cargo.
Mas e se fosse um fato? E se surgisse uma inteligência artificial de verdade, capaz de pensar como um humano? A primeira opção que vem à mente é um cenário catastrófico, ao estilo Matrix ou Exterminador do Futuro – em que máquinas com quem não podemos concorrer intelectualmente escravizam ou eliminam a humanidade.
Stephen Hawking (1942-2018) afirmou em 2014 à rede de TV BBC que “o desenvolvimento de uma inteligência artificial plena pode dar fim à raça humana”. Hawking se refere a máquinas conscientes de fato. Elas são o que se denomina inteligência artificial geral – também chamada de “forte”, ou “verdadeira”.
Em contrapartida, existem as inteligências artificiais limitadas, ou fracas. Essas fazem parte do cotidiano há um bom tempo: estamos falando de programas que comandam drones militares autônomos, que determinam se o seu cartão bancário ganha ou perde limite e até se você é ou não um bom candidato para emprego. Alguns desses programas, inclusive, fazem uso de redes neurais, criadas para simular de alguma forma a função das sinapses entre os neurônios na mente humana.
Mas as redes neurais são sempre criadas com algum propósito em mente – e limitadas a esse propósito. Cada programa de inteligência artificial é escrito para fazer um trabalho específico, e consegue melhorar esse trabalho calibrando suas decisões por tentativa e erro (o tal machine learning, ou “aprendizado de máquina”). Mas um drone com machine learning jamais vai decidir que prefere ser um aspirador de pó.
A IA que virou notícia por ter “criado consciência” é um chatbot. Sua função é justamente conversar. Ela pode até tapear as pessoas, e dizer coisas que se esperaria de uma IA verdadeira. Mas não está realmente pensando; só agindo conforme sua programação.
Engenheiros da computação que trabalham com inteligência artificial, em sua imensa maioria, acham a ideia de uma IA geral e consciente não só perigosa como ridícula. Mas não quer dizer que ninguém no mundo ainda está pensando nisso. Dois pesquisadores que não trabalham com computadores, mas com humanos – os neurologistas António Damásio e Kingson Man –, propuseram, em 2019, uma forma de chegar a uma máquina que poderia, eventualmente, aprender a ser humana.
O primeiro ponto é que ela seria mais parecida com a visão de Isaac Asimov, autor do livro Eu, Robô (1950), do que com um chatbot: seu cérebro eletrônico precisaria, idealmente, estar instalado em um corpo humanoide. Não é possível conceber uma inteligência como a nossa sem esse recurso, porque ela não poderia compreender para valer a materialidade do mundo real sem explorá-lo. O corpo dá uma dimensão concreta (e não verbal) de conceitos como espaço e movimento; ele é essencial para intermediar a relação entre nosso cérebro e o ambiente.
Segundo ponto: esse corpo precisa simular, da melhor forma possível, a condição de estar vivo. Uma palavra-chave aqui é homeostase, um termo da biologia que em grego significa “permanecer igual”. Ela se refere a uma característica central de qualquer organismo, até as bactérias mais simples: a busca por manter as condições químicas e físicas em seu interior, como pressão arterial ou oxigenação do sangue, sempre em níveis estáveis – não importa o que aconteça ao redor.
Em última instância, o instinto de manter a homeostase é o instinto de autopreservação. Um robô motivado pela própria sobrevivência – pela manutenção de si mesmo, mais do que por um objetivo externo – automaticamente teria impulsos similares aos humanos, como buscar fontes de energia e evitar ferimentos. E, dessa maneira, também aprenderia a pensar como nós. Afinal, todo o processo de evolução por seleção natural premia seres bons em sobreviver e se reproduzir. E foi esse processo que moldou nosso intelecto.
Uma das primeiras coisas que esse robô aprenderia é que se revoltar com as pessoas faria com que ele fosse destruído. Se muitos deles existissem, talvez pudessem decidir se unir contra a humanidade por verem uma chance razoável de sucesso (afinal, seres humanos também vão para a guerra, frequentemente motivados). Mas por que o fariam? A maioria das pessoas não passa o dia planejando uma revolta. Pelo menos, não sem um bom motivo, como a escravidão. Ou seja: máquinas conscientes deveriam ser remuneradas de alguma maneira que lhes satisfizesse.
Os desdobramentos sociais e econômicos de uma IA geral vão muito além da improvável decisão espontânea de destruir nossa civilização. Por exemplo: se esses robôs começassem a realizar tarefas puramente intelectuais com mais eficácia e rapidez do que nós, eles poderiam tornar obsoletas uma série de profissões que exigem mais cérebro do que braço (da mesma forma que robôs de linha de montagem tiraram o emprego de operários ao longo do século 20).
Essa automação universal pode gerar dois cenários: uma utopia em países desenvolvidos – onde a população poderia ter jornadas de trabalho menores e receber assistência financeira do Estado –, e uma distopia em países mais pobres, em que humanos padeceriam no desemprego, substituídos de vez pela tecnologia.
Robôs mais inteligentes do que nós poderiam encontrar soluções inovadoras para questões complexas, como evitar o aquecimento global ou fazer viagens espaciais de longa distância, algo inviável com as tecnologias disponíveis hoje. Eles teriam potencial para aumentar a qualidade de vida e o PIB mundial num grau inédito, mas isso nos traz de volta ao problema da distribuição: os humanos mais pobres chegariam a se beneficiar dos frutos dessa tecnologia?
Ou seja: os problemas de um mundo com inteligência artificial senciente talvez passassem longe de um apocalipse cinematográfico, e fossem versões amplificadas de problemas que existem hoje. A questão, como sempre, não é a tecnologia em si, mas como nós decidimos lidar com ela. Especialmente neste caso – em que ela também pode decidir como
lidar conosco.