O lado sinistro da inteligência artificial
Ela pode destruir a humanidade? Entenda o raciocínio por trás dessa previsão — feita por ninguém menos que Stephen Hawking.
Em 2014, o físico britânico Stephen Hawking deu uma declaração polêmica, alertando para os perigos do desenvolvimento iminente de máquinas superinteligentes. Ele disse: “As formas primitivas de inteligência artificial que temos agora se mostraram muito úteis. Mas acho que o desenvolvimento de inteligência artificial completa pode significar o fim da raça humana”. Como diria Vovó Mafalda, Caçarola! Não se trata de uma afirmação no vazio. Nos últimos anos, um número crescente de especialistas – de filósofos a tecnologistas – tem apontado as incertezas trazidas pelo desenvolvimento de máquinas pensantes.
Outro luminar a se pronunciar sobre o assunto foi Elon Musk, sul-africano que fez fortuna ao criar um sistema de pagamentos para internet e agora desenvolve foguetes e naves para o programa espacial americano. Em outubro de 2014, falando a alunos do MIT (Instituto de Tecnologia de Massachusetts), ele lançou um alerta parecido. “Acho que temos de ser muito cuidadosos com inteligência artificial. Se eu tivesse que adivinhar qual é a nossa maior ameaça existencial, seria provavelmente essa”, disse. Para Musk, a coisa é tão grave que ele acredita na necessidade de desenvolver mecanismos de controle, talvez em nível internacional, “só para garantir que não vamos fazer algo idiota”.
Essa preocupação não nasceu ontem. Em 1965, Gordon Moore, cofundador da Intel, notou que a capacidade dos computadores dobrava a cada dois anos, aproximadamente. Agora, pense comigo: como o efeito é exponencial, em pouco tempo conseguimos sair de modestas máquinas de calcular a supercomputadores capazes de simular a evolução do Universo.
Não é pouca coisa. E a chamada “Lei de Moore” não está nem perto de ser revogada. Na verdade, a expectativa é de que ela continue a valer pelo menos nos próximos 20 ou 30 anos – isso se não surgirem outras inovações tecnológicas, saídas da nanotecnologia, que permitam empurrar ainda mais adiante o limite máximo de informação que se consegue processar num único chip.
Atualmente, o supercomputador mais rápido do mundo é o Summit, que foi construído pela IBM e fica no Oak Ridge National Laboratory, nos EUA. Ele é capaz de realizar 148 quatrilhões de operações matemáticas por segundo. Mas não se compara ao cérebro humano. Como o cérebro opera com sofisticados níveis de processamento paralelo, em que várias redes de neurônios trabalham ao mesmo tempo num mesmo problema, ele ainda é melhor que as máquinas de silício. Mas até quando? Alguns tecnólogos acreditam que a ultrapassagem é iminente.
É o caso do inventor americano Ray Kurzweil, que atualmente tem trabalhado em parceria com o Google para desenvolver o campo da IA (inteligência artificial). Ele estima que as primeiras máquinas com capacidade intelectual similar à dos humanos surgirão em 2029. É mais ou menos o horizonte de tempo imaginado por Musk para o surgimento da ameaça. E que ameaça seria essa?
“Uma vez que os humanos desenvolvam inteligência artificial, ela voaria por seus próprios meios, se reprojetando a um ritmo cada vez maior”, sugeriu Hawking. O resultado é que não só as máquinas passariam a ser mais inteligentes que os humanos, como fariam praticamente tudo melhor do que nós. E, caso sejam dotadas de consciência, o que elas farão conosco? Kurzweil prefere pensar que elas nos ajudarão a resolver todos os problemas sociais humanos e se integrarão à nossa civilização, elevando nosso potencial a um nível jamais visto. Mas até ele admite que não há garantias. Máquinas superinteligentes poderiam se voltar contra nós.
“A coisa mais difícil de defender é essa noção da IA não amigável, que seria mais inteligente que nós e defenderia valores que não reconhecemos em nosso sistema moral”, disse Kurzweil numa entrevista em 2012. “Acho que o melhor jeito de nos defendermos é refletir os valores que respeitamos em nossa sociedade hoje, valores como democracia, tolerância, apreciação pelo próximo, liberdade de expressão e por aí vai.” Para ele, máquinas criadas nesse ambiente aprenderiam a cultivar os mesmos valores. “Não é uma estratégia infalível”, diz Kurzweil. “Mas é o melhor que podemos fazer.”
Enquanto Musk sugere um controle sobre o desenvolvimento dessa tecnologia (mas não dá a menor ideia de como implementá-lo), Kurzweil acredita que já passamos o ponto de não retorno – estamos a caminho do que ele chama de singularidade tecnológica. O prêmio a quem atingir a singularidade pode até mesmo ser a própria imortalidade. Aliás, é nisso que está apostando Kurzweil. Ele acredita que, em pouco tempo, será capaz de transferir sua mente para uma máquina e com isso se tornar virtualmente indestrutível. Enquanto esse dia não chega, ele se enche de pílulas para tentar prolongar sua vida ao máximo. Não dá para ficar mais otimista que isso.
Por outro lado, máquinas superinteligentes podem achar os humanos inferiores, uma verdadeira perda de tempo para elas, ou mesmo chegar a uma conclusão a que nós mesmos já chegamos: o único modo de realmente proteger a integridade da biosfera terrestre é se livrar do impacto que a civilização traz sobre ela.
Diante disso, nós especulamos que, em longo prazo, a humanidade poderia simplesmente se mudar da Terra, para preservar a existência de todos e deixar a combalida biosfera se recuperar em paz. Só que as máquinas superinteligentes podem muito bem ter uma ideia mais radical e de implementação mais simples para solucionar o problema. Dica: essa solução não incluiria a humanidade.
Foi diante de todos esses perigos, indo das velhas armas atômicas até a iminente singularidade tecnológica, que o astrônomo real britânico Martin Rees fez uma previsão sombria, em 2003. Segundo ele, as chances de a civilização humana passar incólume pelo século 21 são de no máximo 50%. Vamos decidir nossa sorte no cara ou coroa.