Clique e Assine a partir de R$ 12,90/mês
Tecnologia

Os 6 grandes mitos da inteligência artificial

Ela está em todos os lugares. É capaz de aprender qualquer coisa, vai dominar o mundo – e pode se rebelar contra a humanidade. Ou não é bem assim? Conheça a realidade sobre o presente, e o futuro, da IA.

Texto Bruno Garattoni
Ilustração Jun Ioneda
Design Natalia Sayuri Lara

Mito 1: Ela será mais inteligente do que nós

“Todos os aspectos do aprendizado, ou qualquer outra característica da inteligência, podem em princípio ser descritos de forma tão precisa que é possível simulá-los em uma máquina.” Assim começa o artigo científico que, em 31 de agosto de 1955, apresentou ao mundo um novo conceito: a “inteligência artificial” (IA). O documento (1) era assinado por John McCarthy, cientista da computação da Universidade Dartmouth, nos EUA, e por três monstros sagrados: o engenheiro Nathaniel Rochester (criador do IBM 701, o primeiro computador de uso não militar), e os matemáticos Marvin Minsky (inventor da “rede neural”, em que os circuitos imitam a organização dos neurônios) e Claude Shannon – o gênio que, vinte anos antes, criara a lógica digital binária (que descreve as informações em sequências de números 0 e 1, e é a base de todos os computadores).

Eles queriam descobrir o seguinte: como construir computadores capazes de “usar linguagem, formar abstrações e conceitos, resolver problemas hoje reservados a humanos e aperfeiçoar a si mesmos”. Ou seja, criar uma máquina com inteligência comparável à nossa. E apresentaram um plano otimista – diziam que bastaria um grupo de dez cientistas, trabalhando por dois meses, para entender como chegar lá.

-
Jun Ioneda/Superinteressante

Até hoje, seis décadas depois, não chegamos. Computadores com intelecto igual ou superior ao humano – como o robô HAL 9000, no filme 2001: Uma Odisseia no Espaço – continuam sendo um sonho distante. Mas sempre há quem diga que vai acontecer, é inevitável, basta construir CPUs mais potentes e alimentá-las com mais dados. O americano Ray Kurzweil, pesquisador no Google, é o maior profeta disso. Em 2006, ele escreveu que os computadores domésticos alcançariam o poder cognitivo da mente humana em 2020. Não aconteceu. Nossos PCs e smartphones são bons em várias coisas, mas raciocinar não é uma delas.

Nos últimos dez anos, com a evolução das técnicas de machine learning (leia mais no item 5), os computadores se tornaram capazes de executar tarefas que exigem inteligência específica: eles entendem comandos de voz, reconhecem rostos, recomendam filmes para você assistir e até completam frases em mensagens de email. São exemplos do que os pesquisadores da área chamam de “IA estreita”, ou “IA fraca”: o robô consegue fazer determinadas coisas, mas não é capaz de usar essa habilidade para pensar num contexto maior, de inteligência geral (a chamada “IA forte”, de nível humano). “As máquinas não aprendem os conceitos que estamos tentando ensinar, elas aprendem atalhos para as respostas corretas”, afirma Melanie Mitchell, cientista da computação da Universidade de Portland e autora do livro Artificial Intelligence: A Guide for Thinking Humans (não lançado no Brasil). Um punhado de IAs fracas, mesmo somadas, não equivale a uma IA forte – porque existe uma diferença conceitual entre as coisas.

“A nossa inteligência se baseia na combinação entre um vasto conhecimento sobre o mundo, incluindo coisas que sabemos em um nível inconsciente, e a habilidade de usar e adaptar esse conhecimento. A adaptação é a chave”, diz Mitchell. Raciocinar, afinal, é exatamente isso: modificar radicalmente o próprio conhecimento, indo além do que estava escrito nele, até transcendê-lo – gerando ideias totalmente novas. 

O cérebro é a única máquina capaz de fazer essas coisas. E não sabemos nem como começar a reproduzi-la digitalmente. A ciência sabe quais regiões cerebrais são acionadas quando sentimos alegria ou medo, por exemplo, e consegue enxergar as ondas elétricas disparadas quando você pensa numa palavra. Mas não está nem perto de compreender como esses fenômenos físicos geram a consciência – e como a consciência produz raciocínio. Sequer entendemos o que queremos copiar. “Era mais difícil do que parecia”, admitiu John McCarthy, um dos quatro criadores da IA, 50 anos depois de inventá-la.

Continua após a publicidade

Mito 2: Ela descobre remédios e cura doenças

-
Jun Ioneda/Superinteressante

No final de julho, a IBM e a fundação Michael J. Fox, que faz pesquisas sobre a doença de Parkinson (da qual o ator sofre), anunciaram a criação de um software capaz de prever como os sintomas irão progredir em cada pessoa ao longo dos anos – uma resposta importantíssima, e que os médicos não conseguem dar. Segundo a IBM, o software foi treinado com as informações de 1.400 pacientes, e usou inteligência artificial para criar um modelo que permite antever o que irá acontecer em cada caso.

Mas, se você olhar com atenção os resultados do estudo (2), vai descobrir que o robô não é tão esperto quanto dizem. “O tempo médio para alcançar o estado 8 [o estágio mais severo da doença] partindo do estado 5 foi de dois a 25 anos.” Esse é o tempo médio que, segundo a inteligência artificial, o Parkinson leva para progredir. Você pode ficar mal após dois anos, ou só após 25. Ou seja, a previsão não prevê nada.

Esse não é o único exemplo de IA furada na medicina. Desde o começo da pandemia, foram desenvolvidos mais de 200 algoritmos que usam inteligência artificial para tentar prever a evolução da Covid-19 – e saber se um paciente vai desenvolver a forma severa da doença. Um grupo de 47 cientistas de vários países fez uma revisão detalhada de todos esses trabalhos (3) e constatou o seguinte: nenhuma das 232 ferramentas analisadas alcançou um índice aceitável de precisão. A inteligência artificial não consegue nem diagnosticar Covid olhando imagens do pulmão: um segundo estudo (4), que analisou dezenas de algoritmos criados para isso durante a pandemia, constatou que “nenhum tem possível uso clínico”. O melhor que a IA conseguiu fazer em termos clínicos, até hoje, é detectar câncer de mama com precisão ligeiramente superior à de um médico (5), reduzindo os erros em 5% a 10%.

Em 2015, a IBM criou uma divisão chamada Watson Health, com a missão de revolucionar o tratamento de câncer usando inteligência artificial (Watson é o nome do computador inteligente da empresa, que em 2011 venceu um game show de perguntas e respostas na TV americana). Foi um projeto gigantesco: só para comprar bancos de dados com informações de centenas de milhões de pacientes, que foram usados para treinar a IA, a IBM gastou US$ 4 bilhões.

O novo Watson prometia ajudar os médicos em seus pareceres e sugerir tratamentos mais eficientes. Ele iria fazer isso lendo milhares de estudos científicos (algo que nenhum médico, isoladamente, conseguiria fazer) e cruzando as informações deles com seu enorme banco de dados. Na prática, não funcionou: o robô não era competente ao recomendar tratamentos (6) e também não conseguia compreender as informações fornecidas por médicos e hospitais, que foram abandonando a ferramenta. No fim do ano passado, a IBM “descontinuou” o Watson for Oncology e o Watson for Genomics, seus dois softwares do tipo. Ela continua desenvolvendo o Watson for Drug Discovery, que tenta ajudar de outra forma: usando a IA para desenvolver novos medicamentos.

Além da IBM, existem mais de dez startups tentando fazer isso. A ideia é a seguinte: o software analisa as proteínas e os receptores celulares do corpo humano e os compara com o formato molecular de milhares de substâncias, para tentar encontrar drogas que se encaixem a elas. É um conceito interessante, que pode render frutos – mas ainda não é comprovado. E também não é totalmente novo: trata-se de uma evolução do high throughput screening (HTS), um sistema que usa braços robóticos para misturar e testar substâncias de forma automática e existe desde os anos 1980.

Continua após a publicidade

Mito 3: Ela toma decisões objetivas

A Amazon é a quinta maior empregadora do mundo, com 1,3 milhão de funcionários (só perde para o Walmart e três estatais de petróleo e energia da China). No ano passado, contratou 427 mil pessoas – e teve de analisar vários milhões de currículos, uma tarefa que beira o impraticável. A empresa já tentou usar a inteligência artificial para ajudar nisso. Em 2014, ela desenvolveu um algoritmo que analisou todos os currículos recebidos nos dez anos anteriores, cruzou essas informações com as características dos candidatos que haviam sido contratados, e se tornou capaz de selecionar pessoas para 500 tipos de vaga na empresa.

Mas, quando a Amazon foi testar o robô, descobriu que ele era machista. Discriminava e rejeitava candidatas, simplesmente por serem mulheres. Os engenheiros da Amazon editaram manualmente o algoritmo para remover esse viés, mas aí surgiu outra questão: se o robô havia se tornado machista por conta própria, como garantir que ele não acabaria desenvolvendo outros tipos de preconceito? A empresa perdeu confiança no sistema, que foi abandonado em 2015.

-
Jun Ioneda/Superinteressante

Em 2016, a divisão de pesquisa da Microsoft criou o Tay, um programa de inteligência artificial que conversava com as pessoas no Twitter. Menos de um dia após o lançamento, o robô começou a postar mensagens racistas, machistas e antissemitas, e teve que ser tirado do ar. Obviamente, ele não havia sido programado para escrever nada daquilo – fez tudo por conta própria.

Nos dois casos, o problema era o mesmo: o algoritmo desenvolvera preconceitos a partir dos dados que havia “ingerido”. Na Amazon, ele se tornou machista porque a maioria dos contratados pela empresa, em determinadas vagas, era homem – então o software decidiu que seria melhor descartar as mulheres. E o robô da Microsoft foi alimentado com dados maliciosos: assim que as pessoas entenderam como ele funcionava, começaram a mandar tuítes com mensagens de ódio para o robô – que achou que elas faziam parte de conversas normais. 

A inteligência artificial é construída a partir de dados. E a seleção desses dados, que é feita por mãos humanas, influencia totalmente as decisões da máquina. É o chamado “viés da IA”, uma questão que irá se tornar cada vez mais crítica conforme algoritmos inteligentes forem assumindo posições de decisão na sociedade. Em 2019, cientistas dos EUA analisaram um software usado pelo Hospital Geral de Massachusetts, em Boston, para definir quais pacientes precisam receber mais cuidados (7). Conclusão: o robô discriminava sistematicamente pacientes negros, que só recebiam o tratamento adicional na metade dos casos necessários.

Continua após a publicidade

Mito 4: Ela é incontrolável - e vai nos matar

-
Jun Ioneda/Superinteressante

“O desenvolvimento de uma inteligência artificial total pode significar o fim da espécie humana”, declarou o físico Stephen Hawking em 2014. A IA poderá criar “um ditador imortal, do qual nunca conseguiremos escapar”, afirmou o empresário Elon Musk. Essa tese é bem comum: há inúmeros filmes e livros dizendo que máquinas hiperinteligentes vão escravizar ou exterminar a humanidade. Tanto é assim que até o escritor Isaac Asimov, o maior gênio da ficção científica e autor das “três leis da robótica” (resumidamente: um robô não pode ferir um humano, deve obedecer a ele e pode se sacrificar por ele), chegou a criar histórias em que máquinas ignoram essas regras. O medo de ser morto pela IA é tão universal quanto o desejo de criá-la.

Mas, se você pensar um pouco, perceberá que esse receio não faz sentido. Se um dia os computadores partissem para cima de nós, poderíamos simplesmente desligá-los – ou, no mínimo, passar os sistemas rebeldes para o modo “manual” e então corrigi-los. Basta que incluamos esse modo nas máquinas, o que aliás já é feito.

Vamos pegar um exemplo recente de automação assassina: o avião Boeing 737 Max, em que ações erradas do computador de bordo causaram dois acidentes fatais. Ele tinha um modo de controle manual; os pilotos só não o acionaram (ou não o fizeram com a rapidez necessária) porque não entenderam o que estava acontecendo, já que não haviam recebido treinamento sobre aquela situação e a Boeing omitira informações críticas sobre o avião. Falhas de projeto, e de comunicação, são ameaças muito mais reais do que uma eventual rebelião da IA.

E quem disse que computadores hiperinteligentes, se um dia vierem a existir, vão querer acabar com a humanidade? “Se nós estivéssemos sendo explorados, nos rebelaríamos. Mas as máquinas inteligentes não estarão nessa posição”, diz Drew McDermott, cientista da computação da Universidade Yale e decano das pesquisas sobre IA. Não iremos maltratá-las. E, mesmo se fizermos isso, não haverá consequências.

McDermott cita como exemplo os robôs da empresa Boston Dynamics, famosos no YouTube por sua habilidade de andar e correr. “Para mostrar que eles são estáveis, um funcionário vai lá e chuta o robô. A máquina se recupera e dá uma dançadinha, parece que ela está viva. Mas não está, nem sabe que foi chutada. Ela só sente que perdeu o equilíbrio”, diz McDermott. A IA é conceitualmente incapaz de perceber, entender ou sentir coisas como dor, angústia e injustiça – e, a partir disso, se revoltar contra nós.

O real perigo é que ela seja usada por humanos contra humanos: com o desenvolvimento de robôs militares autônomos, que sejam programados para matar soldados inimigos, ou a criação de algoritmos tortos, que sirvam como justificativa para a discriminação ou exploração de certos grupos (leia mais no item 3).

Continua após a publicidade

Mito 5: Ela é capaz de resolver qualquer coisa

Se você entrar no Google e digitar “inteligência artificial aprende”, ele irá completar a frase com exemplos do tipo “aprende a programar”, “aprende inglês”, “aprende a jogar Mario” ou “aprende a pilotar avião”. Toda hora saem notícias nesse tom, e elas dão uma impressão errada: de que a IA é capaz de aprender qualquer coisa, e se ela for alimentada com grandes quantidades de dados acabará encontrando a resposta para qualquer problema científico – inclusive os mais desafiadores, como a cura do câncer ou o domínio da fusão nuclear. 

Não é assim, porque a IA trabalha de um jeito fundamentalmente diferente: ela aprende a chegar a um resultado previamente definido por você. É assim que as técnicas de machine learning, responsáveis pelo renascimento e aceleração da inteligência artificial nos últimos dez anos, funcionam.

-
Jun Ioneda/Superinteressante

Vamos supor que você está tentando ensinar o robô a reconhecer gatos, por exemplo. Para fazer isso, você o alimenta com fotos de gato (de várias cores, raças e tamanhos), deixa o algoritmo rodando num banco de dados com imagens de gatos e de outras coisas – e ele, por tentativa e erro, vai aprendendo a identificar os bichanos. Quando ele fica bom nisso, você pode ensiná-lo a reconhecer cachorros, e por aí vai. Mas você não pode ensinar coisas que você mesmo não sabe. E a IA não é capaz de encontrá-las magicamente, simplesmente fuçando dados.   

“Quando Copérnico postulou que a Terra girava em torno do Sol, e não o contrário, ele ignorou montanhas de dados e evidências acumuladas através dos séculos”, escreve o pesquisador de IA Erik Larson no livro The Myth of Artificial Intelligence, publicado recentemente nos EUA (ainda não lançado no Brasil). A inteligência artificial, se existisse no século 16, não teria ajudado Copérnico – pelo contrário, diria que ele estava errado (já que ela se basearia em dados do modelo geocêntrico, que era o aceito na época).

E esse raciocínio se aplica a muitas outras coisas. Pense nas inovações mais marcantes do século 20: os antibióticos, a Teoria da Relatividade, a bomba atômica, a descoberta do DNA, os computadores, a internet etc. A inteligência artificial teria inventado ou descoberto alguma dessas coisas, simplesmente analisando dados sobre as coisas que existiam antes? Claro que não. Ela é uma excelente ferramenta para investigar melhor o que já conhecemos – mas não tem, por definição, a capacidade de pensar de formas totalmente novas.

Continua após a publicidade

Mito 6: Ela poderia ter escrito este texto

-
Jun Ioneda/Superinteressante

No ano passado, o jornal inglês Guardian publicou o seguinte título: “Um robô escreveu este artigo inteiro. Você está com medo, humano?”. Abaixo dele, vinha um texto de 6 mil caracteres em que o GPT-3, um software de inteligência artificial desenvolvido pela empresa OpenAI, discorria sobre a vida (“Eu não sou humano. Sou um robô. Um robô pensante”) e apresentava sua missão (“Devo convencer o máximo possível de seres humanos a não ter medo de mim”).

A coisa teve enorme repercussão – gerou ainda mais hype do que a entrevista, publicada em 2019 pela revista Economist, com a versão anterior do software, o GPT-2 (o robô foi convidado a prever o futuro, e disse coisas como “seria bom se nós usássemos a tecnologia com mais responsabilidade”).

Mas nada daquilo era bem o que parecia. O robô que “conversou” com a Economist era rudimentar: ele identificava algumas palavras-chave contidas nas perguntas (8) e então simplesmente regurgitava trechos similares encontrados no seu banco de dados (com 40 GB de textos coletados da internet). E o caso do Guardian era ainda pior: os editores haviam montado um texto fake, combinando pedaços de oito redações escritas pelo robô e dando um belo tapa, cortando e reordenando trechos, para deixá-lo mais lógico e fluido. “Não foi diferente de editar um texto humano”, admitiram.

* * *

Fontes (1) A proposal for the Dartmouth summer research project on artificial intelligence. CE Shannon e outros, 1955. (2) Discovery of Parkinson’s disease states and disease progression modelling: a longitudinal data study using machine learning. K Severson e outros, 2021.(3) Prediction models for diagnosis and prognosis of covid-19: systematic review and critical appraisal. L Wynants e outros, 2020. (4) Common pitfalls and recommendations for using machine learning to detect and prognosticate for COVID-19 using chest radiographs and CT scans. M Roberts e outros, 2021.

(5) International evaluation of an AI system for breast cancer screening. S McKinney e outros, 2020. (6) Assessing Concordance With Watson for Oncology, a Cognitive Computing Decision Support System for Colon Cancer Treatment in Korea. W Lee e outros, 2018. (7) Dissecting racial bias in an algorithm used to manage the health of populations. Z Obermeyer e outros, 2019. (8) thegradient.pub/gpt2-and-the-nature-of-intelligence

Continua após a publicidade
Tags Relacionadas