Ela está em todos os lugares. É capaz de aprender qualquer coisa, vai dominar o mundo – e pode se rebelar contra a humanidade. Será mesmo? Saiba a real sobre o presente, e o futuro, da IA.
A evolução das técnicas de machine learning tornou os computadores capazes de executar tarefas de inteligência específica: eles entendem comandos de voz, reconhecem rostos, recomendam filmes e até completam frases em mensagens de email.
Isso é uma“IA fraca”: o robô consegue fazer determinadas coisas, mas não é capaz de usar essa habilidade para pensar num contexto maior, de inteligência geral, como nós.
Nossa inteligência envolve a habilidade de usar e adaptar o conhecimento adquirido. Raciocinar, afinal, é modificar o que sabemos, gerando ideias novas.
A IA não é capaz de fazer essas coisas. E não sabemos nem como começar a reproduzir o cérebro humano digitalmente. Sequer entendemos o que queremos copiar.
Em 2014, a Amazon tentou usar uma IA para fazer contratações. Um algoritmo leu todos os currículos recebidos nos últimos dez anos e cruzou essas informações com as características dos contratados para selecionar pessoas para 500 tipos de vaga.
O robô discriminava e rejeitava candidatas simplesmente por serem mulheres. Os engenheiros da Amazon editaram manualmente o algoritmo para remover esse viés. Mas a empresa perdeu confiança no sistema, que foi abandonado em 2015.
Já em 2016, a Microsoft criou um programa de IA que conversava com pessoas no Twitter. Menos de um dia após o lançamento, o robô começou a postar mensagens racistas, machistas e antissemitas, e teve que ser tirado do ar. Ele não foi programado para escrever isso, obviamente.
Nos dois casos, o problema era o mesmo: o algoritmo desenvolveu preconceitos a partir dos dados que havia “ingerido”. Na Amazon, se tornou machista porque a maioria dos contratados, em determinadas vagas, eram homens – então ele decidiu que seria melhor recusar as mulheres.
E o robô da Microsoft foi alimentado com dados maliciosos: assim que as pessoas entenderam como ele funcionava, começaram a mandar tuítes com mensagens de ódio para o robô – que achou que elas faziam parte de conversas normais.
A inteligência artificial é construída a partir de dados. A seleção desses dados, que é feita por mãos humanas, influencia totalmente as decisões da máquina. O “viés da IA” é uma questão cada vez mais crítica conforme algoritmos inteligentes tomam mais decisões na sociedade.
Essa tese é bem comum: há inúmeros filmes e livros dizendo que máquinas inteligentes vão escravizar ou exterminar a humanidade – vide o clássico 2001: Uma Odisseia no Espaço. Mas, se pensar um pouco, vai ver que esse receio não faz sentido.
Parece ridículo, mas se um dia os computadores partissem para cima de nós, poderíamos simplesmente desligá-los – ou, no mínimo, passar os sistemas rebeldes para o modo “manual” e então corrigi-los. Basta incluir esse modo nas máquinas, o que aliás já é feito.
A IA é conceitualmente incapaz de perceber, entender ou sentir coisas como dor, angústia e injustiça – e, a partir disso, se revoltar contra nós. O real perigo é seu uso por humanos contra humanos: robôs militares autônomos, programados para matar soldados inimigos, por exemplo.
Toda hora saem notícias nesse tom, e elas dão uma impressão errada: de que a IA é capaz de aprender qualquer coisa, e se ela for alimentada com grandes quantidades de dados acabará encontrando a resposta para tudo.
Não é assim. A IA só aprende a chegar a um resultado previamente definido por você. É assim que as técnicas de machine learning, responsáveis pelo renascimento e aceleração da inteligência artificial nos últimos anos, funcionam.
Por exemplo: Se está tentando ensinar o robô a reconhecer gatos, você alimenta a IA com fotos de gatos (de várias cores, raças e tamanhos). O algoritmo, por tentativa e erro, aprende a diferenciar os felinos de outros bichos e objetos.
Não dá para ensinar coisas que você mesmo não sabe. E a IA não é capaz de descobri-las sozinha, só fuçando dados. Ela é uma excelente ferramenta para investigar melhor o que já sabemos. Mas não tem a capacidade de pensar de formas totalmente novas.
A IA daria o seu melhor, mas o texto não ficaria muito bom (modéstia à parte). O jornal inglês Guardian até tentou. Em 2020, publicaram o texto: “Um robô escreveu este artigo inteiro. Você está com medo, humano?”.
Abaixo dele, vinha um texto de 6 mil caracteres escrito pelo GPT-3, uma versão primitiva do ChatGPT. O texto foi “escrito” pela IA, mas recebeu um trato humano antes de ser publicado.
Do mesmo jeito que os editores editariam um texto humano ruim, eles mexeram no texto da IA. Eles combinaram pedaços de oito redações escritas pelo robô, cortaram e reordenaram trechos, para deixá-lo mais lógico e fluido.
Três dias depois, soltaram um novo texto: “Um humano escreveu este artigo. Você não deveria ter medo do GPT-3”. Em que dizem que a tecnologia é impressionante, “mas inútil sem contribuições e edições humanas”.
super.abril.com.br
Veja essa e outras matérias em