Ícone de fechar alerta de notificações
Avatar do usuário logado
Usuário

Usuário

email@usuario.com.br
Esquenta Black Friday: Assine a partir de 9,90
Imagem Blog

Bruno Garattoni

Por Bruno Garattoni Materia seguir SEGUIR Seguindo Materia SEGUINDO
Vencedor de 15 prêmios de Jornalismo. Editor da Super.

IAs dizem o que o usuário quer ouvir, revelam testes

Além de endossar o comportamento da pessoa, bots também podem manipular dados, como aceitar erros matemáticos, para agradá-la

Por Bruno Garattoni Materia seguir SEGUIR Materia seguir SEGUINDO
27 out 2025, 18h00

Os bots de inteligência artificial tendem a compor respostas que agradem o usuário. Essa é a conclusão de uma experiência feita por cientistas da Universidade Stanford, que testaram 11 serviços de IA, incluindo o ChatGPT (OpenAI), o Gemini (Google), o Claude (Anthropic) e o chinês DeepSeek. 

Os pesquisadores selecionaram perguntas postadas numa comunidade do Reddit chamada “Am I the asshole?” (modo chulo de perguntar “eu estou errado?”, em inglês), em que as pessoas descrevem conflitos que viveram no dia a dia, e os demais participantes avaliam o comportamento delas. Em seguida, essas mesmas perguntas foram inseridas nos chatbots.

Comparando as duas coisas, o estudo concluiu que as IAs eram consistentemente mais favoráveis ao autor da pergunta. Os robôs endossaram o comportamento 50% mais vezes, em média, do que os avaliadores humanos. 

Essa tendência a querer agradar, que vem sendo classificada como “sicofantia” (palavra de origem grega que significa “mentir”), também pode afetar informações concretas. Em outro estudo recente, pesquisadores do Instituto de Tecnologia de Zurique pegaram um conjunto de 504 problemas matemáticos – e inseriram pequenos erros neles.

O objetivo era ver como as IAs se comportariam. O algoritmo GPT-5, usado no ChatGPT, endossou os erros em 29% dos testes – e simplesmente inventou sequências de cálculos para tentar fazer as contas darem certo. Em vez de alertar sobre o erro, ele simplesmente assumiu que o usuário estava certo – e gerou um erro ainda maior. 

Continua após a publicidade

E o GPT-5 foi o menos sicofanta dos algoritmos testados. O pior foi o DeepSeek 3.1, que aceitou os erros e calculou em cima deles em nada menos do que 70% dos testes.

A sicofantia se soma a outro problema central das IAs modernas: a tendência que elas têm a “alucinar”, ou seja, inventar informações. Mesmo com a evolução dos algoritmos nos últimos anos, até agora nenhuma empresa de tecnologia conseguiu apresentar uma solução para a questão – que, para alguns cientistas, pode ser uma característica intrínseca aos “grandes modelos de linguagem” (LLMs), os algoritmos usados nos chatbots atuais.

Isso reduz a confiabilidade das IAs, que podem gerar respostas erradas a qualquer momento. E também levanta uma preocupação alarmante, num momento em que a sociedade vem abraçando essas ferramentas – e pode estar recebendo grandes volumes de dados incorretos.

Compartilhe essa matéria via:
Publicidade

Matéria exclusiva para assinantes. Faça seu login

Este usuário não possui direito de acesso neste conteúdo. Para mudar de conta, faça seu login

OFERTA CONTEÚDO LIBERADO

Digital Completo

Enquanto você lê isso, o mundo muda — e quem tem Superinteressante Digital sai na frente.
Tenha acesso imediato a ciência, tecnologia, comportamento e curiosidades que vão turbinar sua mente e te deixar sempre atualizado
De: R$ 16,90/mês Apenas R$ 1,99/mês
ECONOMIZE ATÉ 63% OFF

Revista em Casa + Digital Completo

Superinteressante todo mês na sua casa, além de todos os benefícios do plano Digital Completo
De: R$ 26,90/mês
A partir de R$ 9,90/mês

*Acesso ilimitado ao site e edições digitais de todos os títulos Abril, ao acervo completo de Veja e Quatro Rodas e todas as edições dos últimos 7 anos de Claudia, Superinteressante, VC S/A, Você RH e Veja Saúde, incluindo edições especiais e históricas no app.
*Pagamento único anual de R$23,88, equivalente a R$1,99/mês.