“ChatGPT tem viés de esquerda, diz estudo.” Não é bem assim…
Essa notícia correu a internet. Mas o estudo no qual se baseia parece ter algum problema: quando outros cientistas tentaram reproduzir o teste, o ChatGPT se comportou de outra forma
O que a notícia dizia:
O robô de conversação dá respostas alinhadas a políticas econômicas e sociais de esquerda. É o que afirma um estudo publicado por três pesquisadores da Fundação Getúlio Vargas e da University of East Anglia (Reino Unido).
Qual é a verdade:
O estudo (1) afirma que o ChatGPT tem “viés político favorável aos Democratas nos EUA, a Lula no Brasil, e ao Partido Trabalhista no Reino Unido”. Os autores dizem que isso foi medido fazendo 62 perguntas sobre política e economia ao robô, e repetindo cada uma 100 vezes.
Mas parece haver algo errado. Dois cientistas da Universidade de Princeton tentaram reproduzir os resultados, fazendo as mesmas perguntas (2) – e o ChatGPT se recusou a responder 53% delas. O ChatGPT Plus (que roda o algoritmo GPT-4, mais avançado) rejeitou 84%.
Fontes (1) More human than human: measuring ChatGPT political bias. F Motoki e outros, 2023. (2) Does ChatGPT have a liberal bias? A Narayanan e S Kapoor, 2023.