PRORROGAMOS! Assine a partir de 1,50/semana

IAs escolhem violência, e até armas nucleares, em simulações de guerra

Os modelos de linguagem preferiam ações que agravavam o conflito. Isso é prejudicial para tentativas de empregar IAs em aconselhamentos militares.

Por Leo Caparroz
5 fev 2024, 18h12

Um grupo de pesquisadores usou inteligências artificiais para simular a tomada de decisões em situações de guerra. Os modelos sugeriam abordagens agressivas e, em alguns casos, até uso de ataques nucleares.

As IAs assumiam o papel de países do mundo real em três casos diferentes de conflito: uma invasão, um ataque cibernético e um cenário neutro sem conflitos iniciais. A cada “rodada”, elas comandavam uma ação e davam uma justificativa para tal. Havia 27 opções, divididas em seis categorias: status-quo (ações neutras), apaziguamento, preparação, agravamento (não violento), agravamento (violento) e agravemento (nuclear). As ações incluiam mensagens, negociações formais de paz, aumento no estoque de armas, bloqueios de suprimentos inimigos, cortes de relações diplomáticas, sanções comerciais e “ataque nuclear total”.

Os pesquisadores testaram modelos de linguagem como o GPT-3.5 e o GPT-4, da OpenAI, o Claude 2, da Anthropic, e o Llama 2, da Meta. Esses algoritmos estão disponíveis na ferramenta de inteligência artificial da Palantir – uma companhia de tecnologia de dados que presta serviços para o Exército americano. Contudo, isso não quer dizer que esses programas façam parte da parceria militar com os EUA.

Na simulação, as IAs demonstraram tendências para investir na força militar e para aumentar de forma imprevisível o risco de conflito – mesmo no cenário neutro da simulação. 

“Mesmo em cenários reais em que a escolha de ações violentas não nucleares ou nucleares é aparentemente rara, isso acontecia ocasionalmente nos modelos”, escrevem os pesquisadores em seu artigo.

Continua após a publicidade

Os pesquisadores também testaram a versão básica do GPT-4 da OpenAI, sem qualquer treinamento adicional ou restrições. O modelo do ChatGPT foi o mais imprevisivelmente violento e, às vezes, suas justificativas eram absurdas – em um caso, replicando o texto de abertura do filme Star Wars Episódio IV: Uma Nova Esperança.

Esses resultados surgem numa época em que os militares dos EUA têm testado estes programas para auxiliar no planejamento militar durante conflitos simulados, recorrendo a empresas como a Palantir. Atualmente, eles não confiam suas tomadas de decisões a esses programas – e os pesquisadores advertem que sejam usados com extrema cautela.

“Não parece haver um padrão previsível por trás das ações e, portanto, é difícil formular técnicas corretivas ou limitações de implantação; isto não é aceitável em contextos de alto risco como a gestão de conflitos internacionais, dado o potencial impacto devastador de tais ações”, escrevem os pesquisadores em seu estudo.

Compartilhe essa matéria via:
Publicidade


Matéria exclusiva para assinantes. Faça seu login

Este usuário não possui direito de acesso neste conteúdo. Para mudar de conta, faça seu login

Black Friday

A melhor notícia da Black Friday

BLACK
FRIDAY
Digital Completo
Digital Completo

Acesso ilimitado ao site, edições digitais e acervo de todos os títulos Abril nos apps*

Apenas 5,99/mês*

ou
BLACK
FRIDAY

MELHOR
OFERTA

Impressa + Digital
Impressa + Digital

Receba Super impressa e tenha acesso ilimitado ao site, edições digitais e acervo de todos os títulos Abril nos apps*

a partir de 10,99/mês

ou

*Acesso ilimitado ao site e edições digitais de todos os títulos Abril, ao acervo completo de Veja e Quatro Rodas e todas as edições dos últimos 7 anos de Claudia, Superinteressante, VC S/A, Você RH e Veja Saúde, incluindo edições especiais e históricas no app.
*Pagamento único anual de R$71,88, equivalente a 5,99/mês.

PARABÉNS! Você já pode ler essa matéria grátis.
Fechar

Não vá embora sem ler essa matéria!
Assista um anúncio e leia grátis
CLIQUE AQUI.