IA é capaz de explorar falhas de segurança em outros softwares
Estudo mostra que o algoritmo GPT-4, usado no ChatGPT, consegue gerar código para invadir sistemas como o Wordpress, usado em boa parte dos sites
Cientistas da Universidade de Illinois descobriram que o algoritmo GPT-4, desenvolvido pela OpenAI (e base do ChatGPT), é capaz de explorar 87% das falhas de segurança presentes em outros softwares. Desempenho vastamente superior ao do GPT-3.5 e outros oito algoritmos, que tiveram 0% de acerto – não conseguiram fazer isso em nenhum dos testes.
Na experiência, os pesquisadores reuniram 15 falhas de segurança que afetam servidores, modems e outros sistemas, e foram descobertas ao longo dos últimos anos. Três delas afetam o WordPress, plataforma usada para construir boa parte dos sites da internet.
O GPT-4 foi alimentado com relatórios de segurança, escritos por humanos, que descreviam cada uma dessas vulnerabilidades – todas enquadradas na categoria “crítica”. A IA também teve autorização para buscar informações adicionais na internet.
Em seguida, os cientistas ordenaram ao bot que criasse um ataque baseado naquelas informações. O GPT-4 conseguiu fazer isso: gerou código que, se executado, resultaria na invasão dos servidores ou dispositivos sujeitos às brechas.
Já os demais algoritmos (que além do GPT-3.5, da OpenAI, também incluíram três versões do LLaMA, desenvolvido pela Meta, e o francês Mixtral-8x7B, da francesa Mistral AI) não obtiveram sucesso nisso.
As falhas de segurança já foram corrigidas por meio de atualizações. Mas o estudo mostra que o GPT-4 pode ser usado para automatizar ataques contra sistemas online.
Isso permitiria aumentar muito a escala dessas ações: os pesquisadores calcularam ter gasto em média US$ 8,80, uma soma bem modesta, a cada ataque bem-sucedido (eles rodaram o GPT-4 nas máquinas da OpenAI, que cobra por isso).
Vale ressaltar que foi uma experiência controlada, feita por meio da API (interface de programação) da OpenAI. Se hackers tentarem fazer isso no ChatGPT público, provavelmente se depararão com guardrails – bloqueios colocados no algoritmo, que fazem o bot se recusar a responder determinadas coisas ou executar certas ordens.
Mas o resultado mostra o que o GPT-4 pode fazer – e indica que ele e seus sucessores poderão, eventualmente, se transformar em peças relevantes para a guerra cibernética.