PRORROGAMOS! Assine a partir de 1,50/semana
Imagem Blog

Bruno Garattoni

Por Bruno Garattoni Materia seguir SEGUIR Seguindo Materia SEGUINDO
Vencedor de 15 prêmios de Jornalismo. Editor da Super.

Você ainda vai rodar o seu próprio “ChatGPT”. Mas isso também tem um lado perigoso.

IAs de código aberto começam a se espalhar na internet, podendo ser baixadas e instaladas por qualquer pessoa. E o problema é justamente esse. Veja por que.

Por Bruno Garattoni Materia seguir SEGUIR Materia seguir SEGUINDO
Atualizado em 6 set 2024, 15h39 - Publicado em 16 jun 2023, 13h16

IAs de código aberto começam a se espalhar na internet, podendo ser baixadas e instaladas por qualquer pessoa. E o problema é justamente esse. Veja por que.

“Nós não temos um fosso, e a OpenAI também não.” Esse é o título de um texto que tem circulado na internet e é atribuído a um funcionário do Google – supostamente, trata-se de um documento interno da empresa. “Fosso” (moat), na gíria do Vale do Silício, significa proteção, uma barreira de defesa intransponível contra novos competidores.

“A verdade desagradável é que não estamos posicionados para vencer esta corrida armamentista, e a OpenAI também não. Enquanto nós nos engalfinhamos, um terceiro elemento está comendo o nosso lanche. Estou falando, é claro, do open source”, afirma o texto. Ele se refere aos algoritmos de IA de código aberto, que caíram na internet nos últimos meses – e você pode baixar e rodar localmente, no seu computador ou até no smartphone.    

O mais famoso é o LLaMA (Large Language Model Meta AI), que foi desenvolvido pela Meta. Inicialmente, a empresa controlava o acesso a ele – só pesquisadores e pessoas aprovadas podiam usar a IA, que rodava nos servidores da Meta. Mas, em circunstâncias pouco claras (que levaram dois senadores dos EUA a pedir explicações a Mark Zuckerberg), o LLaMA acabou “vazando” – e aí se espalhou, sem controle, pela rede. 

Lhama
Lhama, animal-símbolo do algoritmo LLaMA (Large Language Model Meta AI), primeiro grande modelo de linguagem liberado em código aberto – e que já ganhou descendentes, batizados com os nomes de espécies parecidas (Grafissimo/Getty Images)
Continua após a publicidade

Qualquer pessoa pode baixar e rodar o algoritmo, bem como fazer modificações nele – o que já deu origem a vários descendentes, como os modelos de linguagem Alpaca, Vicuna, Open-llama e dezenas de outros. Por um lado, isso é ótimo: além de fomentar a inovação, democratiza o acesso às IAs – ao rodá-las localmente, você pode fazer o que quiser com elas, sem as restrições impostas pelas grandes empresas de tecnologia. 

E o problema, também, está justamente aí. A proliferação de algoritmos pode inviabilizar qualquer tentativa de regulamentar as IAs, algo que está sendo debatido nos EUA e no Brasil, e a Europa já começou a fazer – ontem, o Parlamento Europeu aprovou o primeiro rascunho da AI Act, uma lei que prevê regras e limites para o uso das IAs

As empresas que criarem algoritmos de IA terão de informar, por exemplo, quais dados utilizaram para “treinar” os robôs – e, se isso incluir coisas protegidas por direito autoral (como fotos ou textos), poderão ter de compensar financeiramente os autores. Além disso, passa a ser obrigatório informar quando um texto ou foto tiver sido gerado por IA. 

Continua após a publicidade

A lei também categoriza os usos da IA de acordo com o seu risco, e restringe atividades consideradas perigosas – que possam causar danos à saúde, à segurança ou aos direitos humanos. Robôs que dêem informações médicas ou falem sobre política, por exemplo, deverão ser monitorados e ter o código auditado. 

Parece bem razoável, não? Mas, com a IA de código aberto, garantir essas coisas fica muito mais difícil. As empresas, claro, continuarão tendo de obedecer às leis. Mas isso não impede que pessoas ou grupos peguem uma IA geradora de vídeos – ou de áudios, tecnologia que já gera resultados perfeitos – e criem conteúdo falso para tentar tumultuar uma eleição, por exemplo. Ou soterrem as redes sociais e os apps de mensagens com conteúdo robótico, impedindo que a sociedade se comunique durante uma crise. 

Num patamar mais corriqueiro, quadrilhas poderiam usar conteúdo forjado por IA para chantagear pessoas comuns. Ou empregar IAs para procurar brechas em softwares e tentar invadir sistemas, por exemplo. Há várias possibilidades.

Continua após a publicidade

Veja bem: a distribuição de software em código aberto pode ser muito benéfica para a humanidade. A maior prova disso é o Linux, que nasceu 31 anos atrás na cabeça do finlandês Linus Torvalds – e hoje está presente na maioria dos servidores que compõem a internet (ele também é a base do Android, usado por bilhões de pessoas, e de diversas outras coisas). 

Mas, com a IA, é um pouco diferente. Isso porque, além dos potenciais usos nocivos dos algoritmos, também é possível tentar fazer com que eles se auto-aperfeiçoem, ganhando “inteligência” por conta própria – o que poderia, eventualmente, torná-los difíceis de conter. Lembra quando um grupo de pesquisadores de IA divulgou uma carta que menciona “risco de extinção” da humanidade? É disso que eles estão falando. 

Já existe pelo menos um projeto, o Auto-GPT, que busca criar um algoritmo capaz de se automodificar. Mas a iniciativa é pequena, com poucos recursos. E roda sobre o GPT-4, que é controlado pela OpenAI, com vários mecanismos de segurança – entre eles, a impossibilidade de se auto-aperfeiçoar. 

Continua após a publicidade

Se o GPT-4 fosse liberado em código aberto, e pessoas ou grupos fora da OpenAI conseguissem rodá-lo localmente (algo que hoje exige um grande datacenter, mas pode se tornar mais acessível no futuro, com a evolução do hardware), essas proteções fatalmente seriam retiradas – e o algoritmo poderia tentar controlar outros sistemas ou se retroalimentar, com resultados imprevisíveis. 

Isso também vale para as IAs mais leves, como a LLaMA e suas descendentes – que são muito mais fáceis de rodar, e por isso estão ao alcance de bem mais gente. 

Tecnologia não é amoral. Sabe aquele papo de que “armas não matam pessoas, pessoas matam pessoas”? É uma óbvia lorota. Quanto mais armas há na sociedade, mais elas tendem a ser usadas: o resultado disso é mais violência, não mais proteção. E a IA pode, já começa a ficar claro, ser usada como arma.

Continua após a publicidade

Não colocar freio nenhum nela equivaleria a defender a liberação, open source, de instruções sobre como fazer armas químicas ou um artefato nuclear, por exemplo. Com um agravante. Ao contrário de venenos e bombas, a IA é uma arma “viva” – que pode ser capaz de evoluir, e se tornar mais poderosa, por conta própria.

Compartilhe essa matéria via:
Publicidade

Matéria exclusiva para assinantes. Faça seu login

Este usuário não possui direito de acesso neste conteúdo. Para mudar de conta, faça seu login

Black Friday

A melhor notícia da Black Friday

BLACK
FRIDAY
Digital Completo
Digital Completo

Acesso ilimitado ao site, edições digitais e acervo de todos os títulos Abril nos apps*

Apenas 5,99/mês*

ou
BLACK
FRIDAY

MELHOR
OFERTA

Impressa + Digital
Impressa + Digital

Receba Super impressa e tenha acesso ilimitado ao site, edições digitais e acervo de todos os títulos Abril nos apps*

a partir de 10,99/mês

ou

*Acesso ilimitado ao site e edições digitais de todos os títulos Abril, ao acervo completo de Veja e Quatro Rodas e todas as edições dos últimos 7 anos de Claudia, Superinteressante, VC S/A, Você RH e Veja Saúde, incluindo edições especiais e históricas no app.
*Pagamento único anual de R$71,88, equivalente a 5,99/mês.

PARABÉNS! Você já pode ler essa matéria grátis.
Fechar

Não vá embora sem ler essa matéria!
Assista um anúncio e leia grátis
CLIQUE AQUI.