PRORROGAMOS! Assine a partir de 1,50/semana
Imagem Blog

Bruno Garattoni

Por Bruno Garattoni Materia seguir SEGUIR Seguindo Materia SEGUINDO
Vencedor de 15 prêmios de Jornalismo. Editor da Super.

Ferramenta impede a manipulação de imagens por IA

Software criado pelo MIT adiciona elementos invisíveis nas fotos, impedindo que os algoritmos de inteligência artificial consigam ler ou modificar o conteúdo delas; no futuro, esse tipo de proteção pode ser essencial para as redes sociais

Por Bruno Garattoni Materia seguir SEGUIR Materia seguir SEGUINDO
Atualizado em 6 set 2024, 15h38 - Publicado em 10 ago 2023, 16h14

Software criado pelo MIT adiciona elementos invisíveis nas fotos, impedindo que os algoritmos de inteligência artificial consigam ler ou modificar o conteúdo delas; no futuro, esse tipo de proteção pode ser essencial para as redes sociais; veja por que

A ferramenta se chama PhotoGuard e foi liberada em código aberto pelos criadores, que também publicaram um artigo científico explicando como ela funciona. O objetivo do software é impedir que imagens reais sejam alteradas com inteligência artificial – ou que a IA seja usada para gerar fotos totalmente falsas, o que deve se tornar um problema crescente no futuro. 

Os algoritmos de IA que geram ou modificam imagens, como o Midjourney e o Stable Diffusion, conseguem fazer isso porque foram “treinados”: alimentados com grande quantidade de fotos e ilustrações, copiadas da internet. O PhotoGuard interfere nesse processo

A ferramenta do MIT analisa as fotos da mesma forma que o Midjourney ou o Stable Diffusion fariam – e aí adiciona a elas sequências de dados que confundem esses algoritmos, impedindo que funcionem corretamente. 

O método foi batizado de “ataque de difusão” (referência à difusão, técnica de análise e síntese visual usada pelas IAs geradoras de imagens). As alterações são imperceptíveis a olho nu – mas, segundo os criadores do PhotoGuard, suficientes para impedir que IAs alterem a foto (veja exemplo abaixo).

Continua após a publicidade

 

ia-mit-fotos
Esquema de funcionamento da ferramenta PhotoGuard. (Massachusetts Institute of Technology/Reprodução)

Veja a foto original, de dois homens numa quadra de tênis. No teste, uma IA é usada para manipular a imagem, trocando a roupa dos dois protagonistas e os inserindo em outro cenário, um salão de baile. 

Porém, quando essa ordem é executada numa foto protegida pelo PhotoGuard, a IA não consegue fazer isso – e as regiões manipuladas ficam cinzas, evidenciando a fraude. O software foi testado contra a versão 1.5 do Stable Diffusion, e se mostrou eficaz.

Continua após a publicidade

A ideia é que o PhotoGuard seja usado para “imunizar” as fotos, protegendo-as da eventual ação de IAs, antes de publicá-las na internet.

Além de liberar o software em código aberto, para quem quiser baixá-lo, seus criadores também colocaram uma versão de demonstração online, no site Huggingface

Ela é limitada, porque o PhotoGuard ainda é pouco otimizado: requer uma placa de vídeo bem potente, e mesmo assim roda devagar. Mas, se a equipe do MIT conseguir aperfeiçoá-lo a ponto de tornar viável seu uso cotidiano (como um plugin do Photoshop, por exemplo), ele poderá ser crucial no futuro.

Continua após a publicidade

Isso porque, além de impedir a adulteração das fotos, também evitaria que elas fossem usadas para “treinar” os algoritmos – que, com isso, se tornariam incapazes de gerar certas coisas. 

Se você aplicasse o PhotoGuard nas suas fotos antes de publicá-las em redes sociais, por exemplo, as IAs não seriam capazes de clonar o seu rosto – algo que pode se tornar um risco real no futuro. 

Nos últimos anos, os avanços da IA levantaram o receio de que ela venha a ser usada para forjar imagens e vídeos. Várias equipes de cientistas têm desenvolvido ferramentas que tentam desmascarar as fraudes.

Continua após a publicidade

Vêm obtendo graus variados de sucesso. Mas esse problema, detectar quando uma coisa foi gerada por IA, continua insolúvel em outro campo: o texto. 

Recentemente, a OpenAI resolveu desativar sua ferramenta detectora de IA, que foi lançada em janeiro de 2023 e prometia dizer se um texto foi escrito por humanos ou por inteligência artificial. O problema é que ela era extremamente imprecisa: segundo a OpenAI, seu índice de acerto era de apenas 26%.

Compartilhe essa matéria via:
Publicidade

Matéria exclusiva para assinantes. Faça seu login

Este usuário não possui direito de acesso neste conteúdo. Para mudar de conta, faça seu login

Black Friday

A melhor notícia da Black Friday

BLACK
FRIDAY
Digital Completo
Digital Completo

Acesso ilimitado ao site, edições digitais e acervo de todos os títulos Abril nos apps*

Apenas 5,99/mês*

ou
BLACK
FRIDAY

MELHOR
OFERTA

Impressa + Digital
Impressa + Digital

Receba Super impressa e tenha acesso ilimitado ao site, edições digitais e acervo de todos os títulos Abril nos apps*

a partir de 10,99/mês

ou

*Acesso ilimitado ao site e edições digitais de todos os títulos Abril, ao acervo completo de Veja e Quatro Rodas e todas as edições dos últimos 7 anos de Claudia, Superinteressante, VC S/A, Você RH e Veja Saúde, incluindo edições especiais e históricas no app.
*Pagamento único anual de R$71,88, equivalente a 5,99/mês.

PARABÉNS! Você já pode ler essa matéria grátis.
Fechar

Não vá embora sem ler essa matéria!
Assista um anúncio e leia grátis
CLIQUE AQUI.