Black Friday: Assine a partir de 1,49/semana
Imagem Blog

Bruno Garattoni

Por Bruno Garattoni Materia seguir SEGUIR Seguindo Materia SEGUINDO
Vencedor de 15 prêmios de Jornalismo. Editor da Super.
Continua após publicidade

Ferramenta impede a manipulação de imagens por IA

Software criado pelo MIT adiciona elementos invisíveis nas fotos, impedindo que os algoritmos de inteligência artificial consigam ler ou modificar o conteúdo delas; no futuro, esse tipo de proteção pode ser essencial para as redes sociais

Por Bruno Garattoni Materia seguir SEGUIR Materia seguir SEGUINDO
Atualizado em 6 set 2024, 15h38 - Publicado em 10 ago 2023, 16h14

Software criado pelo MIT adiciona elementos invisíveis nas fotos, impedindo que os algoritmos de inteligência artificial consigam ler ou modificar o conteúdo delas; no futuro, esse tipo de proteção pode ser essencial para as redes sociais; veja por que

A ferramenta se chama PhotoGuard e foi liberada em código aberto pelos criadores, que também publicaram um artigo científico explicando como ela funciona. O objetivo do software é impedir que imagens reais sejam alteradas com inteligência artificial – ou que a IA seja usada para gerar fotos totalmente falsas, o que deve se tornar um problema crescente no futuro. 

Os algoritmos de IA que geram ou modificam imagens, como o Midjourney e o Stable Diffusion, conseguem fazer isso porque foram “treinados”: alimentados com grande quantidade de fotos e ilustrações, copiadas da internet. O PhotoGuard interfere nesse processo

A ferramenta do MIT analisa as fotos da mesma forma que o Midjourney ou o Stable Diffusion fariam – e aí adiciona a elas sequências de dados que confundem esses algoritmos, impedindo que funcionem corretamente. 

O método foi batizado de “ataque de difusão” (referência à difusão, técnica de análise e síntese visual usada pelas IAs geradoras de imagens). As alterações são imperceptíveis a olho nu – mas, segundo os criadores do PhotoGuard, suficientes para impedir que IAs alterem a foto (veja exemplo abaixo).

 

ia-mit-fotos
Esquema de funcionamento da ferramenta PhotoGuard. (Massachusetts Institute of Technology/Reprodução)

Veja a foto original, de dois homens numa quadra de tênis. No teste, uma IA é usada para manipular a imagem, trocando a roupa dos dois protagonistas e os inserindo em outro cenário, um salão de baile. 

Porém, quando essa ordem é executada numa foto protegida pelo PhotoGuard, a IA não consegue fazer isso – e as regiões manipuladas ficam cinzas, evidenciando a fraude. O software foi testado contra a versão 1.5 do Stable Diffusion, e se mostrou eficaz.

A ideia é que o PhotoGuard seja usado para “imunizar” as fotos, protegendo-as da eventual ação de IAs, antes de publicá-las na internet.

Além de liberar o software em código aberto, para quem quiser baixá-lo, seus criadores também colocaram uma versão de demonstração online, no site Huggingface

Ela é limitada, porque o PhotoGuard ainda é pouco otimizado: requer uma placa de vídeo bem potente, e mesmo assim roda devagar. Mas, se a equipe do MIT conseguir aperfeiçoá-lo a ponto de tornar viável seu uso cotidiano (como um plugin do Photoshop, por exemplo), ele poderá ser crucial no futuro.

Isso porque, além de impedir a adulteração das fotos, também evitaria que elas fossem usadas para “treinar” os algoritmos – que, com isso, se tornariam incapazes de gerar certas coisas. 

Continua após a publicidade

Se você aplicasse o PhotoGuard nas suas fotos antes de publicá-las em redes sociais, por exemplo, as IAs não seriam capazes de clonar o seu rosto – algo que pode se tornar um risco real no futuro. 

Nos últimos anos, os avanços da IA levantaram o receio de que ela venha a ser usada para forjar imagens e vídeos. Várias equipes de cientistas têm desenvolvido ferramentas que tentam desmascarar as fraudes.

Vêm obtendo graus variados de sucesso. Mas esse problema, detectar quando uma coisa foi gerada por IA, continua insolúvel em outro campo: o texto. 

Recentemente, a OpenAI resolveu desativar sua ferramenta detectora de IA, que foi lançada em janeiro de 2023 e prometia dizer se um texto foi escrito por humanos ou por inteligência artificial. O problema é que ela era extremamente imprecisa: segundo a OpenAI, seu índice de acerto era de apenas 26%.

Compartilhe essa matéria via:
Publicidade

Matéria exclusiva para assinantes. Faça seu login

Este usuário não possui direito de acesso neste conteúdo. Para mudar de conta, faça seu login

Black Friday

A melhor notícia da Black Friday

BLACK
FRIDAY
Digital Completo
Digital Completo

Acesso ilimitado ao site, edições digitais e acervo de todos os títulos Abril nos apps*

a partir de 5,99/mês*

ou
BLACK
FRIDAY

MELHOR
OFERTA

Impressa + Digital
Impressa + Digital

Receba Super impressa e tenha acesso ilimitado ao site, edições digitais e acervo de todos os títulos Abril nos apps*

a partir de 10,99/mês

ou

*Acesso ilimitado ao site e edições digitais de todos os títulos Abril, ao acervo completo de Veja e Quatro Rodas e todas as edições dos últimos 7 anos de Claudia, Superinteressante, VC S/A, Você RH e Veja Saúde, incluindo edições especiais e históricas no app.
*Pagamento único anual de R$71,88, equivalente a 5,99/mês.

PARABÉNS! Você já pode ler essa matéria grátis.
Fechar

Não vá embora sem ler essa matéria!
Assista um anúncio e leia grátis
CLIQUE AQUI.