Clique e assine com até 75% de desconto

Afinal, o que são deepfakes?

Entenda como esse tipo de manipulação funciona – e como ela pode ser perigosa.

Por Rafael Battaglia Atualizado em 29 out 2020, 14h00 - Publicado em 7 jan 2020, 20h15

Em janeiro de 2020, o Facebook anunciou que iria começar a banir vídeos com deepfake da sua plataforma. O anúncio, divulgado em um blog da empresa, afirmou que conteúdos do tipo manipulam a realidade, e são um grande desafio para a indústria tecnológica.

Os vídeos são excluídos caso as edições não estejam óbvias para o usuário ou se levarem o espectador a acreditar que uma pessoa tenha dito coisas que, na verdade, nunca disseram. 55 checadores, que falam 45 idiomas diferentes, são os responsáveis por analisar e sinalizar os vídeos falsos – a medida não inclui sátiras e outros produções humorísticas.

Antes disso, em setembro de 2019, a empresa doou US$ 10 milhões para um fundo voltado a aprimorar as tecnologias de detecção desse tipo de material. Mas a companhia já também recebeu críticas por se recusar a retirar um vídeo falso da presidente da Câmara dos Deputados dos EUA, Nancy Pelosi, que viralizou no país no ano passado.

Deepfakes podem ser inofensivos. Neste vídeo, por exemplo, o rosto do ator Harrison Ford foi rejuvenescido e colocado em algumas cenas de Solo: Uma História Star Wars, do qual ele não participou. Mas, em muitos casos, podem ser perigosos e aumentar a desinformação, como manipular discursos de personalidades e chefes de Estado.

Até o próprio Mark Zuckerberg já foi vítima dos softwares de deepfake. No vídeo, o presidente do Facebook, em uma versão criada em computador, afirmava que o sucesso de sua plataforma era devido a uma parceria feita com uma organização secreta.

Mas afinal, o que são deepfakes?

Os deepfakes nada mais são do que vídeos criados a partir de inteligência artificial e que reproduzem a aparência, as expressões e até a voz de alguém do mundo real. O nome vem da junção de duas expressões em inglês: “deep learning” (“aprendizado profundo”) e “fake” (“falso”). Aprendizado o quê?

O “deep learning” é uma evolução das metodologias de aperfeiçoamento de inteligência artificial. Ela deriva do “machine learning”. O conceito, que veio junto com os primeiros avanços em inteligência artificial, nos anos 1950, quer dizer, literalmente, colocar um computador para aprender. A ideia é fazer o cérebro eletrônico estudar algoritmos até que entenda como ler dados e tomar decisões acertadas. É como se, vendo um mesmo filme várias vezes, ele pudesse reproduzir o que aprendeu fazendo uma história totalmente nova. A técnica possui várias aplicações, de um programa de recomendação de filmes e séries (alô, Netflix) aos vídeos manipulados.

  • “Os deepfakes surgiram nos anos 1990, ganharam fama por volta de 2014 e atingiram um pico de popularidade em 2017″, explica Hao Li, professor de Ciência da Computação na Universidade do Sul da Califórnia. Em dezembro do ano passado, ele participou da VFXRio, evento brasileiro sobre tecnologia e efeitos visuais.

    Como eles são feitos?

    Hao é um dos precursores da área, e trabalha há 15 anos no desenvolvimento de tecnologias que aumentem o realismo das projeções virtuais. Ele já atuou em empresas de efeitos visuais como a Weta Digital (de filmes como O Senhor dos Anéis) e a Industrial Light & Magic (Star Wars), além de comandar uma startup especializada em criar avatares do tipo.

    No geral, os deepfakes são criados em duas etapas. Na primeira, o software capta imagens de referência da pessoa que será usada no vídeo (o presidente Donald Trump, por exemplo). Quanto mais imagens, maior será a precisão. “O ideal é criar um banco de dados com várias formas e ângulos do rosto”, diz Hao.

    Depois, é a vez de gravar os movimentos de uma segunda pessoa, que será a base (ou o molde) para o deepfake. Por fim, a inteligência artificial tem a missão de unir as duas coisas para criar o vídeo falso. No exemplo abaixo (cujo vídeo você pode conferir clicando na imagem), as imagens captadas de Trump foram inseridas no molde, feito a partir do vídeo de imitação:

    Pinscreen/Reprodução

    No passado, a manipulação de rostos digitais era uma técnica restrita a profissionais de efeitos visuais. A ideia do deepfake é que, com inteligência artificial, todo o trabalho seja feito por meio de softwares. Um programa da Samsung, por exemplo, consegue criar vídeos falsos com apenas uma imagem de referência. Já o Zao é um app chinês que faz com que o seu rosto seja transportado para uma cena de filme ou série – basta tirar uma selfie.

    Continua após a publicidade

    Quais as suas aplicações?

    A aplicação mais famosa para este tipo de manipulação são os efeitos cinematográficos. Em 2019, filmes como Projeto GeminiO Irlandês usaram técnicas similares para rejuvenescer os atores. Gemini, em especial, criou uma versão mais jovem do ator Will Smith, que contracenou com sua versão mais velha, de carne e osso.

    “Os deepfakes podem ser usados também em dispositivos de realidade virtual, ou para criar sistemas de chats com interações mais realistas”, lembra Hao. A Fundação Carnegie, em um vídeo sobre o tema, diz que a tecnologia também pode ser usada para dar acessibilidade a pessoas com esclerose lateral amiotrófica, permitindo que pacientes criem cópias digitais da sua voz para ajudá-los quando não conseguirem mais falar.

  • Quais são os perigos envolvendo deepfakes?

    A alta na popularidade dos deepfakes em 2017 apontada por Hao tem motivo. Naquele ano, um usuário do fórum Reddit criou um software de deep learing que permitia ao usuário trocar o rosto de uma atriz de filme pornô pelo de celebridades. O programa analisava milhares de imagens de atrizes, modelos e cantoras para criar um padrão de rosto para cada uma. Depois, era só jogar no video desejado e ter um filme protagonizado por quem quer que fosse.

    A partir daí, diversas campanhas surgiram para alertar sobre os perigos da tecnologia, que se tornou uma espécie de versão turbinada das já conhecidas fake news (“notícias falsas”, em inglês). Esta aqui, por exemplo, foi feita pelo BuzzFeed, e é “estrelada” por uma versão falsa do ex-presidente dos EUA Barack Obama.

    Os vídeos falsos, então, possuem uma série de maus usos: eles podem humilhar, chantagear ou difamar alguém, atacar organizações, incitar violência política, cancelar acordos diplomáticos e até fraudar eleições.

    Deepfakes devem ser proibidos?

    Apesar do desenvolvimento até aqui, vamos que combinar que, olhando com atenção, mesmo os vídeos falsos falsos mais convincentes conseguem ser desmascarados. Em setembro de 2019, Hao deu uma entrevista ao canal norte-americano CNBC, em que afirmava que deepfakes “perfeitamente reais” começariam a surgir dali a seis meses. “Eu mantenho essa previsão e digo mais: isso já está acontecendo.”

    Para o professor, o grande entrave dos deepfakes é a resolução: em baixa qualidade, eles podem confundir, mas quando a resolução aumenta, as imperfeições ficam expostas. “No entanto, já existem pesquisas em desenvolvimento para criar deepfakes em alta definição”, disse Hao. Ele cita um teste feito pelo sua própria empresa, a Pinscreen – também com Donald Trump, feita a partir de uma imitação do ator Alec Baldwin. Veja abaixo:

    Em meio a isso, surge o debate: se os deepfakes podem ser tão perigosos, eles não deveriam ser proibidos?

  • “Eu sou contra a generalização, e acho que nem tudo deve ser proibido”, defende Hao, que traz como exemplo o seu trabalho no filme Velozes e Furiosos 7, no qual ele foi um dos responsáveis pela reencenação digital do ator Paul Walker, que morreu durante as gravações. “A família de Paul estava de acordo e ajudou durante o processo. Tudo foi feito como uma forma de homenageá-lo – e funcionou”.

    A tecnologia dos vídeos falsos evolui em uma velocidade muito maior que a lei – o que impede a criação de uma única norma que os regule. Dessa forma, Hao, assim como boa parte dos especialistas, defende que mais de uma medida deve ser tomada em relação os deepfakes. “O ideal seria que os países criassem organizações que digam o que é aceitável e o que deve ser proibido.” Deepfakes em vídeos pornôs, nem pensar.

    Além disso, é preciso aprimorar os algoritmos e técnicas de reconhecimento de vídeos falsos, o que facilitaria o combate a conteúdos nocivos. Projetos de lei que determinem os parâmetros para o compartilhamento também poderão ajudar plataformas de mídias sociais a atualizar suas políticas internas. Se organizar direito, ninguém cai em mentira.

    Continua após a publicidade
    Publicidade