Inteligência artificial coloca rosto de Harrison Ford em cenas de “Solo”
Com auxílio de 'deepfake', o rosto do ator aparece no lugar do de Alden Ehrenreich, o Han Solo do último filme da franquia. Entenda como isso foi possível
“Solo: Uma História Star Wars” estreou em maio de 2018 e foi o segundo filme derivado do universo de Star Wars. Mas, ao contrário dos outros, ele não foi necessariamente um sucesso.
O longa acumulou US9 milhões de dólares, valor que está abaixo das produções da nova leva de filmes. A título de comparação, aqui vão outras bilheterias da saga que foram um estouro:
“Star Wars: O Despertar da Força” (2015) – US$2,06 bilhões
“Rogue One: Uma História Star Wars” (2016) – US$1,05 bilhão
“Star Wars: Os Últimos Jedi” (2017) – US$ 1,32 bilhão
O fraco desempenho nos cinemas e as críticas variadas fizeram com que a Disney suspendesse temporariamente os spin-offs de Star Wars. Um dos comentários negativos mais recorrentes sobre a aventura solo (com o perdão do trocadilho) do lendário personagem, é que foi muito difícil desassociar Han Solo, vivido no filme por Alden Ehrenreich, de Harrison Ford – ator que o interpreta nas versões originais.
Cabeças trocadas
Como se atendesse o clamor dos fãs, o usuário do YouTube ‘derpfakes’ lançou em 15 de outubro um vídeo com cenas de “Solo” com uma pequena modificação: quem estrela essa produção é o jovem Ford dos anos 70. Abaixo, você pode assistir ao resultado.
Convincente? De acordo com o criador, para trocar os rostos dos atores, ele utilizou imagens de Ford do início dos anos 70. A época é anterior ao primeiro filme da saga, “Uma Nova Esperança” (1977) – o que faz sentido, já que a ideia do spin-off é contar a vida do personagem antes dos eventos da franquia principal.
Além de “Solo”, outros artistas e personalidades já deram as caras estrelando vídeos desse canal. De Nicolas Cage a Donald Trump, todos foram criados utilizando uma técnica chamada “deepfake”.
Deepfake?
A origem do termo “deepfake” vem das expressões em inglês “deep learning” (“aprendizado profundo”) e “fake” (“falso”). Para entender esse fenômeno recente, é preciso compreender o que é exatamente a aprendizagem profunda.
O “deep learning” é uma evolução das metodologias de aperfeiçoamento de inteligência artificial. Ela deriva do “machine learning”. O conceito, que veio junto com os primeiros avanços em inteligência artificial, nos anos 50, quer dizer, literalmente, colocar um computador para aprender. A ideia é fazer o cérebro eletrônico estudar algoritmos até que entenda como ler dados e tomar decisões acertadas. É como se, vendo um mesmo filme várias vezes, ele pudesse reproduzir o que aprendeu fazendo uma história totalmente nova.
A técnica ganhou novos patamares com as tecnologias mais modernas e o grande volume de dados criado pela internet – o chamado big data. Um bom exemplo de aplicação é o software de recomendação da Netflix. Conforme você escolhe os filmes e séries que vai assistir, o computador vai sendo treinado a reconhecer o seu gosto. A partir daí, tudo muda na plataforma, das indicações de filmes e séries às fotos de capa de cada produção, que se alternam conforme o comportamento do usuário.
Recentemente, a técnica começou a ser usada para a construção de notícias e depoimentos falsos – as “deepfakes” propriamente ditas.
Esse vídeo não é meu
A tecnologia pode nos proporcionar coisas muito boas. Na linha de Star Wars, o uso da computação gráfica permitiu, por exemplo, que o personagem Governador Tarkin (interpretado por Peter Cushing, morto em 1994) aparecesse em “Rogue One”:
Como nem tudo são flores, ela também possui o seu lado obscuro. Em 2017, quem começou a onda de vídeos falsos foi um usuário do fórum Reddit que, em 2017, criou um software de “deep learing” que permitia ao usuário trocar o rosto de uma atriz de filme pornô pelo de celebridades. O programa analisava milhares de imagens de atrizes, modelos e cantoras para criar um padrão de rosto para cada uma. Depois, era só jogar no video desejado e ter um filme protagonizado por quem quer que fosse.
A partir daí, o negócio desandou. A exemplo dos combate às fake news, não demorou para que surgissem campanhas que alertassem o quão fácil era criar manipulações do tipo – e quais os riscos disso. Em abril de 2018, o BuzzFeed lançou um vídeo no qual o cineasta Jordan Peele (que estrou filmes como “Corra” e “Pantera Negra”) entra na pele do ex-presidente dos Estados Unidos, Barack Obama. Vale o aviso do que pode vir por aí.