Como funciona o reconhecimento facial – e quais os dilemas por trás dele
O reconhecimento facial está em condomínios, estádios e no app do banco. Entenda a mecânica (e os problemas) desse tipo de sistema.
Quando foi lançada, em 2010, a ferramenta Tag Suggestions do Facebook parecia mágica. Você postava uma foto com amigos e ela logo apontava para o rosto de alguém e checava: “Este é Fulano?”. Você podia confirmar ou negar (e daí indicar a pessoa correta).
A ferramenta funcionou por anos, até entrar na mira de discussões sobre privacidade e uso indevido de dados pessoais. Em 2021, foi descontinuada. A Meta, dona do Facebook, anunciou que apagaria os dados de mais de 1 bilhão de usuários. Era o maior banco de biometria facial do mundo.
Problema resolvido – só que não. Àquela altura, a Meta já havia usado os dados para criar o DeepFace, o primeiro sistema de reconhecimento facial a chegar perto de identificar rostos com a mesma precisão de um humano (1).
Hoje, essa tecnologia está por todo lado. Usamos para organizar fotos, desbloquear telas, acessar serviços públicos, autorizar pagamentos e controlar o acesso a condomínios e escritórios por todo o País.
E não é como se houvesse muita opção. Mesmo que você nunca tenha postado uma selfie na vida, é quase impossível que uma imagem do seu rosto não esteja armazenada em algum lugar, das filmagens de segurança de um supermercado às cópias do seu RG que você compartilhou por aí.
Pela Lei Geral de Proteção de Dados (LGPD), dados biométricos como rosto, impressões digitais, DNA e até tom de voz são dados pessoais sensíveis, e existem muitas exigências adicionais de segurança para coletar e armazenar dados desse tipo. Afinal, dá para trocar uma senha em minutos, mas não dá para fazer o mesmo com olhos, ouvidos, boca e nariz.
Diferentemente das impressões digitais e do DNA, a biometria facial pode facilmente ser coletada sem autorização. Entretanto, quase nunca damos um OK expresso para essa coleta – e, se damos, pouco sabemos sobre os termos de uso. Quando você topa ser fotografado para autenticar sua entrada em um prédio, sabe onde os dados ficarão armazenados, e por quanto tempo? Quem poderá acessar? Para que serão usados?
Esse é só o começo do problema. O reconhecimento facial é um sistema com falhas e vieses – mas que, ainda assim, tem sido cada vez mais usado pela segurança pública, nem sempre da melhor forma. Vamos mergulhar nessa discussão – mas, primeiro, é preciso entender como essa tecnologia funciona.
Cara a cara
Em uma ferramenta de reconhecimento facial, as distâncias entre pontos faciais e as proporções matemáticas entre elas são usadas para produzir um código que representa o seu rosto [veja mais no infográfico abaixo]. Esse tipo de cálculo inicial é o que todos os sistemas têm em comum – do celular às câmeras de rua.
Para desbloquear um app, seu smartphone faz o que se chama de verificação 1:1. É um processo relativamente simples: o sistema compara a imagem atual com uma pré-cadastrada. Para aplicações mais críticas, como bancos e o Gov.br, o sistema ainda aplica fatores de vivacidade, que tentam conferir se a imagem é de uma pessoa viva e real, e não de uma foto, de um vídeo manipulado ou até de uma pessoa disfarçada de outra.
A verificação 1:1 diz se você é o usuário correto para aquela conta, mas não entra no mérito de quem você é. Essa função é mais complexa e se chama identificação (ou reconhecimento 1:N).
É o que rola quando o padrão de um rosto é comparado com vários outros armazenados em um banco de dados massivo (daí o N, que indica um número indefinido). O algoritmo não dá uma resposta certeira, mas uma probabilidade de correspondência entre dois rostos.
Por fim, existe ainda a análise (ou classificação), que interpreta as expressões faciais. Em suma, a verificação diz: “Este rosto corresponde ao rosto autorizado a acessar esta conta”. A identificação diz: “Este rosto provavelmente pertence ao Fulano de Tal”. E a análise: “Este rosto parece ser de um homem e estar bravo”.
Não é um sistema perfeito, claro. Com jovens e idosos, por exemplo, cujas mudanças nos rostos são mais acentuadas e constantes, o reconhecimento facial funciona pior do que a média.
Esse, porém, é só um dos muitos vieses dessa tecnologia.
A maioria dos modelos foi treinada com bases de dados compostas sobretudo de homens brancos, e isso limita como o sistema interpreta traços e tons de pele. Como as mulheres também são sub-representadas, a intersecção de mulheres negras, especialmente as idosas, enfrenta as maiores taxas de erro (2).
Nos casos de alguns modelos que foram treinados majoritariamente com pessoas asiáticas, a imprecisão também é maior em relação a outros grupos étnicos (2). Isso se chama efeito outra raça, e não é um fenômeno só das máquinas: a mesma coisa acontece no cérebro humano quando temos dificuldade em diferenciar rostos de outras etnias. São vieses que, nas máquinas, surgem a partir de parâmetros internos e das referências de treinamento; nas pessoas, das nossas experiências e de quem mais enxergamos ao nosso redor.
Existe ainda uma questão óptica em jogo: peles mais escuras refletem menos luz do que peles mais claras – o que os físicos chamam de refletância. Os algoritmos se confundem com as mudanças que isso implica no contraste e na produção da imagem.
Sorria, você está sendo filmado
No início do texto, dissemos que o tratamento de dados biométricos é regido pela LGPD, que exige, entre outros requisitos, o consentimento dos usuários. Há uma grande exceção a essa regra, porém.
Sob o guarda-chuva da segurança pública, as câmeras de reconhecimento facial se espalharam pelo País, sem regulamentação específica. Em 2019, cinco estados brasileiros adotaram a tecnologia para encontrar foragidos e desaparecidos em espaços públicos.
A Bahia fez os primeiros testes em multidões no Carnaval. O sistema emitia um alerta ao detectar uma probabilidade maior que 90% de que um rosto pertencesse a um foragido. A pessoa, então, era abordada por policiais para verificação. Ao fim do primeiro ano, a taxa de prisões bem-sucedidas a partir de abordagens motivadas por reconhecimento facial oscilou entre 0,27% e 3,6%, dependendo do município e do evento (3).
O problema: seis anos após a expansão da tecnologia, não faltam histórias de pessoas abordadas por engano pela polícia – uma experiência que vai desde o constrangimento até violações graves de direitos humanos.
Em 2024, por exemplo, uma jovem negra foi parada na entrada de um evento de pré-Carnaval em Aracaju. Policiais à paisana pediram sua identidade para checar se ela era a mulher procurada que o sistema de reconhecimento havia indicado. Duas horas depois, houve uma nova abordagem – desta vez, com violência. Ela se desesperou, urinou em si mesma e foi levada algemada para um camburão. Ela acabou liberada com um pedido de desculpas quando a checagem confirmou o engano pela segunda vez (4).
Um erro de cálculo semelhante fez com que a polícia do Ceará divulgasse o rosto do ator norte-americano Michael B. Jordan – um homem negro e uma das maiores celebridades de Hollywood do momento – na lista de suspeitos de uma chacina que matou cinco pessoas na noite de Natal (5).
Desde 2023, a Lei Geral do Esporte tornou o reconhecimento facial obrigatório em estádios e ginásios esportivos com capacidade superior a 20 mil pessoas. Os objetivos são combater fraudes, cambistas, casos de violência e discriminação.
Em estádios de futebol, uma parceria com a CBF estabelece que os dados colhidos durante a compra de ingressos e o acesso ao estádio sejam cruzados com bases de dados de foragidos, desaparecidos e pessoas envolvidas em violência em jogos anteriores. Entre os torcedores, há quem sinta que a medida torna os estádios mais seguros e apropriados para famílias (6).
Nos dois anos de operação, só no estádio Allianz Parque, em São Paulo, 204 pessoas com mandados de prisão abertos já foram detidas, 130 foram pegas em flagrante descumprindo medidas cautelares e 253 desaparecidos
foram identificados (6).
Os resultados do Allianz são só uma fração dos 471 projetos de monitoramento ativos em todo o país – que, potencialmente, vigiam 87,2 milhões de pessoas, ou 41% da população brasileira (7).
Os contratos de monitoramento são operados por uma miríade de instituições: governos municipais, estaduais, ministérios federais, polícias militares, guardas civis, companhias e clubes de futebol. E cada uma delas precisa contratar uma empresa que forneça a logística e os softwares.
Essas empresas podem tanto oferecer ao cliente o algoritmo que faz o cruzamento dos dados quanto identificar a pessoa por meios próprios. É o caso da Clearview, que foi banida e multada em vários países da Europa por construir seu banco de dados com 3 bilhões de fotos de redes sociais, inclusive de crianças (8).
Apesar disso, no Brasil, o Ministério da Justiça e Segurança Pública, o Ministério Público de Minas Gerais e o Senado Federal contratam a Clearview para identificar pessoas.
“Nossas imagens muito provavelmente estão nesse banco de dados, sendo utilizadas por uma empresa privada para obter recursos públicos, que nós pagamos com nossos impostos, para operar uma tecnologia que tem todos esses problemas de ordem ética e legal”, diz Gabriel Saad Travassos, defensor público federal e doutorando em ciências criminais na PUC-PR.
Em função do sigilo e das exceções concedidas à segurança pública, é difícil saber exatamente como acontecem os contratos e a coleta de dados. O Centro de Estudos de Segurança e Cidadania (CESeC) conduz um projeto especial sobre o tema, O Panóptico, que monitora todas as iniciativas de reconhecimento facial do País.
Pablo Nunes, doutor em ciência política e diretor do projeto, explica que a segurança pública brasileira sofre com falta de transparência crônica. É difícil saber informações básicas, como as empresas contratadas, os softwares utilizados, onde os dados estão e por quanto tempo eles ficam armazenados.
Do lado das polícias, há ainda menos registros sobre as formas de uso, as taxas de acerto, e informações demográficas sobre os atingidos. Em geral, os casos em que rola um “falso-positivo”, como o da mulher de Aracaju, nem sequer entram nos registros oficiais.
Diante da escassez de dados, o Panóptico só conseguiu mapear o custo de 33% das iniciativas de reconhecimento facial do País, que custaram R$ 2,3 bilhões. Mais da metade dos investimentos aconteceu na Bahia e no Rio.
“Em todos os casos estudados, nenhum dos estados tem provas de que o reconhecimento facial significou redução de indicadores de criminalidade”, diz Nunes. Os mais de R$ 671 milhões investidos pelo Rio de Janeiro resultaram em 500 prisões (7) – R$ 1,3 milhão por prisão. Em comparação, há 719 prisões por semana, em média, no estado (9).
O Grande Irmão
O nome do projeto do CESeC vem de um conceito proposto no fim do século 18 pelo filósofo inglês Jeremy Bentham. “Panóptico” seria a estrutura ideal para maximizar a vigilância em cadeias (mas que também se aplicava para escolas, fábricas ou hospitais).
Eis a ideia de Bentham: o prédio da penitenciária precisaria ser no formato cilíndrico. No centro do pátio principal, haveria uma torre; em volta, as celas iluminadas. O guarda na torre poderia ver todas as pessoas nas celas – mas os presos não seriam capazes de saber quando estariam sendo observados.
O intuito do panóptico, então, é condicionar o comportamento das pessoas, como se estivessem sendo vigiadas o tempo todo. Algumas prisões no mundo chegaram a ser construídas com o princípio em mente.
No século 20, “panóptico” parou de ser apenas nome de prédio e foi transformado em metáfora pelo filósofo francês Michel Foucault. Ele usa o conceito para explicar o controle social – que, segundo ele, não era mais exercido pela violência direta, mas pela vigilância.
Em vez de castigos públicos e visíveis, o controle acontece de forma mais sutil: Foucault defendia que as pessoas se comportavam como se estivessem sempre sendo observadas, criando um senso de disciplina interna. E olha que ele formulou essa teoria nos anos 1970, décadas antes da difusão da internet.
Foucault nem poderia sonhar com a eficiência e a onipresença das ferramentas de vigilância que temos hoje. E Bentham teria adorado o ditado “quem não deve não teme”, que sempre aparece como argumento de quem acha que a hipervigilância só é um problema para quem tem problemas com a Justiça.
Mas não é preciso ter culpa no cartório para estar na mira das câmeras de reconhecimento facial. Se hoje você é considerado inocente, não quer dizer que vai ser assim para sempre.
“Uma imagem pode ser utilizada a qualquer momento no futuro”, diz Travassos. “Criminalizar condutas é um processo político: a capoeira já foi crime e, hoje, é um direito fundamental.” Mas o inverso também pode acontecer. “E se, daqui a pouco, as atuais manifestações culturais e políticas que exercemos sofrerem algum tipo de represália? Nós seremos identificados?”
Esse dilema não é novo para alguns ativistas. Diante da profusão de smartphones, começaram a surgir novas tentativas de impedir a identificação durante manifestações. Em 2010, o artista Adam Harvey criou um tipo de camuflagem facial chamada CV Dazzle (algo como “confundidor de visão de computador”), em que maquiagens e penteados inesperados impediam a máquina de reconhecer que ali havia um rosto.
Hoje, com o avanço da tecnologia, não é garantia que os métodos de Harvey ainda funcionem. Mas outras técnicas mais avançadas têm bons resultados, focadas em modificar pequenas partes das imagens para enganar a IA [veja mais no infográfico abaixo].
Chamadas de ataques adversariais, elas levam o jogo do CV dazzle a outro nível: podem fazer a máquina acreditar que ali há o rosto de outra pessoa. São experimentos teóricos, mas que possibilitam usar acessórios físicos ou ferramentas digitais para convencer uma IA de que você é a Xuxa, a Marina Silva ou o seu chefe. Seja qual for a sua cara, e de forma imperceptível para os olhos humanos .
O parecer da ONU é utilizado por dezenas de movimentos mundo afora para ressaltar a sensibilidade dos dados biométricos. Além de todas as problemáticas das aplicações em segurança pública, os grupos argumentam que o próprio armazenamento dessas informações já é um risco, sobretudo nas mãos de governos autoritários ou de pessoas mal-intencionadas.
No Brasil, mais de 50 entidades da sociedade civil se reúnem no movimento Tire Meu Rosto da Sua Mira. Eles se articulam com outros movimentos sociais para reivindicar o banimento completo do uso do reconhecimento facial em segurança pública.
O fim dessa prática poderia ser instituído por lei (de qualquer instância) ou por uma decisão do STF, se fosse constatado que direitos fundamentais estão sendo violados. E nem precisaria ser um banimento total.
Na União Europeia, por exemplo, há desde o ano passado uma regulamentação que proíbe o monitoramento biométrico remoto em tempo real, exceto em casos críticos previamente definidos – como ameaças a hospitais e centrais elétricas. No Brasil, daria para usar a tecnologia para proteger terras indígenas de invasores.
As exceções na Europa são amplas, mas ainda é um sistema mais regulamentado e transparente que o brasileiro. Por aqui, a tecnologia segue em expansão – mas ainda não dá para saber qual o software usado em 95% dos projetos ativos de monitoramento (7).
Talvez, um dia, seja possível usar ferramentas de reconhecimento facial para aprimorar o trabalho da polícia e achar desaparecidos, sem vieses de raça, idade e gênero – e com uma coleta de dados ética. Até lá, melhor puxar o freio, ou a próxima parada poderá ser a de uma realidade de vigilância constante tão estressante quanto o Big Brother, sem um prêmio no final.
Agradecimentos: Augusto Jobim do Amaral, professor das pós-graduações em Ciências Criminais e em Filosofia da PUC-RS; Horrara Moreira, advogada popular, integrante do Conselho Municipal de Proteção de Dados e da Privacidade do Rio de Janeiro e coordenadora da campanha Tire Meu Rosto da Sua Mira; Pedro Saliba, advogado e sociólogo, pesquisador da Data Privacy Brasil.
Fontes: (1) artigo “DeepFace: Closing the gap to human-level performance in face verification”; (2) artigo “Review of demographic fairness in face recognition”; (3) relatório “O sertão vai virar mar: Expansão do reconhecimento facial na Bahia”; (4) reportagem da Carta Capital “Erros em série expõem fragilidade do reconhecimento facial como ferramenta de combate ao crime”; (5) notícia do g1 “Foto de astro do cinema Michael B. Jordan aparece em lista de procurados pela polícia do Ceará”; (6) reportagem da Veja “Marcação cerrada: como a biometria aumentou as prisões em estádios de futebol”; (7) monitor do projeto O Panóptico – Monitor do reconhecimento facial no Brasil, dados coletados em 7 de novembro; (8) artigo “Beyond surveillance: Privacy, ethics, and regulations in face recognition technology; 9) notícia do Uol “RJ tem 17,4 mil presos além da capacidade; menos de 10% estudam”; (10) artigo “Hidden adversarial attack on facial biometrics – a comprehensive survey”; (11) Resolução 48/4 da ONU “Right to privacy in the digital age”.
Como funciona o reconhecimento facial – e quais os dilemas por trás dele
Seu nome está no ranking? Saiba como explorar a nova plataforma Nomes do Brasil
Já imaginou uma cidade sem o SUS?
A saga da(s) Voyager
Por que as notas Dó Ré Mi Fá Sol Lá Si têm esse nome?







