O Brasil já conta com ao menos 376 projetos ativos de reconhecimento facial, com potencial de vigiar cerca de 83 milhões de pessoas — o equivalente a 40% da população. A informação consta no relatório Mapeando a Vigilância Biométrica, divulgado nesta quarta-feira (7) pela Defensoria Pública da União (DPU) em parceria com o Centro de Estudos de Segurança e Cidadania (CESeC), da Universidade Candido Mendes.
O levantamento aponta que o uso dessas tecnologias no país se intensificou após eventos como a Copa do Mundo de 2014 e os Jogos Olímpicos de 2016, e já consumiu mais de R$ 160 milhões em recursos públicos. Segundo os autores, embora o uso das Tecnologias de Reconhecimento Facial (TRFs) tenha avançado, a regulação está atrasada e faltam padrões técnicos, transparência e mecanismos de controle externo.
Um dos principais alertas do estudo é o risco de erros e discriminação racial. Entre 2019 e abril de 2025, foram identificados ao menos 24 casos de falhas no sistema. O mais emblemático ocorreu em 2024, quando o personal trainer negro João Antônio Trindade Bastos foi retirado por engano de um estádio em Aracaju após ser confundido com um foragido.
“Mais da metade das abordagens policiais com base em reconhecimento facial resultaram em identificações equivocadas”, diz o relatório. Pesquisas internacionais citadas pelos autores mostram que sistemas de IA apresentam taxas de erro de até 100 vezes maiores para pessoas negras, indígenas e asiáticas do que para pessoas brancas.
Apesar de o Senado ter aprovado em 2024 o PL 2338/2023, que propõe regras para o uso de inteligência artificial, os pesquisadores alertam que as exceções previstas no texto — como o uso em investigações e flagrantes — tornam o projeto uma “autorização ampla” para vigilância, o que pode comprometer direitos fundamentais.
O estudo conclui pedindo um debate público qualificado e medidas urgentes, como a criação de uma lei nacional específica, auditorias independentes, maior transparência nos contratos públicos e o fortalecimento do controle sobre empresas que operam os sistemas.
“O relatório evidencia tanto os vieses raciais no uso da tecnologia quanto problemas de mau uso de recursos públicos e falta de transparência”, afirma o coordenador do CESeC, Pablo Nunes.







