Uso de reconhecimento facial no Brasil levanta alertas sobre discriminação e falta de regulamentação

Uso de reconhecimento facial no Brasil levanta alertas sobre discriminação e falta de regulamentação
Marcelo Camargo/Agência Brasil
ALEP - PARANÁ COM TUDO E COM TODOS (copy at 2025-06-02 15:42:55)
Compartilhar
erinéia

Sorria! Seu rosto está sendo não só filmado, mas também classificado, comparado e identificado, principalmente por órgãos públicos de segurança. Na maioria das vezes, sem seu conhecimento. É o que mostra pesquisa da Defensoria Pública da União (DPU) em parceria com o Centro de Estudos de Segurança e Cidadania (CESeC), vinculado à Universidade Candido Mendes, no Rio de Janeiro. Divulgado nesta quarta-feira (7), o relatório “Mapeando a Vigilância Biométrica” aponta que o Brasil, após sediar a Copa do Mundo de 2014, se tornou um vasto campo de vigilância digital onde as Tecnologias de Reconhecimento Facial (TRFs) ganharam espaço. Essas tecnologias se espalharam sob a promessa de auxiliar na identificação de criminosos e localização de pessoas desaparecidas.

“O reconhecimento facial vem sendo amplamente incorporado por órgãos públicos no Brasil, em processo que começou com a realização dos megaeventos no país – especialmente a Copa do Mundo de Futebol, em 2014, e os Jogos Olímpicos, em 2016”, explicam os defensores públicos da DPU e membros do CESeC, ao referirem-se às caras e sofisticadas câmeras de reconhecimento facial cada vez mais comuns nas cidades.

De acordo com o relatório, o Brasil tinha, em abril deste ano, pelo menos 376 projetos de reconhecimento facial ativos. Juntas, essas iniciativas podem vigiar cerca de 83 milhões de pessoas, quase 40% da população brasileira. O estudo apurou que esses projetos já movimentaram mais de R$ 160 milhões em recursos públicos, baseando-se em dados fornecidos por 23 das 27 unidades federativas do país. Não responderam à pesquisa os estados do Amazonas, Maranhão, Paraíba e Sergipe. “A despeito de todo esse cenário, as soluções regulatórias estão atrasadas”, sustentam os pesquisadores, afirmando que o Brasil ainda carece de leis específicas para disciplinar o uso dessas tecnologias de vigilância.

Além da ausência de regulação, o relatório destaca a falta de mecanismos de controle externo, padrões técnicos uniformes e transparência, apontando riscos de erros graves, violações de privacidade, discriminação e má utilização de dinheiro público. O CESeC também mapeou, entre 2019 e abril de 2025, 24 casos de falhas associadas a sistemas de reconhecimento facial. Um caso que ganhou repercussão ocorreu em abril de 2024, em Aracaju (SE), durante a final do Campeonato Sergipano. João Antônio Trindade Bastos, personal trainer de 23 anos, foi retirado da arquibancada do Estádio Lourival Batista e revistado de forma ríspida após o sistema de reconhecimento facial do estádio tê-lo confundido com um foragido. Bastos, que é negro, utilizou as redes sociais para denunciar a situação, o que levou o governo de Sergipe a suspender o uso dessa tecnologia. Segundo notícias da época, mais de dez pessoas já haviam sido detidas com base no sistema implantado pela Polícia Militar.

O relatório também destaca que, no Brasil, “mais da metade das abordagens policiais motivadas por reconhecimento facial resultaram em identificações equivocadas.” Os pesquisadores alertam que tecnologias semelhantes em outros países também apresentam taxas de erro alarmantes para determinados grupos. “As preocupações com o uso dessas tecnologias não são infundadas”, afirmam os especialistas, citando estudos internacionais que mostram taxas de erro de 10 a 100 vezes maiores para pessoas negras, indígenas e asiáticas, em comparação com pessoas brancas. Em 2021, o Parlamento Europeu sinalizou que falhas técnicas em sistemas de Inteligência Artificial usados para identificação biométrica podem gerar discriminação e resultados enviesados.

No campo legislativo, os pesquisadores recordam que, em dezembro de 2024, o Senado Federal aprovou o Projeto de Lei n.º 2338/2023, que busca regulamentar o uso de inteligência artificial, incluindo sistemas biométricos. No entanto, o texto, que ainda precisa ser aprovado pela Câmara dos Deputados, permite diversas exceções. “As categorias de permissões [no texto aprovado] incluem investigações criminais, flagrante delito, busca por desaparecidos e recaptura de foragidos, situações que abrangem um espectro considerável de atividades da segurança pública”, criticam os pesquisadores. Para eles, essa abertura pode manter o risco de formação de um estado de vigilância em massa e de violações de direitos.

Os autores do relatório defendem a necessidade de um “debate público qualificado”, com participação da sociedade civil, do meio acadêmico, de órgãos públicos de controle e de organismos internacionais. Entre as medidas urgentes sugeridas estão: a aprovação de uma legislação nacional específica, padronização de protocolos que respeitem o devido processo legal, realização de auditorias independentes regulares e maior transparência nos contratos e bases de dados utilizados pelos sistemas. “Esperamos que esses achados possam não só orientar e subsidiar a tramitação do PL 2338 na Câmara dos Deputados, mas também servir de alerta para que órgãos reguladores e de controle estejam atentos ao que ocorre no Brasil. O relatório evidencia tanto os vieses raciais no uso da tecnologia quanto problemas de mau uso de recursos públicos e falta de transparência na sua implementação”, afirma Pablo Nunes, coordenador-geral do CESeC.

ALEP - PARANÁ COM TUDO E COM TODOS (copy at 2025-06-02 15:42:55)
Imagem de destaque - TV A Folha