Brasil tem ao 376 projetos ativos, capazes de vigiar 40% da população
Sorria! Seu rosto está sendo
não só filmado, mas também classificado, comparado e identificado,
principalmente por órgãos públicos de segurança. Na maioria das vezes sem seu
conhecimento. É o que mostra pesquisa da Defensoria Pública da União (DPU) em
parceria com o Centro de Estudos de Segurança e Cidadania (CESeC), instituição
acadêmica vinculada à Universidade Candido Mendes, no Rio de Janeiro.
Divulgado nesta quarta-feira
(7), o relatório Mapeando a Vigilância Biométrica aponta que, após sediar a
Copa do Mundo, em 2014, o Brasil se tornou um vasto campo de vigilância digital
onde as chamadas tecnologias de Reconhecimento Facial (TRFs) encontraram solo
fértil para se espalhar. Graças, em parte, à promessa de facilitar a
identificação de criminosos e a localização de pessoas desaparecidas.
“O reconhecimento facial vem
sendo amplamente incorporado por órgãos públicos no Brasil, em processo que
começou com a realização dos megaeventos no país – especialmente a Copa do
Mundo de Futebol, em 2014, e os Jogos Olímpicos, em 2016”, sustentam os defensores
públicos federais da DPU e membros do CESeC, referindo-se às sofisticadas e
caras câmeras de reconhecimento facial, cada vez mais presentes na paisagem
urbana.
Segundo os pesquisadores, em
abril deste ano havia, no Brasil, ao menos 376 projetos de reconhecimento
facial ativos. Juntos, esses empreendimentos têm o potencial de vigiar quase 83
milhões de pessoas, o equivalente a cerca de 40% da população brasileira. E já
movimentaram ao menos R$ 160 milhões em investimentos públicos - valor
calculado a partir das informações que 23 das 27 unidades federativas
forneceram aos responsáveis pelo estudo - não responderam à pesquisa, feita
entre julho e dezembro de 2024, o Amazonas, Maranhão, a Paraíba e Sergipe.
“A despeito de todo esse
cenário, as soluções regulatórias estão atrasadas”, sustentam os pesquisadores
da DPU e do CESeC, assegurando que o
Brasil ainda não tem leis para disciplinar o uso dos sistemas de vigilância
digital, em particular das câmeras de reconhecimento facial.
Além disso, para os
especialistas, faltam mecanismos de controle externo, padrões
técnico-operacionais uniformes e transparência na implementação dos sistemas. O
que amplia as chances de ocorrerem erros graves, violações de privacidade,
discriminação e mau uso de recursos públicos.
Erros
Em outro levantamento, o CESeC
mapeou 24 casos ocorridos entre 2019 e abril de 2025, nos quais afirma ter
identificado falhas dos sistemas de reconhecimento facial. O mais conhecido
deles é o do personal trainer João Antônio Trindade Bastos, de 23 anos.
Em abril de 2024, policiais
militares retiraram Bastos da arquibancada do Estádio Lourival Batista, em
Aracaju (SE), durante a partida final do Campeonato Sergipano. Eles conduziram
o rapaz até uma sala, onde o revistaram de forma ríspida. Só após checarem toda
a documentação de Bastos, que teve que responder a várias perguntas para
comprovar que era quem ele dizia ser, os PMs revelaram que o sistema de
reconhecimento facial implantado no estádio o tinha confundido com um foragido.
Indignado, Bastos usou as
redes sociais para fazer um desabafo contra a injustiça sofrida. A repercussão
do caso levou o governo de Sergipe a suspender o uso da tecnologia pela PM -
que, segundo notícias da época, já a tinha usado para deter mais de dez pessoas.
Bastos é negro. Como a maioria
das pessoas identificadas pelos sistemas de vigilância e reconhecimento facial,
no Brasil e em outros países - de acordo com o relatório da DPU e do CESeC, há
indicadores de que 70% das forças policiais do mundo têm acesso a algum tipo de
TRF e que 60% dos países têm reconhecimento facial em aeroportos. No Brasil,
“mais da metade das abordagens policiais motivadas por reconhecimento facial
resultaram em identificações equivocadas, evidenciando o risco de prisões
indevidas”.
“As preocupações com o uso dessas tecnologias não são infundadas”, alertam os especialistas, citando pesquisas internacionais segundo as quais, em alguns casos, as taxas de erros dos sistemas são “desproporcionalmente elevadas para determinados grupos populacionais, sendo de dez a 100 vezes maiores para pessoas negras, indígenas e asiáticas em comparação com indivíduos brancos”. Essa constatação motivou o Parlamento Europeu a, em 2021, alertar que “[as] imprecisões técnicas dos sistemas de Inteligência Artificial [IA], concebidos para a identificação biométrica a distância de pessoas singulares, podem conduzir a resultados enviesados e ter efeitos discriminatórios.”
Legislação
Ao tratar dos “desafios
institucionais e normativos”, os pesquisadores lembram que, em dezembro de
2024, o Senado aprovou o Projeto de Lei n.º 2338/2023, que busca regulamentar o
uso de inteligência artificial, incluindo sistemas biométricos na segurança
pública. Para se tornar lei, a proposta terá que ser aprovada pela Câmara dos
Deputados que, no mês passado, criou uma comissão especial para debater o tema.
Além disso, para os
pesquisadores da DPU e do CESeC, embora o PL proponha a proibição do uso de
sistemas de identificação biométrica a distância e em tempo real em espaços
públicos, o texto aprovado pelo Senado prevê tantas exceções que, na prática,
funciona “como uma autorização ampla para a implementação” desses sistemas.
“As categorias de permissões
[no texto aprovado] incluem investigações criminais, flagrante delito, busca
por desaparecidos e recaptura de foragidos, situações que abrangem um espectro
considerável de atividades da segurança pública. Considerando o histórico de
abusos e a falta de mecanismos eficazes de controle, essa abertura para uso
acaba mantendo a possibilidade de um estado de vigilância e de violação de
direitos.”
Recomendações
Os pesquisadores concluem
defendendo a urgência de um “debate público qualificado”, com a participação
ativa da sociedade civil, membros da academia e representantes de órgãos
públicos de controle e de organismos internacionais.
Eles também recomendam o que
classificam como “medidas urgentes”, como a aprovação de uma lei nacional
específica para regulamentar o uso da tecnologia; a padronização de protocolos
que respeitem o devido processo legal e a realização de auditorias independentes
e regulares.
Os especialistas também
apontam a necessidade de que os órgãos públicos deem mais transparência aos
contratos e às bases de dados utilizados, garantindo o acesso da população a
informações claras sobre os sistemas de reconhecimento facial e capacitando os
agentes públicos que lidam com o tema. E sugerem a obrigatoriedade de
autorização judicial prévia para uso das informações obtidas com o uso das TRFs
em investigações, bem como a limitação temporal para armazenamento de dados
biométricos e o fortalecimento do controle sobre empresas privadas que operam
esses sistemas.
“Esperamos que esses achados possam não só orientar e subsidiar a tramitação do PL 2338 na Câmara dos Deputados, mas também servir de alerta para que órgãos reguladores e de controle estejam atentos ao que ocorre no Brasil. O relatório evidencia tanto os vieses raciais no uso da tecnologia quanto problemas de mau uso de recursos públicos e falta de transparência na sua implementação”, afirma, em nota, o coordenador-geral do CESeC, Pablo Nunes.