Mapeando a Vigilncia Biomtrica 6d663n
Por: Agncia Brasil
Publicado em: 07/05/2025 08:38 | Atualizado em: 07/05/2025 08:43
![]() | |
Foto: Marcelo Camargo/Agncia Brasil |
Sorria! Seu rosto est sendo no s filmado, mas tambm classificado, comparado e identificado, principalmente por rgos pblicos de segurana e. na maioria das vezes, sem seu conhecimento. o que mostra pesquisa da Defensoria Pblica da Unio (DPU) em parceria com o Centro de Estudos de Segurana e Cidadania (CESeC), instituio acadmica vinculada Universidade Candido Mendes, no Rio de Janeiro.
Divulgado nesta quarta-feira (7), o relatrio Mapeando a Vigilncia Biomtrica aponta que, aps sediar a Copa do Mundo, em 2014, o Brasil se tornou um vasto campo de vigilncia digital onde as chamadas tecnologias de Reconhecimento Facial (TRFs) encontraram solo frtil para se espalhar. Graas, em parte, promessa de facilitar a identificao de criminosos e a localizao de pessoas desaparecidas.
“O reconhecimento facial vem sendo amplamente incorporado por rgos pblicos no Brasil, em processo que comeou com a realizao dos megaeventos no pas – especialmente a Copa do Mundo de Futebol, em 2014, e os Jogos Olmpicos, em 2016”, sustentam os autores do documento, referindo-se s sofisticadas e caras cmeras de reconhecimento facial, cada vez mais presentes na paisagem urbana.
Segundo os pesquisadores, em abril deste ano havia, no Brasil, ao menos 376 projetos de reconhecimento facial ativos. Juntos, esses empreendimentos tm o potencial de vigiar quase 83 milhes de pessoas, o equivalente a cerca de 40% da populao brasileira. E j movimentaram ao menos R$ 160 milhes em investimentos pblicos - valor calculado a partir das informaes que 23 das 27 unidades federativas forneceram aos responsveis pelo estudo - no responderam pesquisa, feita entre julho e dezembro de 2024, o Amazonas, Maranho, a Paraba e Sergipe.
“A despeito de todo esse cenrio, as solues regulatrias esto atrasadas”, sustentam os pesquisadores da DPU e do CESeC, assegurando que o Brasil ainda no tem leis para disciplinar o uso dos sistemas de vigilncia digital, em particular das cmeras de reconhecimento facial.
Alm disso, para os especialistas, faltam mecanismos de controle externo, padres tcnico-operacionais uniformes e transparncia na implementao dos sistemas. O que amplia as chances de ocorrerem erros graves, violaes de privacidade, discriminao e mau uso de recursos pblicos.
Erros
Em outro levantamento, o CESeC mapeou 24 casos ocorridos entre 2019 e abril de 2025, nos quais afirma ter identificado falhas dos sistemas de reconhecimento facial. O mais conhecido deles o do personal trainer Joo Antnio Trindade Bastos, de 23 anos.
Em abril de 2024, policiais militares retiraram Bastos da arquibancada do Estdio Lourival Batista, em Aracaju (SE), durante a partida final do Campeonato Sergipano. Eles conduziram o rapaz at uma sala, onde o revistaram de forma rspida. S aps checarem toda a documentao de Bastos, que teve que responder a vrias perguntas para comprovar que era quem ele dizia ser, os PMs revelaram que o sistema de reconhecimento facial implantado no estdio o tinha confundido com um foragido.
Indignado, Bastos usou as redes sociais para fazer um desabafo contra a injustia sofrida. A repercusso do caso levou o governo de Sergipe a suspender o uso da tecnologia pela PM - que, segundo notcias da poca, j a tinha usado para deter mais de dez pessoas.
Bastos negro. Como a maioria das pessoas identificadas pelos sistemas de vigilncia e reconhecimento facial, no Brasil e em outros pases - de acordo com o relatrio da DPU e do CESeC, h indicadores de que 70% das foras policiais do mundo tm o a algum tipo de TRF e que 60% dos pases tm reconhecimento facial em aeroportos. No Brasil, “mais da metade das abordagens policiais motivadas por reconhecimento facial resultaram em identificaes equivocadas, evidenciando o risco de prises indevidas”.
“As preocupaes com o uso dessas tecnologias no so infundadas”, alertam os especialistas, citando pesquisas internacionais segundo as quais, em alguns casos, as taxas de erros dos sistemas so “desproporcionalmente elevadas para determinados grupos populacionais, sendo de dez a 100 vezes maiores para pessoas negras, indgenas e asiticas em comparao com indivduos brancos”. Essa constatao motivou o Parlamento Europeu a, em 2021, alertar que “[as] imprecises tcnicas dos sistemas de Inteligncia Artificial [IA], concebidos para a identificao biomtrica a distncia de pessoas singulares, podem conduzir a resultados enviesados e ter efeitos discriminatrios.”
Legislao
Ao tratar dos “desafios institucionais e normativos”, os pesquisadores lembram que, em dezembro de 2024, o Senado aprovou o Projeto de Lei n. 2338/2023, que busca regulamentar o uso de inteligncia artificial, incluindo sistemas biomtricos na segurana pblica. Para se tornar lei, a proposta ter que ser aprovada pela Cmara dos Deputados que, no ms ado, criou uma comisso especial para debater o tema.
Alm disso, para os pesquisadores da DPU e do CESeC, embora o PL proponha a proibio do uso de sistemas de identificao biomtrica a distncia e em tempo real em espaos pblicos, o texto aprovado pelo Senado prev tantas excees que, na prtica, funciona “como uma autorizao ampla para a implementao” desses sistemas.
“As categorias de permisses [no texto aprovado] incluem investigaes criminais, flagrante delito, busca por desaparecidos e recaptura de foragidos, situaes que abrangem um espectro considervel de atividades da segurana pblica. Considerando o histrico de abusos e a falta de mecanismos eficazes de controle, essa abertura para uso acaba mantendo a possibilidade de um estado de vigilncia e de violao de direitos.”
Recomendaes
Os pesquisadores concluem defendendo a urgncia de um “debate pblico qualificado”, com a participao ativa da sociedade civil, membros da academia e representantes de rgos pblicos de controle e de organismos internacionais.
Eles tambm recomendam o que classificam como “medidas urgentes”, como a aprovao de uma lei nacional especfica para regulamentar o uso da tecnologia; a padronizao de protocolos que respeitem o devido processo legal e a realizao de auditorias independentes e regulares.
Os especialistas tambm apontam a necessidade de que os rgos pblicos deem mais transparncia aos contratos e s bases de dados utilizados, garantindo o o da populao a informaes claras sobre os sistemas de reconhecimento facial e capacitando os agentes pblicos que lidam com o tema. E sugerem a obrigatoriedade de autorizao judicial prvia para uso das informaes obtidas com o uso das TRFs em investigaes, bem como a limitao temporal para armazenamento de dados biomtricos e o fortalecimento do controle sobre empresas privadas que operam esses sistemas.
“Esperamos que esses achados possam no s orientar e subsidiar a tramitao do PL 2338 na Cmara dos Deputados, mas tambm servir de alerta para que rgos reguladores e de controle estejam atentos ao que ocorre no Brasil. O relatrio evidencia tanto os vieses raciais no uso da tecnologia quanto problemas de mau uso de recursos pblicos e falta de transparncia na sua implementao”, afirma, em nota, o coordenador-geral do CESeC, Pablo Nunes.
10/08/2023 s 10:52
10/08/2023 s 07:13
10/08/2023 s 07:13
09/08/2023 s 10:34
10/08/2023 s 15:06
22/08/2014 s 09:33