Quem pesquisa segurança pública no Brasil convive com uma certeza inconveniente: o desafio de conseguir informações das instituições de segurança pública. A reatividade ao escrutínio público e à transparência são marcas dessas corporações que mantêm por décadas lógicas muito similares ao que se via durante períodos autoritários da história nacional.
Nesse sentido, quando o Centro de Estudos de Segurança e Cidadania (CESeC) juntou-se à Defensoria Pública da União (DPU) para pesquisar o uso de reconhecimento facial pelas polícias brasileiras, era factível imaginar que essas corporações fossem mais transparentes com um ente do sistema de justiça brasileiro. Mas infelizmente não foi o que ocorreu.
Poucos foram os estados que responderam aos ofícios no prazo estipulado, sendo necessário a submissão de um segundo ofício. Mesmo com a insistência, quatro governos – Amazonas, Maranhão, Paraíba e Sergipe – ignoraram todos os prazos, violando frontalmente o direito constitucional à publicidade dos atos públicos.
Os dados estão sistematizados no relatório “Mapeando a Vigilância Biométrica”, lançado pelo CESeC e DPU no último dia 7 de maio. Entre os 23 que se manifestaram, quase um quarto omitiu documentos básicos, como contratos e valores, alegando “sigilo operacional”.
O contraste entre a autoridade institucional da DPU e a opacidade rotineira das secretarias de segurança revela quão frágil ainda é o controle social sobre tecnologias de vigilância no Brasil.
Mesmo com respostas parciais, o panorama que reconstruímos confirma a tendência que vem sendo mapeada pelo projeto O Panóptico desde 2019: o reconhecimento facial avança rápido, sem parâmetros claros de eficácia ou respeito a direitos. O monitor hoje registra 376 projetos ativos, capazes de vigiar cerca de 83 milhões de pessoas – quase 40% da população brasileira.
O Panóptico é um projeto do CESeC que monitora a adoção de tecnologias pelas polícias no Brasil, como reconhecimento facial e câmeras corporais. Do total de estados, oito já assinaram contrato ou lançaram licitação; outros oito testam a ferramenta. Os investimentos conhecidos ultrapassam R$ 160 milhões, com a Bahia liderando isolada – R$ 66 milhões em um único contrato –, seguida por Pará e Piauí. Números que ficam ainda maiores se lembrarmos que parte dos governos se recusou a mostrar as planilhas de empenho.
Faltam dados para provar eficiência da nova tecnologia
Faltam, porém, evidências de impacto positivo. Nenhum estado divulga relatórios públicos sobre erros de identificação, falsos positivos ou prisões equivocadas. A maioria tampouco comunica a Autoridade Nacional de Proteção de Dados quando terceiriza o processamento das imagens – obrigação expressa pela LGPD. Minas Gerais chegou a informar a intenção de contratar a norte‑americana Clearview AI, banida em vários países por captar ilegalmente bilhões de fotos nas redes sociais. É a normalização da exceção: enquanto outras jurisdições tratam o reconhecimento facial como tecnologia de “alto risco”, aqui ele se espalha sem avaliação prévia de impacto ou auditoria independente.
A opacidade não é abstrata; ela reorganiza a vida urbana. Em São Paulo, o programa Smart Sampa, que se apresenta como o maior sistema de monitoramento de segurança da América Latina, instalou câmeras em estações de metrô, escolas e Unidades Básicas de Saúde (UBSs) e prevê expansão para equipamentos municipais, com direito a armazenamento e compartilhamento de imagens dos cidadãos. Em algumas UBSs que já receberam o sistema, alguns casos de erro já demonstraram o quão crítico pode ser o uso desses sistemas. Em um dos casos, uma mulher grávida foi apontada como sendo criminosa pelas câmeras da Smart Sampa e, devido ao estresse e ao medo, teve parto prematuro. Em outro caso, um idoso, jardineiro voluntário, teve que passar mais de 10h em uma delegacia para provar que a câmera estava errada, e que ele não era um criminoso.
Presos por engano: quase sempre rostos negros
A instalação dessas câmeras em unidades de saúde também dá um sinal de que o direito constitucional de acesso à saúde não é direito de todos. Na prática, as câmeras criam um novo filtro de acesso a um direito universal, sobretudo para moradores de periferias que sabem quão falíveis os algoritmos são com rostos negros.
Estudos de referência mostram taxas de erro até cem vezes maiores para pessoas não brancas, e dados do nosso monitor indicam que em 2019 mais de 90% dos presos por engano eram negros. Em vez de ponte para serviços, a câmera se converte em fronteira.
Do ponto de vista orçamentário, a disparidade também assusta. Enquanto R$ 66 milhões bancam uma licitação na Bahia, os mesmos cofres estaduais enfrentam déficits crônicos em saúde ou saneamento. Por que, então, os governos continuam investindo em reconhecimento facial? A resposta está numa combinação de fatores: a pressão por respostas rápidas à insegurança, o marketing político em torno de tecnologias supostamente “inteligentes” e o lobby ativo das empresas do setor.
Para gestores públicos, adotar essas ferramentas oferece uma solução aparentemente moderna, que gera manchetes e sinaliza ação, mesmo sem comprovação de eficácia. Além disso, o custo político da vigilância é baixo: ela recai desproporcionalmente sobre populações negras e periféricas, com pouco acesso a meios de contestação judicial ou midiática. O resultado é a consolidação de um modelo de segurança que expande o controle, mas não necessariamente os direitos.
É difícil defender que recursos tão elevados sejam direcionados a sistemas que, além de não comprovarem redução da criminalidade, correm alto risco de reforçar seletividade penal e racismo institucional. A ausência de métricas de custo‑benefício – nenhum estado apresentou estudo sério de eficiência – viola o princípio da economicidade que rege a administração pública.
O processo de pesquisa deixou lições importantes. Primeiro, a legislação de acesso à informação, sozinha, não garante transparência quando o tema é segurança pública. Mesmo com a chancela da DPU, dependemos de reiterações sucessivas para obter pedaços de informação. Segundo, há ampla confusão dentro dos próprios governos sobre quem opera e quem fiscaliza a tecnologia: 70% delegam o sistema à Secretaria de Segurança, mas quase um quarto envolve empresas privadas em alguma etapa sensível. Sem delimitação inequívoca de responsabilidades, cresce o risco de vazamentos ou usos desviados dos dados faciais.
Terceiro, a falta de padronização alimenta a desigualdade territorial. Estados como Pernambuco descrevem cinco etapas de verificação antes da abordagem; Pará envia a patrulha imediatamente após o alerta eletrônico. O mesmo rosto pode receber tratamento diametralmente oposto dependendo do CEP. Ainda assim, poucos governos discutem protocolos públicos, o que impede tanto o controle externo quanto a defesa adequada de quem é abordado.
Diante desse quadro, o relatório formulou um conjunto de recomendações: suspender compras até que exista lei federal específica; exigir mapas de câmeras, publicação de contratos e auditorias periódicas; padronizar abordagens e registrar a informação no auto de prisão; criar conselhos com participação de moradores de áreas vigiadas, Defensoria, Ministério Público e pesquisadores.
São passos que apontam na direção de um uso excepcional dessas ferramentas, alinhado ao padrão europeu que classifica o reconhecimento facial como categoria de “alto risco” e submete seu acionamento a controle judicial e temporal estrito.
Ao final, restam duas perguntas que extrapolam o relatório: por que insistir em soluções caras, pouco transparentes e sabidamente falhas, quando os próprios governos carecem de dados básicos sobre violência – de homicídios não resolvidos a desaparecimentos nunca investigados? E, sobretudo, quem se beneficia de uma infraestrutura que expande a vigilância para dentro do metrô, da praça, da UBS, mas não garante prestação de contas quando a tecnologia falha? Até que essas respostas apareçam, deveríamos estar investindo energias e recursos na consolidação e expansão de direitos daqueles mais vulnerabilizados.