Reconhecimento facial e IA: falta de critério e transparência na polícia e Justiça

Relatório Algoritmos e Direitos revela mau uso e fragilidade probatória das Tecnologias Digitais na Justiça Criminal.

12/12/2025 18:10

3 min de leitura

(Imagem de reprodução da internet).

Avanços da Inteligência Artificial nas Investigações Criminais no Brasil

O uso de ferramentas de inteligência artificial, reconhecimento facial e câmeras corporais tem se intensificado nas investigações e processos criminais no Brasil. No entanto, essa adoção ocorre sem critérios claros e transparência, levantando preocupações sobre os direitos fundamentais. Essa análise é parte do relatório “Algoritmos e Direitos: Tecnologias Digitais na Justiça Criminal“, elaborado pelo Centro de Estudos de Segurança e Cidadania (Cesec).

Falta de Transparência e Governança

O relatório examina a incorporação dessas tecnologias por polícias, Ministérios Públicos e tribunais, revelando a ausência de registros formais e critérios de governança. Além disso, destaca as fragilidades técnicas que aumentam a probabilidade de erros e vieses algorítmicos, com estudos indicando taxas de erro mais elevadas em rostos de pessoas negras, indígenas e de grupos sub-representados.

Dados sobre o Uso das Tecnologias

Apenas 28,5% das Secretarias de Segurança Pública responderam a solicitações de informações sobre o uso dessas tecnologias. Entre as Polícias Civis, dois terços não forneceram dados. Nos Ministérios Públicos, apenas três unidades confirmaram o uso de sistemas de reconhecimento facial, sem esclarecer como os resultados são aplicados nas investigações. A falta de documentação nos autos é uma preocupação, mesmo em casos onde há indícios de uso frequente.

Impactos dos Resultados Algorítmicos

O relatório sugere que os resultados gerados por algoritmos podem influenciar a formação de suspeitas e pedidos de prisão, sem deixar registros processuais que permitam o contraditório. Os erros associados ao reconhecimento facial afetam desproporcionalmente pessoas negras e mulheres, resultando em prisões indevidas e ampliando a fragilidade probatória.

Expansão da Inteligência Artificial no Judiciário

No Judiciário, a adoção de inteligência artificial também está em crescimento. O relatório aponta que tribunais brasileiros utilizam pelo menos 63 sistemas de IA, desde triagem de processos até ferramentas para redação de decisões. Contudo, 76% dos magistrados e servidores recorrem a plataformas privadas, como ChatGPT e Copilot, para elaboração de documentos, frequentemente sem informar os juízes, o que pode comprometer a segurança de dados sensíveis.

Desafios na Regulamentação e Uso de Câmeras Corporais

Embora o Conselho Nacional de Justiça tenha publicado uma resolução em 2025 para regular o uso de IA, o Cesec destaca a necessidade de mecanismos de auditoria independente e critérios claros de responsabilização. No que diz respeito às câmeras corporais, a eficácia como instrumento de transparência depende mais do contexto político e jurídico do que da tecnologia em si. Protocolos adequados e acesso igualitário às imagens são essenciais para fortalecer o controle externo da atividade policial.

Entretanto, em ambientes com baixa governança, o controle interno das gravações pode comprometer a responsabilidade e a validade probatória das imagens. A falta de custódia adequada ou a interpretação enviesada das gravações devem ser tratadas como falhas processuais, respeitando os princípios do devido processo legal.

Fonte por: Convergencia Digital

Autor(a):

Portal de notícias e informações atualizadas do Brasil e do mundo. Acompanhe as principais notícias em tempo real