Avanços da Inteligência Artificial nas Investigações Criminais no Brasil
O uso de ferramentas de inteligência artificial, reconhecimento facial e câmeras corporais tem se intensificado nas investigações e processos criminais no Brasil. No entanto, essa adoção ocorre sem critérios claros e transparência, levantando preocupações sobre os direitos fundamentais. Essa análise é parte do relatório “Algoritmos e Direitos: Tecnologias Digitais na Justiça Criminal“, elaborado pelo Centro de Estudos de Segurança e Cidadania (Cesec).
Falta de Transparência e Governança
O relatório examina a incorporação dessas tecnologias por polícias, Ministérios Públicos e tribunais, revelando a ausência de registros formais e critérios de governança. Além disso, destaca as fragilidades técnicas que aumentam a probabilidade de erros e vieses algorítmicos, com estudos indicando taxas de erro mais elevadas em rostos de pessoas negras, indígenas e de grupos sub-representados.
Dados sobre o Uso das Tecnologias
Apenas 28,5% das Secretarias de Segurança Pública responderam a solicitações de informações sobre o uso dessas tecnologias. Entre as Polícias Civis, dois terços não forneceram dados. Nos Ministérios Públicos, apenas três unidades confirmaram o uso de sistemas de reconhecimento facial, sem esclarecer como os resultados são aplicados nas investigações. A falta de documentação nos autos é uma preocupação, mesmo em casos onde há indícios de uso frequente.
Impactos dos Resultados Algorítmicos
O relatório sugere que os resultados gerados por algoritmos podem influenciar a formação de suspeitas e pedidos de prisão, sem deixar registros processuais que permitam o contraditório. Os erros associados ao reconhecimento facial afetam desproporcionalmente pessoas negras e mulheres, resultando em prisões indevidas e ampliando a fragilidade probatória.
Expansão da Inteligência Artificial no Judiciário
No Judiciário, a adoção de inteligência artificial também está em crescimento. O relatório aponta que tribunais brasileiros utilizam pelo menos 63 sistemas de IA, desde triagem de processos até ferramentas para redação de decisões. Contudo, 76% dos magistrados e servidores recorrem a plataformas privadas, como ChatGPT e Copilot, para elaboração de documentos, frequentemente sem informar os juízes, o que pode comprometer a segurança de dados sensíveis.
Desafios na Regulamentação e Uso de Câmeras Corporais
Embora o Conselho Nacional de Justiça tenha publicado uma resolução em 2025 para regular o uso de IA, o Cesec destaca a necessidade de mecanismos de auditoria independente e critérios claros de responsabilização. No que diz respeito às câmeras corporais, a eficácia como instrumento de transparência depende mais do contexto político e jurídico do que da tecnologia em si. Protocolos adequados e acesso igualitário às imagens são essenciais para fortalecer o controle externo da atividade policial.
Entretanto, em ambientes com baixa governança, o controle interno das gravações pode comprometer a responsabilidade e a validade probatória das imagens. A falta de custódia adequada ou a interpretação enviesada das gravações devem ser tratadas como falhas processuais, respeitando os princípios do devido processo legal.
Fonte por: Convergencia Digital
