Lito Brazil

Ministério da Justiça Regulamenta IA no Reconhecimento de Pessoas: Um Passo Rumo à Justiça ou à Vigilância?

Ministério da Justiça Regulamenta IA no Reconhecimento de Pessoas: Um Passo Rumo à Justiça ou à Vigilância?

No dia 6 de janeiro de 2026, em uma delegacia de São Paulo, um jovem negro aguarda ser liberado após mais uma prisão baseada em reconhecimento fotográfico equivocado. Histórias como esta, que se repetem em delegacias de todo o Brasil, ganham agora um novo capítulo: o Ministério da Justiça e Segurança Pública acaba de estabelecer as primeiras regras federais para o uso de inteligência artificial no reconhecimento de pessoas em investigações criminais.

O ministro Ricardo Lewandowski assinou a Portaria nº 1122/2026, que institui o Protocolo Nacional de Reconhecimento de Pessoas em Procedimentos Criminais. A medida se aplica às Polícias Civis, à Polícia Federal e à Força Nacional de Segurança Pública. Entre as inovações, está a autorização para uso de IA na geração de imagens que compõem os alinhamentos fotográficos apresentados a vítimas e testemunhas, com exigências de transparência, rastreabilidade e diversidade fenotípica. A adesão ao protocolo será critério para priorização de recursos do Fundo Nacional de Segurança Pública.

A regulamentação surge em um contexto onde estudos acadêmicos e organizações de direitos humanos documentam extensamente o viés racial dos sistemas de reconhecimento facial. A tecnologia apresenta taxas de erro significativamente maiores para pessoas negras, perpetuando o que Lélia Gonzalez chamou de racismo por denegação: um sistema que se apresenta como neutro e técnico enquanto reproduz hierarquias coloniais. O protocolo tenta mitigar esses riscos ao exigir variações de fenótipo nas imagens geradas por IA, mas a questão permanece: pode a tecnologia corrigir vieses que estão enraizados na estrutura social brasileira?

Pela perspectiva da Coletividade e da Justiça/Reparação que orientam a ética do bem viver, esta regulamentação representa uma faca de dois gumes. Por um lado, a exigência de registro formal do uso da IA, indicando ferramentas empregadas e justificativas, abre caminho para maior accountability. Por outro, legitima o uso de tecnologias de vigilância que historicamente recaem de forma desproporcional sobre comunidades negras e periféricas. O verdadeiro teste será se essas regras servirão para proteger direitos fundamentais ou se oferecerão apenas uma verniz de legalidade para práticas de perseguição automatizada.

Como podem as comunidades afro-brasileiras e os movimentos de justiça racial participar ativamente da fiscalização e da evolução dessas regulamentações, garantindo que a tecnologia sirva à reparação histórica e não à perpetuação de injustiças?

Leave a Reply

Your email address will not be published. Required fields are marked *