Lito Brazil

“Direito à Revisão Humana”: PL 2338 Cria Marco Legal da IA no Brasil e Prevê Multa de R$ 50 Milhões Por Discriminação Algorítmica

“Direito à Revisão Humana”: PL 2338 Cria Marco Legal da IA no Brasil e Prevê Multa de R$ 50 Milhões Por Discriminação Algorítmica

Brasília, abril de 2026. O Brasil está prestes a ter sua primeira lei específica sobre Inteligência Artificial. O Projeto de Lei nº 2.338/2023 — o Marco Legal da IA — foi aprovado por unanimidade no plenário do Senado Federal em 10 de dezembro de 2024 e, em 2026, tramita na Câmara dos Deputados para votação final. A expectativa é de que o relatório seja apresentado e votado entre o fim de abril e o início de maio. O texto adota o modelo europeu (AI Act): classifica sistemas de IA por nível de risco (excessivo, alto, baixo/moderado), estabelece direitos dos afetados (transparência, explicação, contestação), cria o Sistema Nacional de Regulação e Governança de IA (SIA) e prevê sanções de até R$ 50 milhões por infração. Mas há uma pergunta que o anúncio não responde: quando a lei chegar, quem vai fiscalizar? Quando o algoritmo discriminar, quem vai ouvir a denúncia? Quando o cidadão exigir revisão humana, vai ter humano disponível? Ou a lei será letra morta — bonita no papel, ausente na prática?

O PL 2338/2023 percorreu uma trajetória de cinco anos. Fevereiro de 2020: PL 21/2020 apresentado na Câmara. Setembro de 2021: aprovado na Câmara. 2022: Comissão de Juristas no Senado analisa texto. Maio de 2023: Senador Rodrigo Pacheco apresenta PL 2338/2023. Dezembro de 2023: CTIA (Comissão Temporária de IA) instalada no Senado. Novembro de 2024: relatório final do Senador Eduardo Gomes (MDB-TO). 10 de dezembro de 2024: aprovação unânime no plenário do Senado. 2025-2026: tramitação na Câmara dos Deputados. 2026: expectativa de aprovação final e sanção. O relator, Senador Eduardo Gomes, consolidou contribuições de mais de 300 especialistas, empresas, academia e sociedade civil em audiências públicas entre 2023-2024. A posição dele é pragmática: equilibrar inovação com proteção de direitos fundamentais. Mas equilíbrio para quem? Para a empresa que inova ou para o cidadão que é afetado?

Arquitetura por Risco: Três Níveis, Três Realidades

A arquitetura da lei se baseia em classificação por risco. Nível 1: Risco Excessivo (PROIBIDOS) — sistemas banidos no Brasil: armas autônomas que tomam decisão letal sem supervisão humana, social scoring governamental, técnicas subliminares que explorem vulnerabilidades, reconhecimento de emoções em ambiente de trabalho e educacional, scraping indiscriminado de imagens faciais em ambientes públicos. Sanção por violação: multa de até R$ 50 milhões por infração + suspensão da atividade. Nível 2: Alto Risco (FORTEMENTE REGULADOS) — sistemas permitidos, mas com obrigações severas: triagem curricular e recrutamento (RH automatizado), análise de crédito e risco financeiro, saúde (diagnóstico, triagem, priorização), educação (avaliação e classificação de alunos), justiça criminal (análise de reincidência, vigilância biométrica), serviços públicos essenciais, imigração, veículos autônomos, infraestrutura crítica. Obrigações: avaliação de impacto algorítmico (AIA) prévia, governança robusta (logs, auditorias, testes), supervisão humana efetiva sobre decisões, transparência, documentação técnica completa, registro em banco público. Nível 3: Risco Baixo ou Moderado (OBRIGAÇÕES MÍNIMAS) — maior parte das IAs comerciais (chatbots genéricos, recomendação de produtos, assistentes virtuais): transparência básica (usuário deve saber que está interagindo com IA), identificação de conteúdo gerado por IA (deepfakes, imagens sintéticas), regras de uso acessíveis.

Sob a Lente da Amefricanidade

Sob a lente da Amefricanidade, essa arquitetura revela padrões conhecidos de poder e proteção. Justiça/Reparação exige que nomejemos quem se beneficia e quem paga o custo. Quem se beneficia da regulação? As empresas que ganham segurança jurídica. Os investidores que ganham previsibilidade. O Estado que ganha instrumento de fiscalização. Quem paga o custo? As empresas que precisam se adequar. Os cidadãos que continuam expostos até a lei entrar em vigor. Mas há uma pergunta mais profunda: a regulação protege quem já está protegido ou protege quem mais precisa? O PL 2338 proíbe discriminação algorítmica por raça, gênero, orientação sexual, religião, condição socioeconômica ou deficiência. Isso é justiça? Ou é apenas letra na lei? Porque a discriminação já existe. O viés já está nos datasets. O racismo já está codificado. A lei chega depois do dano. A pergunta é: a lei repara? Ou apenas previne (mal) o próximo dano?

Direitos do Cidadão: O Catálogo e Suas Tensões

O PL 2338/2023 cria um catálogo de direitos para qualquer pessoa afetada por decisão de IA. Direito à Informação Prévia — antes de qualquer interação, a pessoa deve saber: que está interagindo com IA, qual a finalidade, quais dados são coletados, quem é o operador e desenvolvedor. Direito à Explicação — quando uma decisão automatizada afeta a pessoa, ela pode exigir explicação técnica e compreensível sobre critérios usados, dados relevantes e lógica geral do sistema. Direito à Revisão Humana — decisões totalmente automatizadas que impactem direitos ou produzam efeitos jurídicos podem ser contestadas perante ser humano qualificado. Exemplo prático: se um banco nega crédito apenas com base em algoritmo, o cliente tem direito a revisão por analista humano. Direito à Não-Discriminação Algorítmica — proibição de discriminação direta, indireta ou por viés algorítmico com base em raça, gênero, orientação sexual, religião, convicção política, condição socioeconômica ou deficiência. Direito à Privacidade e Proteção de Dados — reforço da LGPD: sistemas de IA devem respeitar princípios de finalidade, necessidade, transparência e segurança. Direito à Contestação Administrativa — reclamação pode ser feita diretamente à autoridade competente (provavelmente ANPD) — sem necessidade de ação judicial prévia. Mas há uma tensão que o texto não resolve: o direito existe. Mas o acesso ao direito? Quem pode exercer esses direitos? Quem tem tempo? Quem tem informação? Quem tem recurso? O direito à revisão humana pressupõe humano disponível. O direito à explicação pressupõe explicação compreensível. O direito à contestação pressupõe autoridade que ouve. A lei cria direitos. Mas cria condições para exercê-los?

Os Valores da Casa em Diálogo com o Texto

Ao aplicar os valores da House of 7, emergem perguntas incômodas. Não-Violência/Cuidado — a lei pode prevenir danos. Pode proibir sistemas abusivos. Pode exigir supervisão humana. Isso é cuidado? Ou é violência estrutural mascarada de proteção? Quando o Estado regula a IA, está cuidando dos cidadãos ou está regulando o mercado? Está protegendo o vulnerável ou está garantindo que a inovação continue sem interrupção? Verdade/Axé — a verdade é que a lei é um avanço. Sim. É importante. Sim. Mas a verdade também é que a lei chega cinco anos depois do início da tramitação. A verdade é que a discriminação algorítmica já existe — estudo da FGV de abril de 2026 indicou 15% de discriminação em algoritmos de RH. A verdade é que o Nubank anunciou R$ 45 bilhões em investimento em IA para crédito — exatamente o tipo de sistema de “alto risco” que a lei regula. A verdade é que a lei não apaga o passado. Não repara o dano já causado. A verdade precisa ser dita inteira. Coletividade — a lei foi construída com 300 especialistas, empresas, academia, sociedade civil. Isso é coletividade? Ou é negociação de poder? Quem estava na mesa? Quem foi ouvido? Quem ficou de fora? O terreiro pergunta: a decisão é de dentro ou de fora? A comunidade foi consultada? Ou foram apenas os de sempre?

Sistema Nacional de Governança: Estrutura e Vácuo

O projeto cria o Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA) — estrutura distribuída de fiscalização. ANPD coordena centralmente. Reguladores setoriais fiscalizam: Banco Central (finanças), ANVISA (saúde), ANATEL (telecom). Órgão colegiado: CNRIA (Conselho Nacional de Regulação de IA). Comitê científico e multissetorial faz consulta técnica. Sanções previstas: advertência + obrigação de adequação (leve), multa simples até 2% do faturamento (limite R$ 50 milhões) (média), multa + suspensão parcial da atividade (grave), proibição de operar + multa máxima (gravíssima). Reincidência dobra o valor da multa. Mas há uma pergunta que a governança não responde: a ANPD tem estrutura para fiscalizar? Tem gente? Tem orçamento? Tem capacidade técnica? Porque a lei é bonita. A estrutura é impressionante. Mas sem fiscalização, a lei é papel. E o algoritmo continua rodando. E a discriminação continua acontecendo. E o cidadão continua sem recurso.

Que Brasil Estamos Regulando?

Olhando para o contexto brasileiro, a notícia revela algo mais profundo. O Brasil é um país de desigualdade estrutural. Racismo estrutural. Sexismo estrutural. A IA não chega num terreno neutro. Ela chega num terreno já marcado. E o viés algorítmico é apenas o viés social codificado. Um estudo de abril de 2026 apontou que modelos de IA, mesmo de código aberto, podem favorecer currículos com nomes associados a pessoas brancas e mulheres, e que homens negros apresentam o pior desempenho. A Amazon descontinuou um sistema de IA para seleção de pessoal após perceber que ele preferia homens. O Nubank usa IA para análise de crédito — e nega crédito para quem? Para os periféricos? Para os negros? Para os pobres? A lei proíbe discriminação. Mas o algoritmo não declara racismo. Ele declara “risco”. Ele declara “score”. Ele declara “perfil”. E o racismo segue lá — codificado, invisibilizado, negado. A lei chega. Mas o racismo não sai. Porque o racismo não é bug. É feature. É o sistema funcionando como sempre funcionou.

A pergunta que fica, depois dos R$ 50 milhões, depois do “direito à revisão humana”, depois da classificação por risco, é simples e profunda: que Brasil estamos regulando? Um Brasil onde a lei protege o cidadão ou protege o mercado? Um Brasil onde a fiscalização chega antes do dano ou depois da denúncia? Um Brasil onde o direito à revisão humana é real — onde tem humano, tem tempo, tem escuta? Ou podemos imaginar outro caminho? Um caminho onde a regulação é construída de dentro — do terreiro, do quilombo, da comunidade? Onde o viés é nomeado antes de ser codificado? Onde a justiça é reparação, não apenas prevenção? A lei é importante. Sim. É necessária. Sim. Mas a lei, sozinha, não muda o mundo. O mundo muda com gente. Com fiscalização. Com coragem. Com axé. E se a gente não cuidar disso agora, se a gente não exigir que a lei seja viva, que a fiscalização seja real, que o direito seja acessível — a lei chega. Mas a lei chega morta. Chega sem dente. Chega só no papel.

Leave a Reply

Your email address will not be published. Required fields are marked *