O Brasil tenta regular a IA em duas camadas: direitos no PL 2.338 e governança no novo SIA
Num balcão de atendimento público — desses onde a fila começa antes do sol e termina quando a paciência acaba — alguém escuta uma frase que já virou rotina no Brasil digital: “foi o sistema”. A vaga negada, o benefício travado, o pedido marcado como suspeito, a inscrição reprovada. Do outro lado do guichê, a pessoa que atende também não consegue explicar. Ela só vê uma tela com um semáforo: verde, amarelo, vermelho. E, quando o vermelho aparece, a conversa muda de tom. A dúvida que fica não é só técnica. É política: quando uma máquina decide (ou empurra a decisão), a quem o cidadão brasileiro recorre? Em que idioma se pede revisão? Em que praça se faz a cobrança? E quem, dentro do Estado, tem autoridade para dizer “isso aqui não pode”?
É nesse terreno — entre o “foi o sistema” e o direito de contestar — que o Brasil tenta montar sua arquitetura regulatória para a inteligência artificial. De um lado, está o PL 2.338/2023, o marco regulatório de IA aprovado no Senado em dezembro de 2024 e hoje em revisão na Câmara dos Deputados. De outro, o governo federal encaminhou, em dezembro de 2025, um novo projeto de lei que cria o Sistema Nacional para Desenvolvimento, Regulação e Governança de Inteligência Artificial (SIA) e coloca a Autoridade Nacional de Proteção de Dados (ANPD) como a instância responsável por normas gerais e fiscalização de setores que hoje não têm regulador próprio, além de organizar o papel das autoridades setoriais. Em vez de substituir o PL 2.338, o governo diz que essa proposta “sana vício de iniciativa”: corrige um problema constitucional de atribuir competências à ANPD por projeto de origem parlamentar, algo que exigiria iniciativa do Executivo. O resultado, na prática, é uma tentativa de regular a IA em duas camadas: uma camada de direitos, riscos e proibições (o PL 2.338) e uma camada institucional de “quem governa o quê” (o SIA).
O que isso significa para o Brasil real — para os territórios onde o Estado é presença e ausência ao mesmo tempo — depende menos de slogans e mais de desenho fino. Quem participa das instâncias consultivas? Como a ANPD vai operar quando o assunto não é só dados pessoais, mas discriminação algorítmica, segurança, consumo, trabalho, educação? E como a regulação evita repetir um velho padrão brasileiro: modernizar a forma, mantendo a hierarquia — tecnologia nova, desigualdade antiga.
No papel, o PL do governo descreve um sistema nacional com múltiplas peças. A ANPD aparece como autoridade para editar normas gerais e regular/fiscalizar setores “desregulados”, enquanto agências e secretarias com competência setorial (como ANS na saúde suplementar, por exemplo) manteriam o poder de regular IA dentro de seus respectivos segmentos. Para dar corpo à “escuta”, o texto cria duas instâncias consultivas: o Comitê de Regulação e Inovação em Inteligência Artificial (CRIA), com representantes da sociedade civil e do setor produtivo, incluindo pessoas afetadas por aplicações de IA; e o Comitê de Especialistas e Cientistas de Inteligência Artificial (CECIA), composto por especialistas de notório saber, com independência em relação aos setores regulados. A proposta também menciona a criação de um Conselho Brasileiro de Inteligência Artificial (CBIA), inspirado no Conselho Monetário Nacional, para fixar diretrizes e políticas estratégicas de IA, com participação de ministérios e da ANPD.
Ao mesmo tempo, o PL 2.338 segue seu caminho na Câmara. O registro de tramitação mostra que o Senado enviou o texto para revisão em março de 2025, e que a Câmara criou uma Comissão Especial para analisá-lo, com relatoria do deputado Aguinaldo Ribeiro. A própria comunicação do governo aponta que o novo PL não trata das “restrições, proibições e aplicações de alto risco” — isso continua sendo discutido no âmbito do PL 2.338. Em outras palavras: o Estado brasileiro está tentando montar o esqueleto de governança sem, necessariamente, fechar ainda a pele da regulação material.
Há algo estratégico — e também arriscado — nessa divisão. Estratégico porque, num país de regulação fragmentada, a pergunta “quem manda?” vira gargalo antes mesmo de discutir “o que pode?”. Arriscado porque, se a governança se fortalece sem que os direitos e as salvaguardas avancem na mesma velocidade, o Brasil pode acabar com um sistema sofisticado de coordenação… para administrar assimetrias, e não para corrigi-las.
O Brasil tem memória institucional para desconfiar de soluções apenas administrativas. Em políticas digitais, é comum ver comitês e conselhos nascerem com promessa de participação social e, depois, se tornarem espaços de linguagem técnica onde quem já tem advogado, lobby e tempo ocupa as cadeiras de forma mais consistente. A pergunta Amefricanidade aqui é direta: quem tem acesso à mesa onde se escreve a regra? Porque, historicamente, o Brasil distribuiu cidadania de forma desigual. A tecnologia tende a repetir a distribuição do acesso — a não ser que a regulação force o contrário.
O texto do governo tenta responder com uma frase importante: o CRIA incluiria “pessoas afetadas” por aplicações de IA. Se isso virar prática real — com poder de influenciar, com transparência, com recursos para participação — pode ser uma inflexão. Mas também pode virar um gesto simbólico se a participação vier sem condições materiais: sem orçamento, sem assessoramento técnico independente, sem mecanismos claros de como a contribuição se converte em norma. Não basta convidar a favela para a reunião se a reunião é conduzida em um dialeto jurídico que a exclui. Participação, no Brasil, precisa ser desenhada como reparação: não como concessão.
Há também o tema da ANPD. No Brasil, a ANPD nasceu com foco em dados pessoais, e a LGPD é o marco que deu linguagem jurídica ao mundo digital. Mas IA é um animal que atravessa várias fronteiras. Um sistema pode ser “legal” do ponto de vista de dados e ainda assim ser injusto do ponto de vista de raça e classe — porque a injustiça pode estar na forma de classificação, na lógica de risco, no desenho de incentivos, no que é medido e no que é ignorado. O PL do governo sugere que a ANPD harmonize regras e atue onde não há regulador setorial, inclusive em IA de propósito geral. Isso é uma expansão de responsabilidade que exigirá capacidade institucional: equipe, orçamento, instrumentos de fiscalização, e uma cultura regulatória que entenda que discriminação algorítmica não é apenas um “incidente” — é um projeto social quando não se coloca freio.
Do lado da Câmara, a tramitação do PL 2.338 já acumula audiências e pedidos de apensação. Isso indica um campo de disputa: setores econômicos que querem previsibilidade e flexibilidade; movimentos sociais que querem limites e direitos; academia que quer rigor; governo que quer governança; e um país que quer, acima de tudo, não ser laboratório de desigualdade automatizada. No meio disso, surgem propostas paralelas. Em fevereiro de 2026, por exemplo, foi apresentado na Câmara o PL 704/2026, que afirma como prioridades estruturantes para o uso de IA o combate à corrupção e a redução de desigualdades sociais, e tenta colocar a desigualdade no centro do “para quê” da tecnologia. Mesmo que esses projetos não avancem rapidamente, eles sinalizam uma disputa narrativa: IA como eficiência e competitividade, ou IA como instrumento que precisa ser amarrado a fins públicos explícitos.
A tentação brasileira é resolver essa disputa com uma fórmula neutra: “inovação com responsabilidade”. Mas neutralidade, aqui, é um atalho perigoso. Porque os efeitos de um sistema automatizado não caem iguais sobre todos. A IA, quando aplicada em crédito, vigilância, seleção de emprego, educação, saúde, tende a amplificar o que já existe: bairros que sempre foram mais policiados viram “mais arriscados”; pessoas que sempre tiveram menos acesso a escola e internet viram “menos promissoras”; trabalhadores com menos proteção viram “mais substituíveis”. Em um país que ainda vive o mito da democracia racial, a IA pode ser a nova linguagem da velha desigualdade: não se diz “não confio em você”; o sistema diz “score insuficiente”. E o racismo estrutural ganha um verniz de matemática.
É por isso que a divisão em duas camadas só faz sentido se a camada institucional estiver amarrada a obrigações concretas de transparência e contestação. O que importa para o cidadão não é apenas saber que existe um sistema nacional. É saber como acionar esse sistema quando a vida é afetada. Quando a decisão automatizada nega um benefício, que canal existe? Qual é o prazo? Que tipo de explicação é exigida? Há revisão humana real, ou apenas um carimbo? Há registro para auditoria? Há penalidade quando a tecnologia produz dano previsível? A governança precisa ser, na prática, uma ponte entre o cidadão e o poder — não um labirinto com placas bonitas.
O House Reflection, para mim, começa com Coletividade. No Brasil, a tecnologia frequentemente chega como promessa individual: “você, empreendedor, vai escalar”; “você, consumidor, vai otimizar”; “você, gestor, vai reduzir custo”. Coletividade pergunta outra coisa: quais são os efeitos comunitários? Uma IA que “otimiza” a fiscalização pode aumentar a punição sobre sempre os mesmos territórios. Uma IA que “melhora” crédito pode aprofundar exclusão se a base de dados reflete décadas de informalidade forçada e desigualdade regional. Regulação com Coletividade exige métricas de impacto social e racial, exige governança com participação real de quem sente o impacto primeiro, exige que o Estado trate desigualdade como variável central, não como efeito colateral.
Justiça/Reparação vai além: ela pede que o Brasil não só evite novos danos, mas encare a história que está embutida nos dados. Dados brasileiros são arquivos de um país colonial, escravocrata e profundamente desigual. Treinar modelos e tomar decisões com esses dados sem uma ética de reparação é como construir uma casa nova com tijolos contaminados e chamar isso de progresso. Reparação, no campo da IA, pode significar: obrigar avaliações de impacto com recorte racial e territorial; exigir mecanismos de contestação acessíveis; proteger trabalhadores de gestão algorítmica opaca; e garantir que os benefícios econômicos da IA (fomento, infraestrutura, capacitação) cheguem também ao Norte, ao Nordeste, ao interior, às periferias — não apenas à Avenida Paulista.
Bem Viver, por fim, questiona o ritmo e o objetivo. O Brasil quer soberania digital, quer produtividade, quer inovação — tudo isso é legítimo. Mas o Bem Viver lembra que um país não é apenas um mercado. É um tecido de comunidades, tradições, modos de vida. A governança de IA precisa permitir que comunidades digam “não” — e que esse “não” tenha consequência. Precisa permitir que a tecnologia seja adaptada a formas coletivas de cuidado, e não apenas a modelos de extração. E precisa reconhecer que há campos em que o Estado deveria ser mais lento, não mais rápido, justamente porque o dano é irreversível: vigilância biométrica em massa, classificação de pessoas por risco, automação de decisões sobre direitos básicos.
O Brasil está diante de uma escolha de arquitetura: construir um sistema que coordene agências e normalize a linguagem da IA, ou construir um sistema que, além de coordenar, redistribua poder. O SIA pode ser a porta de entrada para essa redistribuição — se a participação social for real, se a ANPD tiver músculo e mandato para enfrentar assimetrias, se as autoridades setoriais não virarem escudos corporativos, e se o PL 2.338 avançar com salvaguardas robustas para alto risco e proibições claras para risco excessivo.
A pergunta que fica, e que eu deixo como fechamento, é simples e difícil: quando a IA entrar de vez na administração pública e na vida econômica brasileira, ela vai reforçar a velha frase “a lei não é para todos” — agora em código — ou o Brasil vai conseguir fazer da regulação um ato de quilombo, um modo de dizer que tecnologia também pode ser autogoverno, cuidado e reparação?
Leave a Reply