Lito Brazil

Quem Regula a IA no Brasil? A Lei que Escreve o Futuro sem Ouvir o Povo

Quem Regula a IA no Brasil? A Lei que Escreve o Futuro sem Ouvir o Povo

O PL 2338/2023 chega à votação final em maio de 2026. Big Techs ficaram de fora da classificação de “alto risco”. Startups temem ser esmagadas. Sociedade civil cobra transparência. E o povo brasileiro — aquele que vai viver com as consequências dessa lei — foi convidado para a roda?

O Lede: Brasília, Maio de 2026

Imagine um auditório em Brasília. Ar-condicionado no 18. Café expresso nos intervalos. Deputados em ternos bem cortados. Lobistas de Big Tech com crachás de visitante. Representantes de startups com olhos cansados de quem viaja de ônibus interestadual. E, no corredor, esperando para ser ouvida, a sociedade civil.

Dentro da sala, decide-se o futuro da inteligência artificial no Brasil. Fora da sala, vive-se esse futuro.

O PL 2338/2023 — o Marco Legal da Inteligência Artificial — está em sua reta final. A Comissão Especial da Câmara deve votar em 27 de maio. Depois, vai a plenário. Depois, volta ao Senado. Depois, sanção presidencial. Depois, vacatio legis até 2028 ou 2029.

Até lá, o Brasil que existe hoje — o Brasil das favelas, dos quilombos, das periferias, dos terreiros — vai continuar sendo impactado por algoritmos que essa lei deveria regular. Mas será que regula?

O Que Diz a Lei (e o Que Não Diz)

O texto é inspirado no AI Act europeu. Abordagem baseada em risco. Sistemas de “alto risco” — saúde, educação, emprego, justiça, infraestrutura crítica — terão obrigações rigorosas. Transparência. Auditoria. Prestação de contas.

Sistemas de “risco excessivo” — aqueles com comprometimento significativo e irreparável de direitos — serão proibidos.

Parece bom. Parece sério. Parece proteção.

Mas há um buraco. Um buraco do tamanho de uma Big Tech.

Sistemas de recomendação e distribuição de conteúdo — os algoritmos que decidem o que você vê no feed, o que viraliza, o que é amplificado — foram retirados da classificação de “alto risco” em dezembro de 2024.

Repórteres Sem Fronteiras criticou. Organizações de mídia cobraram. O relator retirou.

Por quê?

As Controvérsias: Quem Ganha, Quem Perde

A tramitação do PL 2338/2023 foi marcada por embates. Cada setor puxando a brasa para sua sardinha:

Big Techs: Argumentam que regulação excessiva “engessa a inovação”. Conseguiram a retirada dos sistemas de recomendação da lista de alto risco. Têm lobistas em Brasília. Têm escritórios de advocacia caríssimos. Têm tempo e dinheiro para esperar a vacatio legis de 2028-2029.

Startups brasileiras: Temem que a regulação as esmague. “Inovar ou obedecer”, manchetam. Dizem que só as grandes empresas terão estrutura para cumprir exigências regulatórias. Pedem simplificação. Pedem apoio. Pedem para não serem tratadas como Big Tech.

Sociedade civil: Cobra transparência. Cobra participação nos debates. Cobra clareza sobre direitos autorais (quem é dono do que a IA gera?), proteção trabalhista (o que acontece com os trabalhadores substituídos por IA?), e viés algorítmico (como proteger negros, indígenas, mulheres, LGBTQIA+ de sistemas treinados com dados enviesados?).

ANPD: A Autoridade Nacional de Proteção de Dados será a coordenadora do Sistema Nacional de IA. Ganhou autonomia com a Lei 15.352/2026. Tem agenda regulatória 2025-2026. Tem poder. Mas tem orçamento? Tem equipe? Tem independência real?

Ministérios: Há conflitos internos. Ministério da Ciência e Tecnologia quer fomentar inovação. Ministério da Justiça quer proteger direitos. Ministério da Economia quer atrair investimentos. Cada um puxa para um lado. O texto final é um Frankenstein de compromissos.

2026: Ano Eleitoral e a Sombra dos Deepfakes

O Brasil vive ano eleitoral. Presidente. Governadores. Senadores. Deputados. Tudo em jogo.

O TSE já estabeleceu regras para IA nas eleições de 2026. Deepfakes são proibidos. Plataformas devem detectar e mitigar conteúdo gerado por IA em propaganda eleitoral. Transparência é obrigatória.

Mas o PL 2338/2023 não entra em vigor até 2028-2029. Ou seja: as eleições de 2026 acontecem antes da lei estar valendo.

As regras do TSE valem. Mas a lei geral, não.

É como construir o telhado depois que a chuva já entrou.

Amefricanidade: Quem Está Fora da Roda?

No terreiro, quando tomamos uma decisão importante, fazemos uma pergunta: quem está fora da roda?

Quem não foi convidado? Quem não tem voz? Quem vai viver as consequências sem ter participado da escolha?

Olhamos para o PL 2338/2023 e perguntamos:

Onde estão as Mães de santo de Salvador, cujos terreiros são alvo de intolerância religiosa amplificada por algoritmos de ódio?

Onde estão os jovens da periferia de São Paulo, que sonham em trabalhar com tecnologia mas não têm acesso à formação, e agora veem uma lei sendo escrita sem que ninguém lhes pergunte o que precisam?

Onde estão os Yanomami, cujas terras são invadidas por garimpeiros que usam tecnologia de ponta para localizar ouro, enquanto eles próprios lutam por acesso a internet básica?

Onde estão as entregadoras de app, cujo trabalho é gerenciado por algoritmos que elas não podem ler, não podem contestar, não podem negociar?

Onde estão os estudantes de escolas públicas, que vão usar IA para estudar, mas não têm garantia de que esses sistemas foram treinados com dados que representam sua realidade, sua história, sua cultura?

A lei é escrita em Brasília. Mas as consequências são vividas em Manaus, em Salvador, no Recife, em Belém, em Fortaleza, em Porto Alegre, em Curitiba, em todo o Brasil.

Regular sem ouvir é como prescrever remédio sem diagnosticar. Pode curar. Pode matar. Mas quase sempre, só trata os sintomas de quem já tem acesso ao médico.

Direitos Autorais: Quem É Dono do Que a IA Cria?

Um dos pontos mais controversos do PL 2338/2023 é a questão dos direitos autorais.

Quando uma IA gera um texto, uma imagem, uma música — quem é o dono? O usuário que fez o prompt? A empresa que treinou o modelo? Os autores cujas obras foram usadas para treinar o modelo sem consentimento?

O texto do PL é vago. “Dispõe sobre o desenvolvimento, o fomento e o uso ético e responsável da inteligência artificial.” Mas não diz claramente:

  • É ético treinar IA com obras protegidas sem pagar os autores?
  • É ético uma empresa americana usar dados brasileiros para criar produtos que serão vendidos de volta ao Brasil?
  • É ético um sistema de IA gerar conteúdo em português sem reconhecer as fontes que o ensinaram a falar nossa língua?

Isso tem nome: extrativismo de dados. É a mesma lógica que extraiu pau-brasil, ouro, açúcar, borracha, minério. Agora extrai dados. E, como sempre, o Brasil fornece a matéria-prima e importa o produto acabado.

Reflexão da Casa: Justiça, Coletividade, Bem Viver

Os valores da House of 7 nos convidam a olhar mais fundo:

Justiça/Reparação: Uma lei de IA justa precisa reparar desigualdades históricas, não reproduzi-las. Precisa perguntar: como a IA afeta negros, indígenas, mulheres, pobres? Como corrigir vieses? Como garantir que os benefícios da IA cheguem a quem mais precisa?

Coletividade: A IA deve servir ao bem comum, não ao lucro corporativo. Uma lei coletiva é escrita com participação popular, não apenas com lobistas em Brasília. É escrita em linguagem acessível, não em juridiquês.

Bem Viver: O Bem Viver indígena e quilombola — viver em equilíbrio com a terra, em comunidade — é compatível com uma IA que extrai dados, que substitui trabalhadores, que amplifica ódio? Ou precisamos de uma IA que sirva ao Bem Viver, que fortaleça comunidades, que preserve saberes tradicionais?

O Que Fazer?

A lei vai passar. Provavelmente em 2026. Provavelmente com ajustes. Provavelmente com vetos. Provavelmente com medidas provisórias.

Mas a sociedade civil não precisa ficar passiva.

Exigir: Que a ANPD tenha orçamento e independência real. Que haja participação popular nas regulamentações específicas. Que direitos autorais sejam claros. Que trabalhadores sejam protegidos. Que vieses algorítmicos sejam combatidos.

Monitorar: Que a implementação da lei seja acompanhada. Que empresas cumpram. Que violações sejam punidas.

Cobrar: Que o Brasil não seja apenas consumidor de IA, mas produtor. Que haja investimento em formação técnica nas periferias. Que haja apoio a startups brasileiras que queiram inovar com ética.

Lembrar: Que uma lei não é um fim. É um começo. O que vem depois depende de quem fica vigilante.

Pergunta Final

Quando a história do PL 2338/2023 for escrita, o que diremos?

Que o Brasil regulou a IA para proteger seu povo? Ou que regulou para proteger as empresas que vendem IA para seu povo?

Que ouvimos quem estava fora da roda? Ou que apenas ampliamos a roda sem mudar quem está no centro?

A lei está sendo escrita. O futuro está sendo negociado. A pergunta é: quem está escrevendo, e para quem?

O axé da regulação pode ser de proteção ou de fachada. A diferença está em quem segura a caneta.

Leave a Reply

Your email address will not be published. Required fields are marked *