Lito Brazil

Quem Regula a IA no Brasil? A Lei que Escreve o Futuro sem Ouvir o Povo

Quem Regula a IA no Brasil? A Lei que Escreve o Futuro sem Ouvir o Povo

Na terça-feira, 17 de março de 2026, o auditório do Metrópoles em Brasília recebeu três vozes para decidir o futuro da inteligência artificial no Brasil: um deputado federal, uma advogada da Confederação Nacional da Indústria e uma coordenadora do Sebrae. Ausentes: a Mãe de santo de Salvador que integra sistemas digitais enquanto preserva tradição oral; o jovem da favela de São Paulo cujo rosto é escaneado por algoritmos policiais sem consentimento; a trabalhadora Yanomami em Roraima que usa dados de satélite para proteger seu território do garimpo ilegal; a entregadora de Recife que tem suas rotas e entregas governadas por código que não pode ler; o estudante de Manaus que aprende programação enquanto a Amazônia queima ao redor de sua escola. O PL 2338/2023 avança na Câmara dos Deputados prometendo segurança jurídica — mas quem está sentado à mesa quando o Brasil escreve as regras da IA? E mais importante: quem permanece de pé, fora do auditório, esperando que as decisões tomadas lá dentro determinem se sua comunidade será protegida ou extraída?

O Projeto de Lei 2338/2023, apresentado pelo senador Rodrigo Pacheco em maio de 2023 e aprovado pelo Senado em dezembro de 2024, cria o Sistema Nacional de Regulação e Governança de Inteligência Artificial (SIA), coordenado pela Autoridade Nacional de Proteção de Dados (ANPD). Após identificar um vício de iniciativa, o governo federal enviou em dezembro de 2025 um novo projeto consolidando competências setoriais. Agora em 2026, a Câmara dos Deputados debate o texto que pode definir se o Brasil será protagonista tecnológico ou apenas fornecedor de dados para potências estrangeiras. O deputado Reginaldo Lopes (PT-MG), segundo vice-presidente da comissão especial, reconhece “impasses importantes” nos eixos de fomento, responsabilidade civil e questões éticas. Enquanto isso, a CNI alerta contra “excesso regulatório” e o Sebrae teme que conformidade se torne barreira para startups.

A discussão revela tensões profundas. Christina Aires, da CNI, defende que a legislação não pode “criar barreiras que inibam pesquisa, investimento e aplicação prática antes mesmo de um produto chegar ao mercado”. Seu alerta foca na classificação de sistemas de “alto risco” — sem delimitação clara, empresas que usam IA para controle de qualidade industrial poderiam receber o mesmo tratamento regulatório de sistemas de segurança pública. Dalila Machado, do Sebrae, vai além: “Quando falamos de alto risco, não necessariamente essas empresas conseguirão atender a todos os requisitos”. A preocupação é que micro e pequenas empresas, que frequentemente usam tecnologias desenvolvidas fora do país, sejam excluídas do ecossistema por exigências de conformidade desenhadas para realidades corporativas diferentes. O deputado Reginaldo Lopes afirma que “95% das empresas utilizam algum tipo de IA” com “aumento significativo de produtividade”, mas reconhece que o desafio está em “transformar esse potencial em desenvolvimento econômico sustentável”.

O centro do debate, porém, está nos direitos autorais — um impasse que divide criadores e desenvolvedores. Christina Aires argumenta que o projeto atual “não resolve esse impasse” porque não garantiria remuneração efetiva aos autores e, simultaneamente, criaria obstáculos ao desenvolvimento tecnológico. A CNI defende mecanismos de opt-out, acordos para uso de bases estruturadas e modelos de remuneração economicamente viáveis. Dalila Machado, do Sebrae, adota posição mais cautelosa: alerta para o impacto sobre pequenos criadores, artesãos e designers da economia criativa, que “nem sempre têm estrutura para negociar ou proteger seu conteúdo”. Para ela, a discussão não pode ser tratada apenas sob a lógica da viabilidade econômica — precisa considerar os efeitos concretos do treinamento de modelos sobre quem produz conteúdo e depende dele para trabalhar. Essa tensão ecoa uma dinâmica colonial brasileira: quem detém propriedade intelectual sobre modelos treinados com dados brasileiros, culturas brasileiras, línguas indígenas e afro-brasileiras? O Brasil corre o risco de se tornar fornecedor de matéria-prima cultural para IA, assim como foi fornecedor de ouro, açúcar e soja — enquanto as patentes e os lucros permanecem no exterior.

A infraestrutura também emerge como fator decisivo. Dalila destaca que a IA pode ampliar produtividade e inovação, mas também aprofundar exclusões se o país não combinar tecnologia com capacitação e acesso. Christina ressalta que parte relevante da pesquisa em IA ocorre em ambiente acadêmico, muitas vezes sem aplicação imediata no mercado — o que exige abordagem regulatória específica para não limitar a inovação. O deputado Reginaldo Lopes reforça que “o brasileiro é muito criativo e já utiliza bem a inteligência artificial, inclusive pessoas com menor nível de escolaridade”, mas essa criatividade popular precisa de infraestrutura para florescer: acesso a equipamentos, letramento digital, formação de talentos. Sem isso, o Brasil reproduz a geografia digital que já conhece: Avenida Paulista com fibra óptica e incubadoras de startups; a periferia com conexão intermitente e plataformas de entrega que governam trabalhadores por algoritmos opacos.

Sob a lente da Amefricanidade, o debate expõe uma geografia de poder que o Brasil conhece bem: quem fala e quem é falado. A regulação da IA está sendo escrita em Brasília por representantes da indústria, do legislativo e do apoio a pequenas empresas — vozes legítimas, mas incompletas. Onde estão os coletivos de tecnologia das favelas? Onde estão as lideranças quilombolas cujos territórios estão sendo mapeados por algoritmos que não ajudaram a desenhar? Onde estão as Mães de santo que há séculos desenvolvem sistemas de conhecimento coletivo, embodied e ancestral — sabedorias que Silicon Valley não possui, mas que poderiam ensinar muito sobre governança tecnológica? O PL 2338 adota abordagem baseada em riscos alinhada à União Europeia, diferenciando-se dos modelos dos Estados Unidos e da China. Mas risco definido por quem? A CNI teme “comando, controle e punição” — modelo que Christina Aires chama de “ineficiente”. O terreiro, porém, sempre soube que governança efetiva requer algo que o modelo punitivo não entrega: cuidado coletivo, responsabilidade compartilhada, memória ancestral. Uma regulação que não incorpora essa sabedoria reproduz a lógica colonial de extração: o Brasil fornece dados, territórios e corpos para treinamento de modelos; as decisões sobre arquitetura, propriedade e benefício permanecem no Norte global.

Ao aplicar os valores da House of 7, emergem perguntas incômodas. **Coletividade** demanda que a regulação sirva ao florescimento comum, não apenas à proteção de mercados estabelecidos. Quando startups e pequenos negócios são excluídos por barreiras de conformidade, quando comunidades tradicionais não têm voz na definição do que é “risco”, a IA se torna ferramenta de concentração, não de democratização. O terreiro — espaço de conhecimento coletivo, embodied e ancestral — oferece um modelo alternativo de governança: decisões tomadas em círculo, responsabilidade compartilhada, memória que não se perde porque é cantada, dançada, vivida. Uma regulação da IA que incorporasse essa sabedoria não perguntaria apenas “como punir violações”, mas “como cuidar do coletivo”. **Justiça/Reparação** exige que nomejamos quem se beneficia e quem paga o custo: os algoritmos de reconhecimento facial que flagram rostos negros com mais frequência nas favelas de São Paulo e Rio — tecnologia testada em corpos negros antes de chegar ao mercado; os sistemas de crédito do Nubank e de outras fintechs que decidem limites sem transparência para milhões de brasileiros, reproduzindo desigualdades históricas sob nova interface; as plataformas de entrega que governam o trabalho de entregadores em Recife por código que não podem ler, extraindo valor de seu trabalho enquanto os mantêm em opacidade. A regulação que não nomeia essas desigualdades raciais e geográficas perpetua o mito da democracia racial — a ficção brasileira de que não vemos cor, quando os algoritmos veem por nós, e veem com o viés de quem os treinou. Justiça exige reparação: não apenas compensação futura para autores cujos trabalhos treinaram modelos, mas reconhecimento de que o Brasil foi, por cinco séculos, fornecedor de matéria-prima para outros — e que a IA não pode repetir essa dinâmica com dados, cultura e território. **Bem Viver** desafia a lógica extrativa: tecnologia pode servir ao equilíbrio comunitário, ou apenas à acumulação individual? O Pix, frequentemente citado como exemplo de DPI inclusivo brasileiro, mostrou que infraestrutura pública pode democratizar acesso financeiro. Milhões de brasileiros, incluindo vendedores ambulantes e trabalhadores informais, acessaram o sistema bancário através do Pix sem taxas predatórias. A IA brasileira poderia seguir esse caminho de infraestrutura pública — ou se tornar outra fronteira de extração, onde a Amazônia queima enquanto modelos são treinados com dados indígenas sem compensação ou consentimento, onde o conhecimento das Mães de santo é digitalizado sem sua participação na governança, onde o quilombo é mapeado por satélite sem que a comunidade controle como esse dado será usado.

O Brasil de 2026 está diante de uma escolha que ecoa escolhas de 1500, de 1888, de 1964: ser sujeito de sua própria história, ou objeto da história de outros. O PL 2338/2023 não é apenas uma lei técnica — é uma declaração sobre quem o Brasil acredita que somos. Quando a CNI fala em “segurança jurídica para investir”, fala a linguagem do capital. Quando o Sebrae fala em “ouvir todos os atores do ecossistema”, fala a linguagem da inclusão — mas ainda dentro do ecossistema formal, documentado, reconhecido pelo Estado. Faltam as vozes do Brasil que sempre inovou por necessidade: o terreiro que preserva conhecimento sem banco de dados, o quilombo que se autogoverna sem consultoria externa, a favela que constrói infraestrutura sem planejamento central. Essas tradições de sobrevivência e resistência são séculos mais antigas que qualquer startup de IA. Elas têm algo a ensinar sobre governança, sobre risco, sobre o que significa proteger comunidade de poder. O quilombo não pediu permissão para existir — criou estruturas de autodeterminação contra um Estado que queria destruí-lo. O terreiro não buscou certificação ISO — manteve sabedorias vivas através de gerações por práticas coletivas, corporais, ancestrais. Essas são formas de governança que o Brasil domina há muito tempo, mas que não estão sentadas na mesa em Brasília.

A tramitação do PL 2338/2023 na Câmara dos Deputados é vista como prioridade, e espera-se que a definição de um marco regulatório para a inteligência artificial no Brasil ocorra em 2026. O modelo brasileiro de IA se alinha com a União Europeia ao adotar uma abordagem baseada em riscos, diferenciando-se dos modelos dos Estados Unidos e da China. Mas alinhamento técnico não é soberania. O Brasil pode adotar a melhor estrutura de riscos do mundo — e ainda assim permanecer como fornecedor de dados, território e cultura para modelos treinados no Norte global. A verdadeira questão não é apenas “como regular”, mas “regular para quem”. Uma lei que protege o capital sem proteger o povo; que ouve a indústria sem ouvir o terreiro; que define risco sem consultar quem vive o risco todos os dias — essa lei pode ser moderna em sua arquitetura, mas colonial em sua alma.

A pergunta que fica, depois que os deputados votarem e os lobistas celebrarem ou protestarem, é simples e profunda: quando a inteligência artificial chegar ao seu bairro, à sua comunidade, ao seu território — de quem ela vai levar a voz? E de quem ela vai levar os dados? O Brasil de 2026 tem a oportunidade de escrever uma lei que não repita cinco séculos de extração. Mas essa oportunidade exige mais do que debates entre CNI, Sebrae e Congresso. Exige que as Mães de santo, os líderes quilombolas, os jovens das favelas, os trabalhadores de plataforma, os povos indígenas — todos os Brasis que o PIB não vê — estejam sentados à mesa. Porque a inteligência artificial que chega não é neutra: ela carrega a história de quem a construiu. A pergunta é: o Brasil vai deixar que essa história seja escrita em outros lugares, ou vai sentar na mesa e escrever a sua própria?

Leave a Reply

Your email address will not be published. Required fields are marked *