Lito Brazil

O Axé da Regulação: ANPD Ganha Dentes, mas Quem Será Protegido?

O Axé da Regulação: ANPD Ganha Dentes, mas Quem Será Protegido?

Na madrugada de uma terça-feira em fevereiro de 2026, enquanto a maioria dos brasileiros dormia, o Planalto sancionou a Lei 15.352. No papel, uma vitória: a ANPD deixava de ser um órgão sem dentes para se tornar agência reguladora de verdade, com autonomia e poder de multar até R$ 50 milhões. Mas em uma favela do Complexo do Alemão, onde câmeras de reconhecimento facial identificam erroneamente jovens negros desde 2024, ninguém comemorou. Ninguém sequer sabia. A pergunta que fica é: quando a regulação chega, ela chega para quem mais precisa — ou apenas para quem já tem voz?

O Brasil deu um passo significativo em sua governança de inteligência artificial. Em fevereiro de 2026, a Autoridade Nacional de Proteção de Dados foi transformada em Agência Nacional de Proteção de Dados, ganhando autonomia funcional, técnica, decisória, administrativa e financeira. A nova estrutura prevê 200 novos cargos de Especialista em Regulação de Proteção de Dados, preenchidos por concurso público — um investimento em capacidade técnica que coloca o Brasil em posição rara entre países do Sul Global. As sanções agora incluem multas de até 2% do faturamento, limitadas a R$ 50 milhões por infração, além de bloqueio de serviços digitais e publicação de infrações. Pela primeira vez, a agência tem dentes reais. Paralelamente, o PL 2338/2023 — o marco legal da IA — tramita na Câmara dos Deputados com expectativa de votação em 2026, após ter sido aprovado pelo Senado em dezembro de 2024. O projeto classifica sistemas por nível de risco (excessivo, alto, moderado, baixo), garante direitos como informação prévia sobre interação com IA, explicação de decisões automatizadas, revisão humana, não discriminação algorítmica e privacidade. Propõe ainda um Sistema Nacional de IA coordenado pela ANPD e um sandbox regulatório para desenvolvimento seguro de soluções experimentais. A ANPD incluiu a IA em sua Agenda Regulatória 2025-2026 e já conduz diálogos com Anatel e ANEEL sobre aplicação do sandbox. Há avanços reais. Mas há uma lacuna gritante: enquanto direitos autorais receberam proteção robusta no texto, com discussões sobre text and data mining, mecanismos de opt-out e remuneração, os direitos trabalhistas ficaram de fora. A Agência Pública relatou que o PL “protege direitos autorais, mas não os trabalhistas” — uma omissão que pesa para os milhões de brasileiros cujo trabalho é gerenciado por algoritmos: entregadores de app que não sabem por que foram bloqueados, motoristas de plataforma cujas rotas são otimizadas para exaurir seus corpos, trabalhadores de call center monitorados por IA que mede cada segundo de pausa. O PL 3088/24, aprovado pela Comissão de Ciência e Tecnologia, tenta preencher parte dessa lacuna com regras para IA no ambiente corporativo, mas permanece como projeto separado, sem a força do marco principal.

Aqui, o lens da Amefricanidade revela uma contradição profunda. A regulação brasileira de IA está sendo construída em Brasília e em escritórios de advocacia da Avenida Paulista, mas seus impactos mais urgentes são sentidos nas periferias, nos quilombos, nas terras indígenas. Um relatório recente da Universidade Federal Fluminense destaca como as favelas brasileiras estão ativamente se apropriando, contestando e redefinindo o uso da inteligência artificial — não como vítimas passivas, mas como agentes que resistem. Mesmo assim, o reconhecimento facial no Brasil tem uma taxa de erro racial documentada: 90% das pessoas presas com base nessa tecnologia são negras. Algoritmos treinados predominantemente com rostos brancos falham com precisão perigosa quando aplicados a corpos negros e indígenas. A pesquisa da UFF, baseada em entrevistas com lideranças comunitárias em 2025, aponta que a IA não é neutra e tende a aprofundar desigualdades existentes. A nova ANPD tem poder para multar empresas que usam esses sistemas de forma discriminatória? Tecnicamente, sim. Politicamente, será que vai? A história regulatória do Brasil nos ensina que agências com dentes nem sempre mordem quem tem poder. O PL 2338 avança em transparência e direitos individuais — informação prévia sobre interação com IA, explicação de decisões, não discriminação algorítmica. Mas esses direitos pressupõem que a pessoa afetada saiba que foi afetada, tenha acesso a advogados, tenha tempo e recurso para contestar. Para a mãe solo em Recife que teve seu benefício do Bolsa Família negado por um algoritmo opaco, ou para o entregador em São Paulo bloqueado pela plataforma sem explicação, ou para a trabalhadora doméstica no Rio cujo contrato foi rescindido após um sistema de IA classificar seu desempenho como “insatisfatório” sem critérios transparentes, esses direitos são teóricos. A regulação chega como um guarda-chuva sofisticado, mas não cobre quem já está molhado. E há uma questão adicional: o sandbox regulatório, apresentado como espaço de inovação segura, será acessível apenas para empresas com recursos para navegar burocracia complexa, ou haverá caminho para que comunidades desenvolvam suas próprias soluções de IA, governadas coletivamente?

A Casa de 7 opera a partir de valores que exigem que nomeemos essas contradições. A Coletividade nos pergunta: esta regulação serve ao florescimento coletivo ou apenas protege interesses corporativos? O texto do PL responde parcialmente — há proteção de dados, há transparência, há direitos individuais — mas a ausência de salvaguardas trabalhistas revela quem está fora da roda. A regulação fala em “sistema nacional”, em “governança”, em “coordenação”, mas não fala em sindicatos, não fala em assembleias comunitárias, não fala em estruturas coletivas de decisão. A Coletividade do terreiro e do quilombo é outra: o conhecimento é guardado junto, a decisão é tomada em roda, o axé circula entre todos. Uma regulação coletiva exigiria que comunidades afetadas tivessem assento na mesa antes que as regras fossem escritas, não depois. A Justiça/Reparação exige que perguntemos: esta estrutura corrige desigualdades históricas ou as cristaliza sob nova linguagem técnica? Quando 90% dos presos por reconhecimento facial são negros, a justiça não é neutra — ela é racial. O mito da democracia racial brasileira nos ensinou a não nomear o racismo, a falar em “desigualdade” quando queremos dizer “racismo estrutural”. Uma regulação que não nomeia isso explicitamente é cúmplice do silêncio. Justiça/Reparação exigiria não apenas proibir discriminação, mas exigir auditorias raciais obrigatórias em sistemas de alto risco, exigir diversidade nas equipes que desenvolvem algoritmos, exigir que dados usados no treinamento representem a diversidade brasileira — não a branquitude europeia e norte-americana que domina os datasets globais. O Bem Viver desafia a lógica extrativista da IA global: os dados brasileiros estão sendo usados para treinar modelos que beneficiam empresas estrangeiras, enquanto comunidades brasileiras arcam com os custos de vigilância e discriminação. A Nuvem de Governo e os LLMs em português são passos em direção à soberania, mas soberania para quem? O ministro das Comunicações falou em tornar o Brasil um “hub de tecnologia” para processamento e armazenamento de dados. Hub para quem? Para a Amazon AWS, para a Microsoft Azure, para a Google Cloud? Ou para comunidades que querem controlar seus próprios dados? O terreiro nos ensina que conhecimento é coletivo, que o corpo importa, que os ancestrais estão presentes. Uma IA que respeita o Bem Viver seria treinada com consentimento comunitário, governada por estruturas coletivas, orientada para o florescimento de todos — não para a extração de valor de alguns. Seria uma IA que pergunta “isto serve à vida?” antes de perguntar “isto escala?”. A ANPD agora tem autonomia. Mas autonomia sem direção ética é apenas poder sem propósito. E o Brasil já teve poder sem propósito antes — sempre nas mãos de poucos, sempre às custas de muitos.

Então fica a pergunta que não quer calar, que ecoa do terreiro para o plenário da Câmara: quando o Brasil regular a IA, quem estará na mesa de decisão — e quem ainda estará do lado de fora, esperando que alguém finalmente pergunte seu nome? A regulação é necessária. Mas será que ela chega a tempo para a jovem negra na favela que já foi presa injustamente? Será que ela chega para o entregador cujo algoritmo o trata como número, não como pessoa? Ou será que o axé da regulação será mais um ritual bem-intencionado que protege quem já está protegido, enquanto o Brasil profundo continua esperando por justiça que não vem?

Leave a Reply

Your email address will not be published. Required fields are marked *