O Curador de IA da Receita Federal: Quando o Humano é a Última Barreira Contra o Algoritmo
Brasília, 27 de março de 2026. Um auditor-fiscal da Receita Federal sobe ao pódio da Organização das Nações Unidas em Nova York. Juliano Neves, Subsecretário de Gestão Corporativa, apresenta ao mundo uma política inédita: o Brasil terá um “Curador de Inteligência Artificial Generativa”. Um servidor público cujo trabalho é monitorar erros, vieses e alucinações dos sistemas de IA. Garantir que operem dentro de parâmetros éticos. Avaliar a qualidade, a coerência, a precisão das respostas. Enquanto isso, em uma agência da Receita em São Paulo, um contribuinte espera. Seu nome foi flagrado em uma auditoria automatizada. Um algoritmo marcou sua declaração como “inconsistente”. Ele não sabe qual algoritmo. Não sabe quais variáveis. Não sabe a quem recorrer quando o Curador não responde. A política é linda no papel. Mas quem cura o Curador? E quando o algoritmo erra — quem paga o preço?
A Receita Federal deu um passo decisivo no debate global sobre o uso responsável da Inteligência Artificial no setor público ao publicar sua nova Política de Inteligência Artificial, um marco regulatório que consolida princípios éticos, jurídicos e técnicos para o uso da tecnologia nas atividades tributárias e aduaneiras. A política foi apresentada na ONU na última sexta-feira (27 de março), durante o “2026 ECOSOC Special Meeting on International Cooperation in Tax Matters”. Alinhada aos principais padrões internacionais, a política brasileira estabelece salvaguardas inéditas: centralidade do ser humano na tomada de decisões, soberania dos dados públicos e responsabilidade individual dos agentes públicos. Um dos pilares é a preservação da autonomia humana. Embora a IA seja utilizada como ferramenta de apoio, decisões administrativas e atos legais são de competência exclusiva de servidores públicos. Nenhum sistema de IA pode condicionar, substituir ou vincular o exercício das competências legais da administração tributária. O julgamento crítico, independente e fundamentado do agente público funciona como a última barreira contra decisões automatizadas injustas ou inadequadas. Em outras palavras: a IA apoia, mas não decide.
Mas há um diferencial que coloca o Brasil na vanguarda: a criação da função de Curador de Inteligência Artificial Generativa. Enquanto normas internacionais tratam de modelos de uso geral de forma ampla, a Receita Federal instituiu um agente específico responsável por monitorar continuamente erros, vieses e alucinações; avaliar a qualidade, a coerência e a precisão das respostas; assegurar que os sistemas operem dentro de parâmetros éticos e institucionais. Essa estrutura garante um nível de supervisão operacional muito mais detalhado e adaptado à natureza probabilística da IA generativa. A política é categórica ao afirmar que o uso inadequado de IA configura responsabilidade disciplinar individual. O descumprimento das salvaguardas éticas e técnicas previstas não é tratado como falha sistêmica, mas como conduta pessoal do agente público. Além disso, a Receita Federal proíbe expressamente o uso de IA para manipulação subliminar, pontuação ou classificação social, vigilância em massa. Essas vedações colocam a política brasileira entre as mais restritivas e protetivas do ponto de vista de direitos fundamentais.
Sob a lente da Amefricanidade, essa política revela tensões profundas. **Coletividade** demanda que a tecnologia sirva ao florescimento comum, não apenas à eficiência da arrecadação. Quando a Receita diz que “a IA apoia, mas não decide”, ela está protegendo o contribuinte — ou protegendo a instituição de responsabilização? Porque se um algoritmo erra e um servidor humano “decide” baseado nesse erro, quem é responsável? O servidor? O Curador? O sistema? A política diz que é “responsabilidade individual”. Mas individual de quem? Do auditor que assinou? Do Curador que monitorou? Do desenvolvedor que codificou? Ou do contribuinte que não teve acesso ao mecanismo de revisão porque o algoritmo era “proprietário”? **Justiça/Reparação** exige que nomejamos quem se beneficia e quem paga o custo: a Receita se beneficia — mais eficiência, mais auditorias, mais arrecadação. Mas o custo? O contribuinte marcado como “inconsistente” sem saber por quê. O pequeno empresário auditado por um viés que o Curador não detectou. A mãe solo cujo benefício foi negado por uma alucinação do sistema. A política proíbe classificação social e vigilância em massa — mas quem fiscaliza se isso está acontecendo? O Curador é um servidor público. Quantos Curadores há? Quantos contribuintes cada um monitora? Qual é o orçamento para essa curadoria? Ou é mais uma função acumulada, mais uma responsabilidade sem recurso, mais uma proteção no papel que não protege na prática?
A soberania de dados é outro pilar. A Receita proíbe expressamente que fornecedores ou terceiros utilizem dados tributários de cidadãos brasileiros para treinar, calibrar ou aprimorar modelos comerciais de IA. Sempre que possível, prioriza ambientes tecnológicos sob governança técnica integral, com controle sobre armazenamento, processamento, localização geográfica, infraestrutura e acessos. Isso é resistência. Isso é o Brasil dizendo: nossos dados não são matéria-prima para empresas estrangeiras. Nossos impostos não financiam modelos que nos exploram. Mas há uma pergunta que a Amefricanidade exige: soberania para quem? Os dados são soberanos — mas o contribuinte tem soberania sobre seus próprios dados? Ele pode acessar o algoritmo que o auditou? Ele pode contestar o viés? Ele pode saber qual modelo está sendo usado? A política fala em “transparência, explicabilidade e auditabilidade” — mas transparência para quem? Explicabilidade para o técnico ou para o cidadão? Auditabilidade por quem tem acesso ao código ou por quem só tem acesso ao resultado? O terreiro sempre soube: soberania não é só sobre território. É sobre quem decide. É sobre quem tem voz. É sobre quem senta na mesa quando as regras são escritas.
Ao aplicar os valores da House of 7, emergem perguntas incômodas. **Não-Violência/Cuidado** — a política proíbe manipulação subliminar, classificação social, vigilância em massa. Isso é proteção. Isso é cuidado. Mas cuidado preventivo ou cuidado reparatório? Quando o erro acontece — quando o algoritmo classifica errado, quando o viés marca um rosto negro como “suspeito”, quando a alucinação nega um direito — qual é o mecanismo de reparação? A política fala em “responsabilidade individual”. Mas responsabilidade sem reparação é apenas punição. E punição sem justiça é apenas violência burocrática. **Verdade/Axé** — a política reforça o compromisso com a transparência. Os sistemas devem ser capazes de explicar, de forma compreensível, os critérios e processos que conduzem a determinado resultado. Mas compreensível para quem? Para o auditor-fiscal com formação em direito e tecnologia? Ou para a vendedora ambulante de Salvador que não terminou o ensino médio? A verdade que não é acessível não é verdade. É privilégio. E privilégio não é Axé. Axé é verdade que liberta. Verdade que o povo pode usar. Verdade que o terreiro pode validar.
O modelo “Fast Track” para inovação merece atenção. Para equilibrar segurança e inovação, a Receita criou um mecanismo ágil para o desenvolvimento de prototipagens e soluções experimentais. Projetos de baixo risco podem ser desenvolvidos em ambientes controlados sem aprovação prévia do comitê superior, permitindo testes rápidos e aprendizado institucional. Isso é dinamismo. Isso é reconhecimento de que inovação não pode esperar burocracia. Mas “baixo risco” definido por quem? O que é baixo risco para a Receita pode ser alto risco para o contribuinte. Um teste em ambiente “controlado” ainda afeta pessoas reais. Ainda nega direitos. Ainda marca nomes. Ainda produz consequências. O Fast Track é inovação — ou é atalho? E quem paga o preço do atalho quando ele dá errado?
A política da Receita Federal é um avanço. Não há dúvida. Coloca o Brasil na vanguarda da regulação de IA no setor público. Mas avanço não é chegada. E proteção no papel não é proteção na vida. A pergunta que fica, depois que o Curador for nomeado e os sistemas forem implementados e as auditorias forem automatizadas, é simples e profunda: quando a inteligência artificial auditar sua declaração, quando o algoritmo marcar seu nome como “inconsistente”, quando o sistema negar seu direito — a quem você vai recorrer? Ao Curador? Ao servidor? Ao comitê? Ou a um silêncio burocrático que diz “o sistema decidiu”? O Brasil de 2026 tem a oportunidade de construir uma IA pública que serve ao povo — não apenas ao Estado. Mas essa oportunidade exige mais do que políticas e curadores. Exige que o contribuinte tenha voz. Exige que o algoritmo seja auditável pelo cidadão. Exige que a soberania dos dados seja também soberania do povo sobre seus próprios dados. A IA chegou à Receita Federal. A pergunta é: ela vai servir ao cidadão — ou vai servir à eficiência? E mais importante: quando o algoritmo errar, quem vai pagar o preço?
Leave a Reply