IA na Amazônia: Quando a Tecnologia Serve ao Protagonismo Indígena — Ou Repete a Extração?
Roraima, Território Yanomami. Uma jovem indígena segura um tablet. Na tela, um alerta: desmatamento detectado a 15 quilômetros da aldeia. Ela não precisa esperar o IBAMA. Não precisa depender de satélite que passa uma vez por semana. A IA mostrou em tempo real. Ela pega o rádio. Chama os guerreiros. Eles vão antes que o dano se torne visível a olho nu. Do outro lado da Amazônia, em Brasília, um executivo do Google anuncia: “R$ 18 milhões para oito projetos de IA na natureza”. As câmeras filmam. Os investidores aplaudem. Os indígenas não estão na mesa. A pergunta que fica: quando a inteligência artificial chega à Amazônia, ela serve ao protagonismo indígena — ou é mais uma forma de extração, onde dados indígenas enriquecem empresas estrangeiras?
No início de 2026, o Google.org, por meio do Instituto Clima e Sociedade (iCS), lançou o “Desafio IA para a Natureza e o Clima” para reunir as melhores ideias de aplicação de tecnologia na conservação ambiental. A chamada recebeu 395 propostas de todo o Brasil. Após um rigoroso processo de seleção liderado pelo iCS, com suporte técnico do Instituto de Tecnologia e Sociedade (ITS), foram escolhidos oito projetos que atuam nos biomas Amazônia, Cerrado e Pantanal com soluções para agricultura regenerativa, bioeconomia e reversão da perda de biodiversidade. Entre os selecionados: o Sistema Inteligente para Monitoramento Florestal de Terras Indígenas Amazônicas, proposto pela Fundação Getulio Vargas em parceria com a Coordenação das Organizações Indígenas da Amazônia Brasileira (Coiab), que criará uma plataforma utilizando satélites e IA para monitorar territórios indígenas, identificar crimes ambientais e apoiar esforços de restauração. O projeto AI-FogoBio do Instituto Federal do Amazonas construirá um sistema online de IA capaz de prever incêndios florestais na Amazônia com mais de 90% de precisão e com até 14 dias de antecedência. A implementação dos projetos começa em novembro, mês da COP30 em Belém.
Mas há uma tensão que o anúncio não nomeia. Quando o Google financia IA para monitorar terras indígenas, quem possui os dados? Quem acessa a plataforma? Quem decide quais alertas são priorizados? O projeto da FGV/Coiab diz que vai “monitorar territórios indígenas” — mas os indígenas vão monitorar junto? Ou vão ser monitorados? A diferença não é semântica. É política. É colonial. O Brasil conhece bem essa dinâmica: cinco séculos de extração. Ouro, açúcar, borracha, soja. Agora — dados. A Amazônia como fonte de matéria-prima para modelos de IA treinados no exterior. Os indígenas como “beneficiários” de tecnologia que não ajudaram a desenhar. Ou — e essa é a possibilidade que o terreiro me ensina a enxergar — a IA como ferramenta de autodeterminação. De proteção territorial. De soberania. O projeto Tainá, mencionado nas buscas, busca capacitar comunidades indígenas no compartilhamento de conhecimento sobre a natureza, utilizando IA como ferramenta. A iniciativa “AI for Nature Fellowship Program” oferece formação para jovens indígenas, quilombolas e ribeirinhos no uso de IA para monitoramento da biodiversidade e engajamento comunitário. Isso é protagonismo. Isso é diferente de ser monitorado. Isso é decidir.
Sob a lente da Amefricanidade, essa tensão revela padrões conhecidos. **Coletividade** demanda que a tecnologia sirva ao florescimento comum — não apenas à conservação como métrica ocidental. Para o indígena Yanomami, a floresta não é “biodiversidade para preservar”. É casa. É ancestral. É corpo. Quando a IA detecta desmatamento em sete dias — antes que seja visível a olho nu, como promete o projeto Kanindé — isso serve a quem? Ao indígena que pode agir antes? Ou à ONG que publica o dado e recebe o próximo financiamento? **Justiça/Reparação** exige que nomejamos quem se beneficia e quem paga o custo. O Google se beneficia — imagem de “empresa que protege a natureza”. As ONGs se beneficiam — R$ 18 milhões em financiamento. Mas os indígenas? Eles recebem a tecnologia — ou recebem a vigilância? Porque há uma diferença entre “monitorar territórios indígenas” e “indígenas monitoram seus territórios”. No primeiro caso, eles são objeto. No segundo, são sujeito. A reparação exigiria que os indígenas sentassem na mesa quando os algoritmos são desenhados. Que eles decidissem quais dados compartilhar. Que eles possuíssem a plataforma. Mas isso é o que está acontecendo? Ou é mais uma forma de “incluir” o indígena na lógica do colonizador?
A “Amazônia IA” — um grande modelo de linguagem desenvolvido no Brasil, com foco em português e treinado com a cultura e riqueza natural brasileiras — é mencionada como ferramenta de apoio em diversas áreas. Mas treinado com quais dados? Com quais línguas indígenas? Com quais sabedorias? Ou é mais um modelo que extrai cultura indígena para treinar algoritmo que depois será comercializado? O terreiro sempre soube: sabedoria não é dado. Sabedoria é relação. É ancestralidade. É oralidade. É corpo. Você não treina modelo com sabedoria de Mãe de santo sem a Mãe de santo na mesa. Você não treina modelo com conhecimento indígena sem o indígena decidindo. Isso é Axé. Isso é Verdade. Verdade que não é acessível não é verdade — é extração.
Ao aplicar os valores da House of 7, emergem perguntas incômodas. **Não-Violência/Cuidado** — a IA pode prevenir incêndios. Pode detectar desmatamento. Pode proteger. Isso é cuidado. Mas cuidado com quem? A IA que prevê incêndio com 90% de precisão e 14 dias de antecedência (projeto AI-FogoBio) — quem recebe o alerta? O indígena? O IBAMA? A madeireira? Porque a mesma tecnologia que protege pode ser usada para planejar o crime. O dado de onde há desmatamento é também o dado de onde há madeira valiosa. O cuidado sem soberania é vigilância. **Verdade/Axé** — os projetos prometem transparência. Mas transparência para quem? Os indígenas podem acessar o código? Podem auditar o algoritmo? Podem contestar o alerta? Ou a IA é “caixa preta” — e eles devem confiar? Axé é verdade que liberta. Verdade que o povo pode usar. Verdade que o terreiro pode validar. Verdade que não é acessível é privilégio. E privilégio na Amazônia é colonialismo.
O projeto “Terras do Brasil” (FEST) vai usar IA para monitorar uso da terra em tempo real e apoiar regularização fundiária. Isso é importante. Mas regularização para quem? Para o indígena que ocupa a terra há séculos? Ou para o grileiro que quer documento? A IA pode ser usada para validar posse indígena — ou para invalidar, porque “não tem documento”. O algoritmo decide. Mas quem treinou o algoritmo? Com quais critérios? O Brasil é terra de grilagem. De documento falso. De invasão legalizada. A IA que não nomeia isso é cúmplice.
A COP30 será em Belém, em novembro de 2026. Os projetos começam em novembro. A coincidência não é acidente. A Amazônia será palco. Os olhos do mundo estarão aqui. Os investidores virão. Os indígenas serão fotografados. Mas estarão na mesa? Ou serão cenário? A pergunta que fica, depois que os R$ 18 milhões forem distribuídos e os projetos forem implementados e os alertas forem disparados, é simples e profunda: quando a inteligência artificial monitorar sua terra indígena, quando o algoritmo detectar desmatamento, quando o sistema prever incêndio — a quem vai servir? Ao povo da floresta? Ou ao investidor que financiou? A IA chegou à Amazônia. A pergunta é: ela vai servir ao protagonismo indígena — ou vai servir à extração? E mais importante: quem vai decidir?
Leave a Reply