Quando o risco tem cor: IA, vigilância e trabalho no Brasil
São 6h12 da manhã no Capão Redondo, zona sul de São Paulo. A cidade ainda boceja, mas o aplicativo já está acordado. Um entregador prende a mochila térmica nas costas e, antes de ligar a bicicleta, confere o celular com a mesma atenção com que sua avó conferia o feijão no fogo: qualquer descuido muda o dia. Ele não sabe qual regra exatamente governa a próxima corrida — só sente o peso do “score” invisível que o aproxima de uma boa rota ou o empurra para a periferia da fila. Do outro lado da cidade, perto de uma estação de metrô, uma câmera de reconhecimento facial varre rostos como quem procura um erro no mundo. E, no meio, há uma pergunta que o Brasil ainda evita dizer em voz alta: quando a inteligência artificial chega para “reduzir riscos”, de quem ela reduz, e sobre quem ela derrama o risco?
Na linguagem limpa dos relatórios, “risco” é categoria. Na vida real, risco tem endereço, cor, CPF e corpo. Não é abstrato para a mulher negra que aprende a andar com o rosto “baixo” ao passar por um posto policial; nem para o trabalhador de aplicativo que carrega o medo de um bloqueio súbito — às vezes sem explicação, às vezes com uma justificativa que parece escrita por uma máquina que não conhece a rua. O Brasil está tentando construir um marco para a IA, e isso é necessário. Mas o país só vai acertar se aceitar que a pergunta ética central não é “o que a tecnologia pode fazer”, e sim “o que ela repete” — quais hierarquias ela automatiza com novo brilho.
Em dezembro de 2024, o Senado aprovou o PL 2.338/2023, conhecido como marco regulatório da inteligência artificial, e o texto seguiu para a Câmara. Entre os pontos destacados por órgãos do governo, aparecem transparência, proteção de direitos fundamentais e regras sobre uso de conteúdos protegidos por direitos autorais no treinamento de sistemas de IA — uma tentativa de impedir que a criação humana vire mineração gratuita para as maiores plataformas do mundo (MinC, 2024). A arquitetura proposta, como em outras partes do mundo, se apoia numa ideia aparentemente sensata: classificar sistemas por níveis de risco e exigir obrigações mais duras para “alto risco”.
É aqui que a conversa fica brasileira. Porque o Brasil tem uma relação histórica com classificações “técnicas” que escondem um projeto social. O país que inventou o mito da democracia racial também inventou burocracias eficientes para produzir desigualdade. A tecnologia, quando chega, não pousa num terreno neutro: ela cai sobre um solo marcado por escravidão, por urbanização segregada, por polícia que mira territórios, por trabalho informal que sustenta a economia. Por isso, uma lei que fala de “alto risco” precisa ser lida como quem lê um mapa de enchente: onde a água sempre volta a subir?
Na segurança pública, o reconhecimento facial é um exemplo duro. Uma reportagem da Agência Brasil, baseada na pesquisa Panóptico do CESeC, registrou pelo menos 195 projetos de reconhecimento facial voltados à segurança pública em todos os estados; entre 2019 e 2022, o estudo identificou 509 prisões com apoio dessa tecnologia. E, em 2019, mais de 90% das prisões monitoradas eram de pessoas negras (Agência Brasil/CESeC, 2023). Mesmo antes de discutir “acurácia”, isso já é um diagnóstico político: a tecnologia não está distribuída como serviço; ela está distribuída como suspeita.
Quando um sistema erra, não erra no vazio. Ele erra em cima de um repertório de vigilância que o Brasil já conhece desde o tempo do “suspeito padrão”. O que muda é a velocidade e a autoridade do erro. A câmera não “opina”; ela “identifica”. E, num país onde a palavra do Estado pesa mais que a palavra do morador, a etiqueta algorítmica pode virar sentença informal. A promessa é “eficiência”. O resultado, muitas vezes, é uma eficiência do controle: mais olhos onde já havia violência, mais dados sobre quem já não tinha direito à privacidade material, porque a casa é pequena, o caminho é previsível, a vida é monitorada por necessidade.
Na economia de plataformas, o risco é menos dramático na linguagem e igualmente profundo na consequência. O trabalhador não é preso; ele é desligado. Não é interrogado; ele é “inativado”. Um estudo divulgado pela Clínica de Direito do Trabalho da UFPR apontou crescimento de 47,9% no número de trabalhadores sob controle de plataformas digitais entre 2021 e 2024, chegando a 2,3 milhões; no setor de transportes e entregas, que concentra a maioria, o iFood teria alcançado 84,7% do mercado de entregas no primeiro trimestre de 2024 (Clínica/UFPR via ABET, 2025). Em termos de poder, isso significa uma coisa simples: a regra do trabalho está escondida dentro do aplicativo.
O gerenciamento algorítmico cria uma forma de subordinação sem chefe visível. A rota, o valor, o ritmo, a punição e o prêmio se tornam respostas de um sistema que raramente explica seus critérios. Para o trabalhador, a experiência é de oráculo: você faz o certo, mas não sabe por que foi penalizado; você melhora, mas não sabe por que não sobe. E quando a renda depende de um fluxo contínuo de decisões automatizadas, a falta de explicação não é detalhe — é disciplina. O silêncio do algoritmo vira uma pedagogia da obediência: “não questione, adapte-se”.
É tentador olhar para esses dois mundos — a câmera que vigia e o app que paga — como se fossem assuntos separados. Segurança pública de um lado, economia digital do outro. Mas há um fio comum: a transferência de poder para sistemas opacos que operam sobre populações historicamente vulnerabilizadas. E há um perigo adicional quando o Brasil importará cada vez mais modelos e infraestruturas de IA treinados fora do país, com dados, línguas e prioridades que não carregam nossa história. A colonialidade muda de roupa: sai a cana, entra o dado. O extrativismo se atualiza: não é só tirar minério da terra; é tirar comportamento do povo.
O PL 2.338/2023 tenta responder com princípios: direitos fundamentais, não discriminação, transparência, responsabilização. Isso é valioso. Mas o Brasil precisa de mais do que princípios: precisa de mecanismos que funcionem quando o conflito é real e a desigualdade é concreta. “Direito à explicação” é uma frase bonita, até virar uma resposta padrão — um parágrafo genérico que não permite contestação. “Supervisão humana” parece garantia, até descobrir que o humano é um atendente terceirizado, com 60 segundos por caso, seguindo um script. “Avaliação de impacto” soa técnico, até ser feita por quem lucra com o impacto.
O coração da questão é: quem define o que é risco, e para quem? Um sistema de reconhecimento facial é considerado “alto risco” porque pode errar. Mas ele também deveria ser considerado “alto risco” porque amplifica um Estado que historicamente errou de propósito contra corpos negros. Um sistema que gerencia entregadores pode parecer “baixo risco” porque não decide sobre vida ou morte. Mas, num país com fome e informalidade, ele decide sobre sobrevivência — e isso é, sim, uma forma de vida e morte social. A regulação brasileira precisa enxergar risco não apenas como probabilidade de falha técnica, mas como probabilidade de reprodução de injustiça.
Aqui, a lente da Amefricanidade ajuda a desmontar o truque da neutralidade. Lélia Gonzalez nos ensinou que a identidade brasileira foi forjada na tensão entre apagamento e criação — uma cultura que sobreviveu porque reinventou linguagem, corpo, rito e comunidade sob violência. Quando a IA entra nesse cenário, ela não é só ferramenta: ela é um novo idioma de poder. E a pergunta amefricana é direta: esse idioma vai servir para ampliar o quilombo — a autonomia coletiva, a proteção comunitária — ou para sofisticar o capitão do mato digital, agora com dashboards e APIs?
Coletividade, para a Casa, não é slogan: é método. Se a IA reorganiza a vida pública, a governança dela não pode ser decidida apenas entre Estado e empresa, em salas onde quem sofre o impacto não entra. Precisamos de processos de consulta e participação que incluam movimentos negros, organizações de trabalhadores de plataforma, lideranças indígenas e quilombolas, defensores públicos, pesquisadores periféricos. Isso não é “atraso” na inovação; é a única forma de inovação que não vira instrumento de captura. Sem isso, o marco legal corre o risco de ser moderno por fora e colonial por dentro.
Justiça/Reparação, por sua vez, exige que o debate sobre IA no Brasil enfrente duas camadas de dívida. A primeira é a dívida histórica: o país construiu riqueza sobre trabalho escravizado e depois administrou a liberdade com precariedade. A segunda é a dívida digital: plataformas e sistemas coletam dados e valor de populações vulneráveis sem retorno proporcional em direitos, transparência ou proteção. Reparação, aqui, pode significar coisas concretas: auditorias independentes com poder real; obrigação de registrar e publicar taxas de erro e de vieses por raça e gênero em sistemas de identificação; direito efetivo de contestação com prazos e evidências; e, no caso de plataformas, regras claras contra bloqueios arbitrários e mecanismos de negociação coletiva mediados por Estado e sociedade civil.
Bem Viver amplia ainda mais o horizonte. Ele pergunta: e se o objetivo não fosse maximizar eficiência, mas sustentar a vida? No trabalho de plataforma, isso significaria algoritmos desenhados para reduzir risco físico (rotas mais seguras), garantir renda mínima por hora de conexão, respeitar limites do corpo — especialmente para quem pedala sob sol e chuva. Na segurança pública, significaria reconhecer que “mais câmeras” não é sinônimo de “mais segurança”, se a política que move a câmera é a mesma que produz violência. Bem Viver nos obriga a medir sucesso não pelo número de prisões, nem pelo tempo médio de entrega, mas pela diminuição do medo e do sofrimento nas comunidades.
Há um aprendizado antigo no terreiro: o conhecimento não é só informação, é responsabilidade. Você não “usa” um saber sem responder por ele. A IA, hoje, permite que instituições usem saberes (dados, padrões, previsões) sem assumir a responsabilidade plena pelo que produzem. A máquina vira álibi. “Foi o sistema.” A Casa precisa insistir no contrário: foi uma escolha humana colocar o sistema ali; foi uma escolha humana aceitar opacidade; foi uma escolha humana terceirizar o cuidado. Axé, nesse contexto, é exigir que o poder volte a ter rosto — não para culpar indivíduos, mas para impedir que a estrutura se esconda atrás do código.
O Brasil não está condenado a repetir. Há caminhos de construção: regulação que trate vigilância biométrica como exceção extrema, com controle judicial e transparência pública; fortalecimento real da autoridade de proteção de dados e de órgãos de controle; fomento a pesquisas e tecnologias abertas que permitam auditoria; e uma política industrial que não reduza soberania a “atrair data centers”, mas que invista em educação e em infraestruturas públicas de dados orientadas por direitos. E há, principalmente, uma mudança de imaginação: parar de pensar IA como destino inevitável e começar a tratá-la como pacto social — um acordo sobre limites, responsabilidades e valores.
Se o marco legal brasileiro quiser ser mais do que uma tradução do debate europeu para o português, ele precisa encarar um fato: nossa desigualdade não é bug, é projeto antigo. A IA pode virar a versão automática desse projeto — ou pode ser uma chance de reescrever algumas regras com coragem. A diferença não virá da tecnologia em si, mas de quem senta à mesa quando decidimos o que é “risco”, o que é “segurança”, o que é “inovação”.
Então deixo uma pergunta que não cabe num formulário de compliance, mas cabe num ônibus lotado e numa roda de conversa: quando a próxima câmera olhar para nós, e o próximo algoritmo decidir nosso dia, o Brasil terá construído mecanismos para que a periferia e o quilombo também possam olhar de volta — e dizer, com autoridade coletiva, “isso não serve à vida, isso não serve ao Bem Viver, isso não tem Axé”?
Leave a Reply