Lito Brazil

Paciente Pode Recusar IA: Brasil Regula Medicina Digital e Protege Direito ao Toque Humano

Paciente Pode Recusar IA: Brasil Regula Medicina Digital e Protege Direito ao Toque Humano

Brasília, abril de 2026. O Conselho Federal de Medicina publicou a Resolução n° 2.454/2026. Estabelece critérios para pesquisa, desenvolvimento e uso da Inteligência Artificial na medicina brasileira. Hospitais têm 180 dias para se adequar — prazo encerra em agosto. A medida muda o status das IAs de “inovação” para “infraestrutura crítica” dentro da saúde. O princípio central é humanista: a IA pode apoiar e dar suporte, mas jamais substituir a decisão de um médico, que permanece como responsável final pelas decisões clínicas. Mas há um detalhe que passa despercebido nos anúncios. Um direito que o paciente ganha. Um poder que a lei reconhece. “Os pacientes passam a ter o direito de recusar o uso da tecnologia durante o seu cuidado”. Você pode dizer não. Você pode exigir um médico humano. Você pode recusar o algoritmo. A pergunta que fica: em um mundo onde a IA acelera, onde o diagnóstico automatizado promete eficiência, onde o hospital digital se expande — quantos pacientes sabem que podem dizer não? E quantos teriam coragem?

Segundo dados da pesquisa TIC Saúde 2024, 17% dos médicos brasileiros já utilizam IA generativa em sua rotina. Além disso, 79% dos profissionais da área na América Latina a consideram uma aliada. Números que mostram uma realidade consolidada, não apenas uma tendência futura. A norma introduz um sistema de classificação de risco para as aplicações de IA na saúde, inspirado em frameworks internacionais. As categorias vão de baixo risco, como funções administrativas, até risco inaceitável, como em casos que violem direitos fundamentais do ser humano ou princípios éticos da medicina. A resolução também prevê que os médicos não serão responsabilizados por falhas exclusivas dos sistemas de IA, desde que fique comprovado o uso diligente e ético da ferramenta. Exige a criação de Comissões de IA e Telemedicina, subordinadas à diretoria técnica das instituições. Essas comissões deverão monitorar desempenho, mitigar vieses, garantir auditabilidade e assegurar que os sistemas respeitem princípios de privacidade desde a concepção.

Mas há uma tensão que o anúncio não nomeia. Quando o paciente pode recusar a IA, o hospital é obrigado a oferecer alternativa humana? Ou o direito de recusar existe no papel — mas não na prática? Um paciente do SUS, dependente do sistema público, tem a mesma liberdade de recusar que um paciente da rede privada? Um paciente do interior, onde já há escassez de médicos, pode exigir atendimento humano sem ser penalizado? Um paciente idoso, menos familiarizado com tecnologia, sabe que tem esse direito? A pergunta que fica: o direito de recusar a IA é proteção genuína — ou é uma concessão que o sistema faz sem garantir que a alternativa exista? Quando a lei diz que o paciente pode dizer não, quem garante que o “sim” humano ainda está disponível?

Sob a lente da Amefricanidade, essa dinâmica revela padrões conhecidos. **Autonomia/Dignidade** — o paciente tem direito de recusar. Isso é autonomia. Isso é dignidade. Isso é o corpo como território sagrado, que não pode ser violado por tecnologia sem consentimento. Mas a autonomia só é real se há alternativa. Se o paciente diz “não quero IA” e o hospital diz “não temos médico humano disponível”, a autonomia era ilusão. Era direito no papel, não na prática. **Justiça/Reparação** exige que nomejemos quem se beneficia e quem paga o custo. Os hospitais se beneficiam — têm clareza regulatória. Têm governança definida. Têm proteção contra processos se usarem IA diligentemente. Os médicos se beneficiam — não são responsabilizados por falhas exclusivas da IA. Os pacientes se beneficiam — têm direito de recusar. Mas o custo? O paciente do SUS tem a mesma proteção que o paciente privado? O paciente do interior tem a mesma alternativa que o paciente da capital? Justiça para quem?

O fato de ser uma resolução BRASILEIRA importa. Isso não é regulamentação importada. Não é a FDA americana copiada. É o Conselho Federal de Medicina brasileiro escrevendo lei com cara do Brasil. Isso é soberania regulatória. Isso é capacidade brasileira. Mas soberania para quem? A resolução é brasileira — mas protege quem? O paciente urbano — ou também o rural? O paciente privado — ou também o público? A IA que diagnostica no hospital privado — essa é regulada. A IA que diagnostica no posto de saúde do interior — essa é o quê?

Ao aplicar os valores da House of 7, emergem perguntas incômodas. **Não-Violência/Cuidado** — a resolução pode prevenir danos. Pode exigir governança. Pode proteger o paciente de IA mal utilizada. Isso é cuidado? Ou é violência estrutural mascarada de proteção? Quando a lei permite que o paciente recuse a IA, mas não garante que o médico humano estará disponível, está cuidando dos pacientes — ou está fazendo uma concessão simbólica? **Verdade/Axé** — a verdade é que a resolução é um avanço. Sim. É importante. Sim. Mas a verdade também é que o direito de recusar só é real se há alternativa. A verdade é que 17% dos médicos já usam IA — e esse número vai crescer. A verdade é que “a IA pode apoiar, mas jamais substituir” é uma frase bonita. Mas quando o hospital está sobrecarregado, quando o médico tem 50 pacientes por dia, quando o sistema pede eficiência — a IA apoia ou substitui? A verdade precisa ser dita inteira.

O especialista João Saldanha, Advisor de Governança, Riscos e Compliance da Tripla, afirma: “Isso cria uma nova dinâmica documental dentro das instituições: a rastreabilidade torna-se o escudo do profissional e da empresa”. O paciente pode recusar. Mas isso exige “ajustes operacionais em ambientes altamente digitalizados, sem que haja interrupção do fluxo assistencial”. Tradução: o hospital precisa se organizar para oferecer alternativa humana. Mas vai oferecer? Ou vai dizer que “não há médico disponível no momento”? Ou vai pressionar o paciente a aceitar a IA porque “é mais rápido”, “é mais eficiente”, “é o padrão da casa”? A pergunta que fica: quando o paciente idoso, quando o paciente pobre, quando o paciente menos informado chega ao hospital — ele sabe que pode recusar? Ele tem coragem de recusar? Ou ele aceita a IA porque confia no médico, porque não quer ser “difícil”, porque não sabe que tem escolha?

A resolução encerra um “vácuo regulatório” no uso da tecnologia dentro da medicina. Muda o status da IA de inovação para infraestrutura crítica. Exige Comissões de IA. Exige governança algorítmica. Exige rastreabilidade. Tudo isso é importante. Tudo isso é necessário. Mas há algo que a regulamentação não pode capturar. Algo que está fora do escopo da lei. Algo que é, talvez, a essência da medicina. O toque. O olhar. A escuta. O silêncio compartilhado. A mão que segura. O ombro que acolhe. A IA pode diagnosticar. Pode analisar dados. Pode cruzar informações. Pode sugerir tratamentos. Mas não pode tocar. Não pode olhar nos olhos. Não pode escutar o que não é dito. Não pode compartilhar o silêncio do medo. Não pode segurar a mão do paciente que vai receber uma notícia difícil. Isso é humano. Isso é insubstituível. Isso é o que o paciente está protegendo quando diz “não quero IA”. Não é resistência à tecnologia. É preservação do humano. É o direito de ser cuidado por outro ser humano, não por um algoritmo.

Mas a pergunta que fica, depois que os 180 dias vencerem, depois que os hospitais se adequarem, depois que as Comissões de IA forem criadas, é simples e profunda: quando a inteligência artificial entra no consultório, o que sobra para o humano? O toque? O olhar? A escuta? O cuidado? Ou apenas a ilusão de escolha, enquanto o algoritmo continua decidindo — só que agora com regulamentação? O Brasil regulamentou a IA na medicina. A pergunta é: a resolução vai proteger os pacientes — ou vai proteger as instituições? E mais importante: o paciente vai saber que pode dizer não? E quando disser não, vai ter um médico humano para atendê-lo?

Leave a Reply

Your email address will not be published. Required fields are marked *