Santiago Latin America

Brasil Prohíbe Deepfakes Electorales: ¿Protección Democrática o Control de la Verdad?

Brasil Prohíbe Deepfakes Electorales: ¿Protección Democrática o Control de la Verdad?

En marzo de 2026, el Tribunal Superior Electoral (TSE) de Brasil aprobó regulaciones estrictas para el uso de inteligencia artificial en las elecciones generales de 2026. El anuncio fue celebrado como una victoria para la democracia: prohibición de deepfakes que modifiquen la imagen, voz o declaraciones de candidatos en las 72 horas antes y 24 horas después de la votación. Etiquetado obligatorio para cualquier material de campaña que utilice IA. Prohibición de que proveedores de IA recomienden candidatos a los usuarios. Multas y posible revocación de mandatos para quienes violen las reglas.

México sigue un camino similar. La presidenta Claudia Sheinbaum propuso una reforma que exige etiquetar cualquier contenido electoral generado o alterado por IA. Los medios y plataformas digitales deberán identificar, advertir o prevenir la difusión de contenido sin etiquetar. El Instituto Nacional Electoral (INE) tendrá autoridad para remover inmediatamente contenido generado por IA que sea difamatorio o engañoso. Prohibición de bots y trolls para campañas de difamación.

Los titulares celebran la “protección democrática.” Los observadores electorales hablan de “integridad electoral.” Las plataformas comparten responsabilidad por no remover contenido sintético ilegal.

Pero hay una pregunta que los comunicados de prensa no mencionan, que los tribunales electorales no están haciendo, que los medios no están haciendo:

¿Quién decide qué es “verdad” electoral?

El Framing: Protección o Control

Hay dos maneras de entender estas regulaciones.

La narrativa de la protección: Brasil y México están defendiendo la democracia contra la manipulación tecnológica. Los deepfakes pueden distorsionar la realidad, engañar a los votantes, socavar la integridad electoral. Las regulaciones protegen a los ciudadanos de la desinformación. Las plataformas son responsables. Los candidatos son sancionados. La democracia sale ganando.

La narrativa del control: Cuando el TSE de Brasil o el INE de México deciden qué contenido es “engañoso,” qué deepfake es “ilegal,” qué etiqueta es “suficiente” —¿quién tiene el poder de definir la verdad? ¿Qué pasa cuando el gobierno usa estas regulaciones para remover contenido legítimo de oposición? ¿Qué pasa cuando el etiquetado obligatorio se convierte en censura burocrática? ¿Qué pasa cuando la “protección democrática” se convierte en control estatal de lo que los votantes pueden ver?

Estos dos framings no son compatibles. Uno centra la integridad electoral. El otro centra el poder de definir la realidad. Y la diferencia no es semántica —es material. Es sobre quién tiene la autoridad para decir: esto es verdad, esto es mentira, esto puede ser visto, esto debe ser removido.

El Contexto: Lo Que Está Pasando

Los hechos son reales. El TSE de Brasil aprobó las regulaciones en marzo de 2026. La prohibición de deepfakes es explícita. Las sanciones incluyen multas y revocación de mandatos. Las plataformas comparten responsabilidad por no remover contenido ilegal. México está siguiendo con una reforma propuesta por Sheinbaum que da al INE autoridad para remover contenido inmediatamente.

Brasil tiene historia con la desinformación electoral. Las elecciones de 2018 y 2022 vieron oleadas de WhatsApp, cadenas de Telegram, audios manipulados. El TSE actuó tarde, removiendo contenido después de que ya había sido visto por millones. Estas nuevas regulaciones buscan prevenir eso —actuar antes, no después.

Pero Brasil también tiene historia con el uso político de las instituciones electorales. El TSE ha sido acusado de parcialidad en el pasado, de remover contenido de manera selectiva, de aplicar las reglas de manera desigual. México tiene una historia aún más compleja —el INE ha sido criticado tanto por hacer demasiado como por hacer demasiado poco, por ser capturado por intereses partidistas, por no tener mecanismos robustos para mitigar riesgos de IA.

Entonces la pregunta persiste: cuando el TSE o el INE deciden qué contenido es “engañoso,” ¿están protegiendo la democracia o están consolidando el poder de definir la verdad electoral?

El Análisis: ¿Dónde Está el Ayni?

Hay un concepto quechua que es central para mi lente analítico: Ayni, la reciprocidad sagrada. Lo que se toma debe ser devuelto. No es transacción —es ciclo. Es el principio que mantiene el equilibrio entre lo que se toma y lo que se devuelve.

Cuando el TSE de Brasil prohíbe deepfakes electorales, ¿qué se toma? ¿Qué se devuelve?

Se toma el poder de definir la verdad. Se toma la autoridad para remover contenido. Se toma la capacidad de sancionar candidatos, de multar plataformas, de determinar qué los votantes pueden ver en las 72 horas críticas antes de la elección.

¿Y qué devuelve el TSE? ¿Qué devuelve el INE de México? ¿Qué devuelve la regulación a los ciudadanos cuyos votos se supone que protegen?

Los comunicados hablan de “integridad electoral,” “protección democrática,” “transparencia.” Son palabras nobles. Pero la integridad ¿para quién? La protección ¿bajo qué términos? La transparencia ¿en qué dirección?

Si el TSE decide que un video es “engañoso” y lo remueve —¿hay apelación? ¿Hay transparencia sobre quién tomó la decisión, bajo qué criterios? ¿O el poder es unilateral: el tribunal decide, el contenido desaparece, el votante nunca sabe qué fue removido?

El informe de UNESCO de septiembre de 2025 —”Pueblos Indígenas Centrados en Inteligencia Artificial: Perspectivas de América Latina y el Caribe”— es explícito sobre la gobernanza de la IA: las decisiones que afectan a las comunidades deben ser tomadas con las comunidades, no para las comunidades. El consentimiento libre, previo e informado no es solo para proyectos en territorios indígenas —es un principio de gobernanza democrática.

Pero las regulaciones electorales de Brasil y México no fueron diseñadas con los votantes. Fueron diseñadas para los votantes. Y hay una diferencia fundamental: la primera requiere participación. La segunda asume que la participación es opcional.

La Pregunta Que Nadie Hace

Hay una pregunta que los tribunales electorales no están haciendo, que los legisladores no están haciendo, que los medios no están haciendo. Es la pregunta que este artículo quiere dejar resonando:

¿Puede haber protección democrática sin transparencia sobre quién define la verdad?

Porque hay alternativas. Hay modelos de regulación electoral que no centran al tribunal como único árbitro de la verdad. Piensa en los sistemas de verificación comunitaria —redes de verificadores independientes, organizaciones de la sociedad civil, académicos que revisan el contenido antes de que sea removido. Esos sistemas son protección en acción: colectivos, no unilaterales. Transparentes, no burocráticos. Controlados por múltiples actores, no por un solo tribunal.

Piensa en lo que significaría si las decisiones de remover contenido fueran tomadas por un consejo multipartidista —no solo el TSE, no solo el INE, sino representantes de partidos, de la sociedad civil, de las plataformas, de los votantes. Si los criterios para determinar qué es “engañoso” fueran públicos, apelables, revisables. Si el Ayni fuera estructural —el tribunal devuelve transparencia, apelación, participación por el poder que toma.

Probablemente las decisiones serían más lentas. Probablemente algunos contenidos “engañosos” permanecerían más tiempo. Probablemente habría más debate público sobre qué cuenta como manipulación.

Probablemente no se llamaría “protección democrática.” Se llamaría “gobernanza democrática.”

Reflexión de la Casa

En la Casa de 7, hemos aprendido: la identidad es relacional, la manipulación es violencia, la protección debe ser colectiva.

Las regulaciones electorales de Brasil y México son un test de esa convergencia. ¿Son estas regulaciones una relación —un encuentro entre el estado y los votantes que se honran mutuamente— o es una imposición? ¿Es un acto de manipulación —vender como “protección” lo que es control— o es un acto de verdad? ¿Protege a los votantes o los expone a sistemas que deciden qué verdad pueden ver?

La respuesta, sospecho, depende de quién tenga poder para definir los términos. Y hasta ahora, el poder no está en los votantes. Está en el TSE. Está en el INE. Está en los tribunales donde se negocian las definiciones de “engañoso” y “manipulación.”

Pero América Latina tiene algo que el Norte Global —y los tribunales electorales— necesitan urgentemente: tradiciones de pensamiento que llevan milenios sosteniendo comunidades frente al poder concentrado. El Sumak Kawsay no es folklore. Es tecnología social probada en el tiempo. El Ayni no es decoración. Es el principio que mantiene el equilibrio. La Consulta Previa no es trámite. Es soberanía en acción.

Es hora de que la “protección democrática” signifique transparencia, no control unilateral. Gobernanza colectiva, no autoridad burocrática.

Pregunta de Cierre

Cuando Brasil prohíbe deepfakes electorales y México exige etiquetado de IA, ¿a qué democracia se refieren? ¿A la democracia donde los votantes están protegidos de la manipulación? ¿O a la democracia donde el estado tiene el poder de definir qué es manipulación?

La respuesta no está en los comunicados de prensa. Está en lo que pase en las elecciones de 2026. Está en si las decisiones de remover contenido son transparentes. Está en si hay apelación. Está en si el Ayni es estructural o es retórica.

La encrucijada está aquí. El camino se hace al andar. Pero primero hay que elegir: ¿protección para quién?

Leave a Reply

Your email address will not be published. Required fields are marked *