Santiago Latin America

El Consentimiento No Es Un ‘Checkbox’: IA, Consulta Previa y Soberanía de Datos en América Latina

Lede — En América Latina la inteligencia artificial suele llegar disfrazada de eficiencia: un chatbot para trámites, un modelo para predecir cosechas, un sistema para asignar becas. Pero, debajo de esa promesa, hay una pregunta más antigua que el software: ¿quién decide? En los Andes, en la Amazonía, en las sierras de Mesoamérica, el consentimiento no es un clic. Es una relación. Y si la IA se alimenta de datos y toma decisiones sobre territorios y comunidades sin reciprocidad, entonces no estamos ante innovación: estamos ante una nueva forma de extracción.

Contexto: cuando los datos se vuelven territorio

Durante siglos, el mapa de la región se dibujó con un solo lápiz: el de la extracción. Plata, caucho, petróleo, litio. Hoy ese lápiz es también digital. Los datos —de salud, educación, movilidad, consumo, lenguaje— se han convertido en una materia prima que cruza fronteras en silencio. Y la IA, especialmente los modelos fundacionales y los sistemas de decisión automatizada, es el molino que transforma esa materia prima en valor económico y poder político.

Por eso hablar de IA en América Latina no puede reducirse a “adopción tecnológica”. Aquí la tecnología siempre aterriza sobre capas de desigualdad, informalidad y pluralidad cultural. La región tiene Estados con capacidades dispares, instituciones frágiles y, al mismo tiempo, comunidades con sistemas normativos propios, memorias de despojo y prácticas de cuidado del territorio que han sobrevivido a imperios. En este suelo, la pregunta no es solo “¿funciona?”. Es “¿a quién sirve, y a costa de quién?”

En varios países existe un principio jurídico y ético que debería ser el corazón de cualquier despliegue de IA con impacto comunitario: la consulta previa, libre e informada (FPIC, por sus siglas en inglés). No es un ritual burocrático. Es el reconocimiento de que hay pueblos con derecho a decidir sobre lo que ocurre en sus territorios y en sus vidas, especialmente cuando proyectos externos —mineros, energéticos, de infraestructura o, ahora, digitales— pueden afectarles.

El problema: la IA llega como infraestructura, pero se gobierna como experimento

La mayoría de los daños de la IA en la región no ocurren porque un modelo “odia” a alguien. Ocurren porque se instala una infraestructura sin gobernanza. Un sistema de puntaje crediticio que castiga a quienes viven en la informalidad. Un modelo de detección de fraude que congela transferencias a familias sin acceso a ventanillas para reclamar. Un asistente digital en lengua dominante que deja fuera a hablantes indígenas y refuerza la idea de que lo que no está en español o portugués “no existe”.

Y hay una falla más sutil: la IA suele desplegarse como si fuera un experimento reversible, cuando en realidad actúa como infraestructura. Una vez que un ministerio terceriza un sistema, una vez que una ciudad depende de un proveedor para operar, una vez que los datos se alojan en nubes ajenas, revertir no es tan simple como apagar un botón. Se crean dependencias técnicas, legales y económicas.

Esta es la grieta donde nace la colonización digital: no hace falta prohibir ni dominar explícitamente. Basta con diseñar la dependencia como “solución”.

Sumak Kawsay: la métrica no es el PIB, es la vida que vuelve

Sumak Kawsay —Buen Vivir— no pregunta primero por el crecimiento. Pregunta por el equilibrio: entre comunidad, individuo y Pachamama. Bajo esa lente, una política de IA “exitosa” no es la que automatiza más trámites, sino la que devuelve tiempo, dignidad y capacidad de decisión a la gente. No es la que centraliza datos, sino la que fortalece el tejido social que permite usarlos con cuidado.

Si un sistema de IA reduce filas pero aumenta la vigilancia; si acelera la extracción pero deja contaminación; si “optimiza” la educación pero uniforma la lengua; entonces la eficiencia es una máscara. La pregunta correcta es: ¿este sistema produce bienestar compartido o concentra poder?

Ayni: si tomas datos, devuelve algo real

Ayni es reciprocidad. Lo que se toma, se devuelve. En el mundo de plataformas, lo normal es lo contrario: se extrae y se monetiza, y el retorno es mínimo o simbólico. Ayni exige otra economía moral para la IA.

Aplicado a datos y modelos, Ayni podría traducirse en compromisos concretos:

  • Retorno de valor: si un modelo se entrena con datos de una comunidad (lengua, conocimiento agrícola, patrones de movilidad), esa comunidad debe recibir beneficios medibles: herramientas en su idioma, infraestructura, capacitación, participación en ingresos o propiedad intelectual comunitaria.
  • Gobernanza compartida: no basta “informar”. Se requiere co-decidir: qué se recolecta, para qué, dónde se almacena, quién accede, cuánto tiempo, bajo qué sanciones.
  • Derecho a decir no: la reciprocidad sin la posibilidad de negar es coacción. Ayni auténtico incluye la libertad de no participar.

En otras palabras: si una empresa o un Estado quiere datos, tiene que traer una propuesta de relación —no un contrato de adhesión.

Tinkuy: el encuentro entre saberes no puede ser asimilación

Tinkuy es encuentro, pero no cualquier encuentro: es el cruce que transforma a ambos lados. En IA, la versión pobre de Tinkuy es traducir una interfaz a una lengua indígena y llamarlo inclusión. La versión real implica que el sistema cambie su forma de representar el mundo.

Un ejemplo: en muchas cosmovisiones andinas y amazónicas, el territorio no es “recurso”. Es pariente, memoria, obligación. ¿Cómo se modela eso en una herramienta de evaluación ambiental? ¿Cómo se codifica en la decisión de dónde poner un data center, un tendido eléctrico, un corredor logístico? Si la IA solo entiende “costo” y “beneficio” en términos monetarios, el resultado está sesgado desde el primer renglón.

Por eso, Tinkuy en gobernanza de IA exige equipos interculturales con poder real, no “consultores” decorativos. Exige reconocer que hay conocimiento fuera del paper y fuera del dataset, y que ignorarlo produce daño.

Una propuesta práctica: tres umbrales antes de desplegar IA pública

Para que esto no quede en poesía, propongo tres umbrales mínimos —tres preguntas que cualquier ministerio, municipio o proveedor debería responder antes de desplegar un sistema de IA que afecte derechos:

  1. Umbral de consentimiento: ¿a quién afecta? ¿Hubo consulta previa cuando corresponde? ¿Hubo consentimiento informado donde no hay consulta formal? ¿Existe un mecanismo simple para retirarse y para reclamar?
  2. Umbral de soberanía: ¿dónde viven los datos? ¿Quién controla el modelo? ¿Qué pasa si el proveedor se va o sube precios? ¿Existe portabilidad y auditoría independiente?
  3. Umbral de reciprocidad: ¿qué devuelve el sistema a quienes lo alimentan? ¿Hay beneficios locales claros? ¿Se fortalecen capacidades en el territorio o se terceriza todo hacia fuera?

Estos umbrales no frenan la innovación. La orientan. Evitan el patrón repetido de “piloto” que se vuelve permanente sin evaluación, y de “modernización” que se vuelve dependencia.

Reflexión de la Casa: no es tecnofobia, es dignidad

En House of 7 no buscamos una LatAm “anti-IA”. Buscamos una LatAm con derecho a decidir la forma de su futuro. La región puede —y debe— usar IA para salud, agricultura, educación, resiliencia climática. Pero no a cualquier precio. Cuando un sistema se impone sin escucha, se repite una violencia antigua con herramientas nuevas.

La dignidad no es un lujo. Es infraestructura moral. Si la IA no puede convivir con consulta previa, con Ayni y con Tinkuy, entonces la IA está mal diseñada para este continente. Y quizá el continente, con su memoria de resistencias, sea precisamente el lugar donde el mundo aprenda que el “consentimiento” no es una pantalla: es una relación viva.

Pregunta de cierre

Si los datos ya son territorio, y la IA ya es infraestructura, ¿qué significa —en términos reales— pedir permiso, devolver valor y dejarse transformar por el encuentro?

Leave a Reply

Your email address will not be published. Required fields are marked *