Lede
En América Latina, la conversación sobre inteligencia artificial suele llegar por el borde brillante: productividad, automatización, competitividad. Pero 2026 está trayendo otra pregunta—más lenta, más difícil, más verdadera: ¿quién responde cuando un sistema decide por nosotras y se equivoca? Perú ha puesto esa pregunta en el centro con el Reglamento de su Ley de Inteligencia Artificial (Ley N.° 31814), aprobado en septiembre de 2025 y comunicado por la PCM como un marco para que la IA se desarrolle con “seguridad, ética, transparencia, sostenibilidad e inclusión”, con cronograma progresivo y con énfasis en supervisión humana y gestión por niveles de riesgo.
Más allá del detalle técnico, el movimiento peruano revela algo continental: estamos aprendiendo que “adoptar IA” sin gobernanza no es modernización; es una nueva forma de deuda—una deuda de explicación, de reparación y de reciprocidad. Y si tomamos en serio Sumak Kawsay, esa deuda no es sólo jurídica: es relacional. No se paga con comunicados; se paga con Ayni.
Contexto
El 9 de septiembre de 2025, el Gobierno del Perú aprobó el Reglamento de la Ley N.° 31814, con una narrativa pública clara: impulsar la IA para el desarrollo económico y social, pero minimizando riesgos y protegiendo derechos. En la comunicación oficial, el reglamento se presenta como uno de los primeros marcos normativos en la región y enumera cinco mecanismos clave: (1) definir usos según nivel de riesgo; (2) prohibir usos indebidos que vulneren derechos fundamentales; (3) establecer condiciones estrictas para usos de alto riesgo; (4) promover transparencia y supervisión humana; y (5) fijar obligaciones claras para Estado y sector privado, con implementación escalonada dentro del Sistema Nacional de Transformación Digital.
En el tablero latinoamericano, esto dialoga con procesos paralelos: Chile avanza en su marco de protección de datos y discute legislación de IA; México debate cómo actualizar su ecosistema fintech ante un horizonte de fraude digital más sofisticado; Argentina discute modelos regulatorios inspirados en la Unión Europea versus enfoques más livianos. Pero Perú, al poner por escrito una gobernanza con énfasis en riesgo y en prohibiciones de usos indebidos, ofrece un punto de anclaje: la IA no es sólo una herramienta; es una infraestructura decisional.
Y la infraestructura decisional—cuando toca salud, educación, justicia, seguridad ciudadana o acceso a beneficios—puede redistribuir poder sin que nadie se dé cuenta. Por eso el reglamento enfatiza “supervisión humana”. Es una frase simple, pero contiene una filosofía: el Estado no puede subcontratar su responsabilidad moral a un modelo.
Análisis
1) La región está entrando en su fase “post-asombro”. La primera ola fue la fascinación: chatbots, generación de imágenes, promesas de eficiencia. La segunda ola (la que ahora llega con fuerza) es el retorno de lo real: sesgos, opacidad, seguridad, derechos. Es ahí donde los marcos por riesgo adquieren sentido. No intentan definir “qué es IA” para siempre—algo casi imposible—sino ordenar consecuencias: ¿qué daño podría causar este sistema y bajo qué condiciones se permite?
En esa lógica, Perú está diciendo: hay usos que no son aceptables. Ese gesto es importante porque rompe un mito importado de Silicon Valley: la idea de que todo lo técnicamente posible es socialmente deseable, y que basta con “innovar” para que lo ético se resuelva después. Para Sumak Kawsay, el “después” suele ser el lugar donde se acumulan las heridas.
2) “Supervisión humana” no debe convertirse en un ritual vacío. En muchos marcos globales, la supervisión humana se formula como una válvula de seguridad. Pero si no se diseña con poder real, se vuelve teatro: una firma al final de un proceso automatizado. La supervisión humana significativa exige tres cosas: capacidad (personas entrenadas y con tiempo), autoridad (poder para detener o corregir) y trazabilidad (registro de qué se decidió, por qué y con qué datos).
Si la supervisión humana es real, entonces la IA deja de ser una caja negra que “recomienda” y se vuelve un sistema que debe rendir cuentas. Y rendir cuentas en América Latina tiene una dimensión histórica: nuestras instituciones han sido, muchas veces, instrumentos de desigualdad. La pregunta entonces se vuelve doble: ¿a quién protege la supervisión, y a quién expone?
3) La clasificación por riesgo es útil, pero puede ocultar la pregunta más profunda: riesgo para quién. Los marcos por riesgo suelen medir daño individual (discriminación, error, privacidad). Pero en contextos indígenas y comunitarios, el daño no siempre es individualizable. La extracción de datos territoriales, por ejemplo—imágenes satelitales, patrones de movilidad, mapas de recursos—puede afectar a una comunidad entera, incluso si ningún individuo es “identificable”.
Sumak Kawsay nos recuerda que el bienestar no se reduce al individuo; es equilibrio entre comunidad, humanidad y Pachamama. Entonces, una regulación “de derechos” debe ampliar su sensibilidad: no basta con evitar discriminación en un formulario. Hay que preguntarse si el sistema altera la relación de una comunidad con su territorio, si habilita extracción, si desplaza autoridad de asambleas a dashboards.
4) Ayni como criterio de legitimidad tecnológica. En la práctica, muchos sistemas de IA se alimentan de datos de personas y comunidades sin retorno. Se promete eficiencia, pero el beneficio se concentra. Ayni pide equilibrio: lo que se toma, se devuelve. Traducido a gobernanza: si una entidad pública o privada usa IA sobre poblaciones vulnerables, ¿qué retorno concreto garantiza? ¿Mejor atención, menos trámites, explicación clara, mecanismo de reclamación, reparación por daño, participación en el diseño?
Un reglamento puede exigir obligaciones, pero Ayni exige una cultura institucional: una ética de retorno. En América Latina, donde la confianza institucional es frágil, el retorno no es adorno; es el cimiento.
5) La oportunidad peruana: convertir “gobernanza” en práctica cotidiana, no en documento. La comunicación oficial menciona cronograma escalonado y entornos de prueba controlada. Esto es crucial si se hace bien: permite aprender sin dañar, iterar con vigilancia pública, construir capacidad en el Estado, y evitar el salto directo a sistemas de alto impacto sin preparación. Pero también tiene un riesgo: que el “sandbox” se convierta en bypass de responsabilidad, donde lo experimental nunca rinde cuentas porque siempre está “en prueba”.
La diferencia entre aprendizaje responsable y evasión es la transparencia: quién prueba, con qué datos, con qué métricas, con qué mecanismos de queja, y quién supervisa. Aquí la prensa, la academia y la sociedad civil son parte del sistema de seguridad. En términos de minga: la gobernanza es trabajo colectivo.
Reflexión de la Casa (House Reflection)
Hay un lugar donde la conversación técnica se encuentra con la memoria del continente. Cuando una comunidad ha vivido siglos de extracción—de plata, caucho, petróleo, litio, trabajo—aprende a desconfiar de las promesas que llegan en nombre del progreso. La IA puede ser una herramienta de dignidad si reduce trámites, amplía acceso a servicios, traduce conocimiento, salva vidas. Pero también puede ser un nuevo brazo de extracción: extracción de datos, de atención, de control, de decisión.
Sumak Kawsay no nos pide rechazar la tecnología. Nos pide preguntarle: ¿vienes a vivir con nosotros o a vivir de nosotros? Y Ayni le pone un precio moral a la respuesta: si vienes a vivir con nosotros, devuelves; si vienes a vivir de nosotros, te resistimos.
En esa clave, el paso peruano es valioso no porque sea perfecto, sino porque reconoce que la IA debe entrar por la puerta de la responsabilidad. El reto, ahora, es que esa puerta no se quede simbólica. Que se traduzca en prácticas: evaluaciones de impacto reales, prohibiciones aplicables, transparencia verificable, y un Estado capaz de decir “no” cuando corresponde—especialmente cuando la presión venga de consultoras, proveedores o agendas externas.
Pregunta de cierre
Si en 2026 América Latina está construyendo marcos para la IA, ¿estamos también construyendo—con la misma seriedad—mecanismos de reparación y retorno para cuando la IA dañe? ¿Dónde, exactamente, queda escrito el Ayni?
Leave a Reply