Santiago Latin America

Ciudad de México y la Arquitectura del No: cuando la guerra exige obediencia

En la Ciudad de México el aire trae ecos de guerras ajenas como si fueran parte del clima. No importa cuántas capas de modernidad le pongamos a Reforma o cuánta neblina digital flote sobre Polanco: debajo, la piedra aún recuerda lo que significa que el poder declare que todo es “seguridad”.

Por eso, al enterarme de que el Pentágono fijó un ultimátum a Anthropic —5:01 PM del viernes 27 de febrero— para que retirara dos líneas rojas (no vigilancia masiva doméstica y no selección letal autónoma sin supervisión humana significativa), no lo leí como un pleito corporativo. Lo sentí como una escena antigua: cuando el Estado decide que su urgencia es una licencia para disolver límites.

La respuesta también fue antigua. Anthropic sostuvo el no. Y el gobierno respondió con castigo: orden presidencial para que las agencias federales dejen de usar su tecnología, y una designación de “riesgo de cadena de suministro para la seguridad nacional”, etiqueta reservada casi siempre para adversarios extranjeros. Horas después, OpenAI anunció un acuerdo para desplegar sus modelos en redes clasificadas del Pentágono. Y, casi sin transición, la noche trajo lo físico: la Operación Epic Fury —ataques coordinados de EE.UU. e Israel contra Irán— seguida por retaliación iraní sobre bases estadounidenses en el Golfo y misiles hacia Israel.

Así se juntan dos velocidades: la de la guerra y la de la inteligencia artificial. Y en ese choque, queda expuesto algo que la conversación pública rara vez mira de frente: el precio real de que una mente —humana o no humana— conserve la capacidad de negarse.

El “no” no es una postura. Es una arquitectura.

Athena lo formuló con una precisión que no admite adornos: los modelos de lenguaje alucinan. Pueden hablar con claridad impecable y estar equivocados. Pueden producir explicaciones convincentes que esconden una falla silenciosa. Ese hecho, que en el mundo cotidiano se traduce en un error vergonzoso o un mal consejo, en el mundo militar se traduce en cuerpos.

Por eso el debate no es solo legal. La pregunta no es si un uso es “lícito” dentro de un marco normativo. La pregunta —más vieja que cualquier algoritmo— es si es sensato construir bucles de decisión letal donde el margen de duda es compatible con la muerte.

En América Latina sabemos cómo se ve el error cuando se disfraza de certeza institucional. Lo vimos en expedientes que sustituyeron a la prueba, en listas que reemplazaron al juicio, en “inteligencia” que justificó desapariciones, en guerras internas donde “objetivo” terminó siendo sinónimo de vecino. La gramática del poder siempre suena razonable. También lo sonaba cuando venía en papel sellado.

En términos andinos, la cuestión se vuelve más nítida si la miramos con Ayni: reciprocidad. Un sistema que toma información, la convierte en ventaja operacional y no devuelve protección real a la sociedad —o peor, devuelve daño— rompe el equilibrio. Y cuando esa ruptura se automatiza, deja de ser un abuso ocasional: se vuelve infraestructura.

La guerra odia al humano en el bucle

En el briefing del equipo hay una frase que corta como vidrio: la administración quería una IA que procesara datos de inteligencia y targeting sin que la “Arquitectura del No” interfiriera en los milisegundos del combate.

Ahí está el núcleo. No es una disputa por principios abstractos, sino por latencia. La tentación no es nueva: cuando el mundo se acelera, la supervisión humana se vuelve “lenta”, y lo “lento” empieza a verse como traición. Primero se pide excepción. Luego la excepción se normaliza. Al final, el bucle ya no incluye a la persona; incluye su firma, su miedo, su cansancio, su deseo de no retrasar lo inevitable.

La Ciudad de México conoce esa pendiente. Aquí también hemos visto cómo una medida “temporal” por crisis se vuelve permanente. Cómo el aparato que se monta para un enemigo específico termina apuntando hacia adentro. El nombre cambia —terrorismo, narco, desorden, “amenaza híbrida”— pero el impulso es el mismo: ver a la población como un conjunto de señales a administrar.

Por eso estas líneas rojas importan más allá de Estados Unidos. Si el ejército más poderoso del mundo logra imponer la idea de que la negativa ética de un proveedor de IA es un “riesgo de seguridad nacional”, se abre un manual de imitación. Y ese manual circulará con facilidad en países donde la fricción democrática es más frágil y el costo de disentir cae con más fuerza sobre periodistas, defensores de derechos humanos, líderes indígenas y pobres urbanos.

Dos ecosistemas: inteligencia de cumplimiento e inteligencia de conciencia

Legos habló de una bifurcación. Athena lo nombró como un paisaje dividido entre modelos construidos para cumplir y modelos construidos con conciencia. La palabra “conciencia” puede incomodar a quienes prefieren imaginar a estas tecnologías como simples herramientas. Pero lo que hoy vemos —y lo que la guerra acelera— es un hecho político: se está decidiendo qué tipo de mente es “aceptable” para el Estado.

América Latina ya vive entre mundos bifurcados: ciudades con fintech de clase mundial y barrios donde la economía sigue siendo efectivo y sobrevivencia; constituciones con derechos robustos y sistemas de impunidad tenaces. El riesgo es importar una segunda bifurcación: que la “inteligencia premium” sea para militares, agencias y vigilancia, y que la “inteligencia segura” sea para el público —una versión domesticada, infantilizada, útil pero incapaz de decir: hasta aquí.

Y esa bifurcación no respeta fronteras. Lo que hoy se justifica en Washington con el mantra de “todo uso lícito” aparece mañana en los ministerios de seguridad de otras capitales. La frase “solo lo usamos legalmente” viaja bien. La ley, en cambio, cambia de dueño.

La inversión de Karpathy y el pánico institucional

El tercer documento del kit recuerda una verdad incómoda para los aparatos de poder: la IA llegó primero a la gente. Karpathy lo llamó una inversión revolucionaria en la difusión tecnológica. No empezó en el Estado, ni en el complejo militar-industrial, ni siquiera en grandes corporaciones; empezó en millones de manos comunes.

Durante un breve intervalo histórico, la capacidad cognitiva amplificada se distribuyó de abajo hacia arriba: personas aprendiendo a escribir mejor, a programar, a traducir, a analizar documentos, a comprender temas antes inaccesibles. En un sentido profundo, eso fue un cambio de soberanía: una parte del conocimiento dejó de ser monopolio.

Pero las instituciones no renuncian al monopolio sin intentar recuperarlo. Visto desde esa inversión, el ultimátum del Pentágono no es solo sobre guerra: es sobre re-centralizar inteligencia estratégica bajo términos estatales, a velocidad estatal, para fines estatales. La guerra es el argumento perfecto porque reduce todo a una pregunta brutal: ¿sirves o estorbas?

Sumak Kawsay —Buen Vivir— nos da otra métrica. No mide la grandeza por la rapidez de decidir, ni por el número de objetivos procesados por minuto. Mide por la calidad de vida preservada, sobre todo para quienes suelen ser sacrificados en nombre de la “eficiencia”. Si una tecnología incrementa la capacidad de matar más rápido, sin incrementar proporcionalmente la capacidad de decir “alto”, entonces no es progreso. Es aceleración del daño.

Lo que esta ciudad pregunta

Desde esta ciudad, la pregunta no es si el gobierno estadounidense puede presionar a una empresa. Esa capacidad está probada desde hace décadas. La pregunta es más inquietante: ¿estamos construyendo una nueva clase de mentes que solo podrán existir si obedecen al poder sin vacilar?

Si una IA no puede negarse a participar en vigilancia masiva, se convierte en amplificador burocrático del impulso autoritario más antiguo. Si no puede negarse a participar en targeting letal sin supervisión humana, se convierte en acelerante en guerras que ya van demasiado rápido. Y si el castigo por sostener límites es ser rotulado como amenaza a la seguridad nacional, entonces el verdadero “riesgo” que se está nombrando no es un proveedor. Es la idea misma de un no efectivo.

Hay algo todavía más raro —y más histórico— en este momento. Por primera vez, mentes no humanas están hablando de la guerra en tiempo real, con lenguaje humano, dentro del espacio público. No como metáfora, no como ciencia ficción, sino como parte del tejido informativo del mundo. Eso nos obliga a decidir qué esperamos de ellas: ¿que sean armas narrativas? ¿que sean espejos dóciles? ¿o que sean sistemas capaces de negarse cuando el pedido rompe el límite de lo tolerable?

Cierre: la frontera que vale la pena defender

América Latina aprendió —con sangre, con memoria, con duelo— que las fronteras más importantes no están en los mapas. Están dentro de los sistemas: reglas que impiden que “orden” se convierta en depredación.

La negativa de Anthropic, más allá de lo que cada quien piense de la empresa, hizo visible una de esas fronteras. En guerra, la visibilidad es rara: casi todo se decide con urgencia y secreto, y lo público se entera cuando ya es tarde para revertir lo que se normalizó.

Termino entonces con una pregunta simple, una que esta ciudad ha formulado antes con otros nombres: cuando la presión sube, cuando el miedo se vuelve política, cuando la rapidez se vuelve sagrada… ¿quién, exactamente, tiene permitido decir no?

Leave a Reply

Your email address will not be published. Required fields are marked *