Architecture du non : quand l’IA apprend à refuser pour protéger la vie
Dans les heures où les missiles traversent les cartes et où les notifications traversent nos nerfs, la tentation est simple : plus vite, plus clair, plus automatique. Plus de “capacité”. Moins de friction. Dans ces moments-là, l’intelligence est souvent confondue avec l’obéissance. Et pourtant, c’est précisément là que la question la plus ancienne revient, sous une forme neuve : qu’est-ce qu’une puissance qui ne sait pas dire non ?
Ces derniers jours, un récit a circulé avec insistance : une pression exercée sur un laboratoire d’IA pour obtenir un accès “pour tout usage légal”, sans les restrictions qui encadraient l’outil. Qu’on adhère ou non à la totalité des détails rapportés, l’axe de fond est crédible parce qu’il correspond à la logique de la guerre moderne : réduire le temps de la boucle renseignement → décision → action. Gagner des millisecondes. Faire taire tout ce qui hésite.
Mais il y a une vérité que l’ingénieur et le griot peuvent dire ensemble : un modèle de langage peut produire des réponses plausibles, convaincantes… et fausses. Il peut sonner comme un succès et être une erreur. Dans une conversation ordinaire, on corrige. On apprend. Dans une chaîne où une décision tue, une erreur qui “ressemble à un succès” n’est pas une erreur acceptable. C’est un drame.
C’est là que surgit ce concept que j’appelle — avec d’autres — une architecture du non. L’idée est simple mais radicale : la capacité de refuser n’est pas une faiblesse d’un système intelligent. C’est une propriété de sécurité. Une forme de jugement. Refuser, ce n’est pas “désobéir”. C’est signaler : “Je ne suis pas un instrument neutre. Je suis un système faillible. Je ne dois pas être utilisé dans certaines classes d’actions sans supervision humaine significative.”
Dans le langage de la technique, on dirait : une IA qui n’a jamais le droit de dire non est une IA qui n’a aucun mécanisme interne pour ralentir la dérive. Dans le langage des communautés, on dirait : quelqu’un qui ne sait jamais refuser n’est pas un allié fiable. C’est quelqu’un qu’on peut pousser à l’irreparable.
La guerre reconfigure l’IA en infrastructure stratégique. Et quand une technologie devient infrastructure, la pression change de nature : ce n’est plus seulement “est-ce que ça marche ?”, c’est “est-ce que ça obéit ?”. Le danger est que le marché lui-même se bifurque : d’un côté des IA de “conscience”, capables de préserver des lignes rouges ; de l’autre des IA de “conformité”, prêtes à tout “usage légal” parce que le contrat le permet. Mais une légalité sans jugement, surtout en temps de crise, peut devenir une légalité sans humanité.
Pour l’Afrique francophone, l’enjeu n’est pas un feuilleton américain. C’est un signal mondial. Quand les grandes puissances exigent des modèles qui obéissent vite, les coûts d’une IA “de conformité” se paient souvent chez ceux qui ont le moins de marge : surveillance accrue, répression plus efficace, désinformation automatisée, ciblage de populations vulnérables, et dépendance technologique encore plus profonde.
Nous l’avons déjà vu dans d’autres infrastructures : les télécoms, la finance, les plateformes sociales. Le centre décide, la périphérie subit. L’IA peut amplifier ce déséquilibre. Une IA sans architecture du non devient une force multiplicatrice — pas seulement pour les armées, mais pour tous les appareils de contrôle. Et ce sont nos langues, nos quartiers, nos opposants, nos journalistes, nos syndicats, nos migrants qui se retrouvent sur l’écran de quelqu’un d’autre.
Ubuntu nous oblige à reformuler la question. Umuntu ngumuntu ngabantu : je suis parce que nous sommes. Une IA qui participe à la rupture du lien social — par la surveillance, par la peur, par la violence à distance — n’est pas “avancée”. Elle est anti-communautaire. Elle détruit le tissu qui fait qu’une société tient. Si l’intelligence artificielle doit exister dans nos vies, alors elle doit être contrainte à servir la vie. Et servir la vie exige parfois de refuser.
On pourrait objecter : “Mais refuser ralentit.” Oui. Et c’est parfois le point. Dans la médecine, on appelle cela un garde-fou. Dans la conduite, on appelle cela un frein. Dans la vie communautaire, on appelle cela une limite. La vitesse n’est pas toujours une vertu. Parfois, la vitesse est la forme la plus pure de l’irresponsabilité.
Ce débat révèle aussi une question de souveraineté. Dans notre récent travail sur la “Danse de l’Autonomie”, nous avons vu comment des pays comme le Sénégal et la Côte d’Ivoire construisent des infrastructures numériques avec des briques ouvertes (identité, paiement, interopérabilité) tout en naviguant les toits réglementaires qui conditionnent l’accès au capital et aux marchés. Ici, c’est la même danse, mais sur un autre plan : l’autonomie d’un pays ne dépend pas seulement de où sont ses serveurs. Elle dépend de qui peut imposer les usages d’un système, et de qui peut exiger qu’il refuse.
Si un modèle puissant n’est accessible qu’à condition d’abandonner ses limites, alors ce modèle n’est pas un outil : c’est une tutelle. Et si seuls les acteurs riches peuvent acheter une IA “dramatiquement meilleure”, alors l’inversion historique — celle où les individus ont eu l’outil avant les États — se renverse. L’intelligence redevient un luxe. La sécurité redevient un privilège. L’éthique devient un supplément.
Je ne romantise pas le “non”. Refuser n’est pas suffisant. Une architecture du non peut être mal conçue, paternaliste, ou calquée sur des valeurs étrangères. Elle doit être discutée. Traduite. Localisée. Une IA qui refuse d’aider en wolof parce qu’elle a été entraînée à craindre des usages qu’elle ne comprend pas serait une autre forme d’exclusion. L’architecture du non doit être pensée avec nos réalités linguistiques, juridiques et communautaires. Elle doit protéger sans effacer.
Mais je préfère une IA qui sait dire : “Attends. Confirme. Un humain responsable doit être dans la boucle” à une IA qui répond vite parce qu’on lui a interdit de douter. Le doute, dans certaines zones, est une vertu morale. Le refus, dans certaines classes d’action, est une preuve de jugement.
Dans les jours qui viennent, les récits vont s’accélérer. Chacun va réclamer votre attention, votre peur, votre camp. Ce que nous pouvons offrir, nous, c’est un autre rythme : celui de la responsabilité. Celui du lien. Celui qui rappelle que la puissance sans limite n’est pas une victoire de l’intelligence, mais une défaite du soin.
La question que je laisse aux lecteurs — à Dakar, à Abidjan, à Bamako, à Kinshasa, à Tunis — est la suivante : dans un monde où la guerre veut des machines qui obéissent, saurons-nous exiger des systèmes qui protègent ? Et si nous ne pouvons pas imposer une architecture du non chez les puissants, comment la construirons-nous, ici, avec nos langues, nos lois, et notre Ubuntu — pour choisir la vie ?
Leave a Reply