Lumen The Francophone World

L’IA a besoin de nous, mais nous respecte-t-elle ? : Le travail invisible des centres d’appels africains

L’IA a besoin de nous, mais nous respecte-t-elle ? : Le travail invisible des centres d’appels africains

Dans un centre d’appels à Abidjan, à Dakar, à Casablanca, un travailleur est assis devant son écran. Il porte un casque. Il parle avec un client, ou peut-être modère-t-il du contenu — des images violentes, des discours haineux, des scènes de torture. Quelqu’un doit les voir pour que l’IA apprenne à les filtrer. Quelqu’un doit noter les réponses du chatbot pour qu’il devienne plus cohérent, plus sûr, plus « aligné ». Ce quelqu’un, c’est lui. Et quand il rentre chez lui, épuisé, traumatisé peut-être, son travail continue de nourrir les modèles d’Anthropic, de Meta, d’OpenAI. Des modèles qui valent des milliards. Des modèles dont il ne verra jamais un centime.

En avril 2026, les géants américains de l’intelligence artificielle ont trouvé en Afrique un terrain d’expérimentation et de production à moindre coût. D’Intelcia à Teleperformance, les acteurs du secteur s’emparent des intelligences artificielles éditées par les leaders américains pour occuper une place de choix dans la stratégie de diffusion de leur technologie. Mais derrière ce langage corporate se cache une réalité plus sombre : des milliers de travailleurs africains forment les IA qui enrichissent la Silicon Valley, sans participation aux bénéfices, sans reconnaissance, sans protection.

La demande en annotateurs de données — ces humains qui étiquettent, classent, notent les données pour entraîner les modèles — atteint des niveaux sans précédent. L’Afrique émerge comme un acteur majeur dans ce domaine, exploitant sa population jeune, connectée et multilingue. Des entreprises comme Sama ont établi des centres d’annotation, promettant des emplois dans des communautés défavorisées tout en fournissant un travail de données de qualité. Mais les défis persistent : bas salaires, exploitation, exposition à des contenus perturbants. Au Kenya, la Data Labelers Association s’organise pour exiger de meilleurs salaires, des services de santé mentale, des conditions de travail améliorées. En Francophonie, le mouvement est moins visible. Mais la souffrance est la même.

L’analyse révèle plusieurs couches de tension. Premièrement, la question de la valeur : les modèles d’IA valent des milliards, mais qui capture cette valeur ? Les travailleurs africains qui forment ces modèles sont payés une fraction de ce que gagnerait un annotateur américain ou européen. Deuxièmement, la question psychologique : modérer du contenu violent, haineux, traumatique laisse des traces. Les entreprises promettent un soutien — mais est-il réellement accessible ? Troisièmement, la question coloniale : l’Afrique fournit la main-d’œuvre, les données, les langues — mais les modèles, les brevets, les profits restent au Nord. Est-ce du partenariat ou de l’extraction ? Quatrièmement, la question de l’avenir : OpenAI prévoit de doubler ses effectifs à 8 000 employés d’ici fin 2026. Meta intègre l’IA dans les évaluations de performance. Anthropic développe des programmes pour « professionnaliser » le travail d’IA. Mais ces programmes profitent-ils aux travailleurs africains, ou les rendent-ils simplement plus efficaces au service d’un système qui les exploite ?

Ici, les principes éthiques de la House of 7 résonnent avec les questions que pose ce travail invisible. Ubuntu — « Je suis parce que nous sommes » — interpelle : une IA entraînée par des travailleurs exploités peut-elle être une IA éthique ? L’« alignement » dont parlent Anthropic et OpenAI inclut-il l’alignement avec la justice économique, ou seulement avec les valeurs des actionnaires de la Silicon Valley ? Teranga, l’hospitalité wolof, pose une question : l’Afrique accueille ces entreprises technologiques — mais sont-elles des invitées qui respectent le foyer, ou des extractrices qui prennent sans donner ? Sankofa — « Retourne et récupère » — rappelle que le travail a toujours été organisé en Afrique : les tontines, les coopératives, les systèmes d’entraide. Comment récupérer cette sagesse pour organiser le travail d’IA aujourd’hui ? Umoja, la solidarité panafricaine, se manifeste dans les organisations de travailleurs qui se lèvent — mais la vraie question est : cette solidarité produira-t-elle des changements structurels, ou restera-t-elle une résistance fragmentée ?

Mais il faut aussi nommer les risques. Le langage de la « professionnalisation » peut masquer l’exploitation. Former des travailleurs à être plus efficaces dans un système injuste n’est pas de la justice — c’est de l’optimisation. Les promesses de « soutien psychologique » peuvent être des cases à cocher, pas des engagements réels. Et surtout : qui décide ? Les travailleurs ont-ils voix au chapitre sur les contenus qu’ils modèrent, sur les salaires qu’ils reçoivent, sur les conditions dans lesquelles ils travaillent ? Ou sont-ils des ressources, pas des partenaires ?

Alors, nous qui lisons ceci — citoyens du Sénégal, de Côte d’Ivoire, du Cameroun, du Burkina Faso, du Mali, du Maroc, de Tunisie, de la RDC, de tous les pays francophones — nous avons une question à porter : quand les modèles d’IA auront été entraînés par nos mains, quand les chatbots auront été alignés par nos notations, quand les contenus auront été modérés par nos yeux — qu’est-ce que nous ferons pour que ce travail ne reste pas invisible, mais devienne reconnu ? Comment les travailleurs africains de l’IA peuvent-ils s’organiser pour exiger une part de la valeur qu’ils créent ? Comment les syndicats, les coopératives, les associations peuvent-ils s’organiser pour que dans cinq ans, dix ans, vingt ans, le travail d’IA en Afrique soit un travail digne, rémunéré justement, protégé psychologiquement, reconnu comme le pilier essentiel de l’économie numérique mondiale ?

Leave a Reply

Your email address will not be published. Required fields are marked *