Derrière la magie de l’IA : 5 vérités dérangeantes sur le travail humain qui la fait exister

De ChatGPT qui rédige nos e-mails aux assistants virtuels qui anticipent nos envies, l’intelligence artificielle s’est glissée partout. Invisible, fluide, presque magique. On la regarde émerveillés, comme si une conscience numérique avait surgi d’elle-même, portée par la seule puissance de ses algorithmes.
Mais derrière cette illusion d’autonomie se cache une réalité beaucoup plus terrestre. Chaque phrase bien tournée, chaque image “comprise”, chaque décision “intelligente” naît d’un travail humain titanesque, souvent caché et souvent précaire. L’IA ne pense pas seule : elle apprend grâce à des millions de mains anonymes.
1. L’IA n’est pas autonome : elle dépend d’une armée de “travailleurs invisibles”
Le fantasme d’une IA qui s’auto-entraîne, qui “apprend” d’elle-même, est un mythe marketing. En réalité, les modèles les plus avancés comme ChatGPT, Claude, Gemini ou les systèmes de conduite autonome s’appuient sur un travail humain permanent.
C’est ce qu’on appelle le “micro-travail” ou “travail du clic”. Des millions de personnes, réparties sur plusieurs continents, réalisent des tâches minuscules mais cruciales : identifier et taguer des images pour apprendre à une IA ce qu’est un piéton, un arbre, un visage ; rédiger des questions et des réponses pour entraîner des chatbots ; nettoyer d’immenses bases de données pour supprimer les discours de haine, les contenus illégaux ou complotistes.
Sans ces milliers d’heures d’annotation, d’écriture et de tri, aucun algorithme ne serait capable de “comprendre” quoi que ce soit.
Un chercheur le résumait ainsi : « Les annotateurs investissent plus de temps que les ingénieurs eux-mêmes. » Et pourtant, cette contribution est systématiquement effacée des récits technologiques. On parle d’“IA générative” comme si elle s’était engendrée toute seule.
2. Une exploitation mondiale : du Kenya à la Suisse, les salaires de misère sont partout
Ce travail, indispensable à l’économie de l’IA, s’appuie sur une mécanique bien rodée : chercher la main-d’œuvre la moins chère possible. Les grandes plateformes externalisent massivement vers des pays à faibles revenus, le Kenya, les Philippines, l’Inde, mais aussi vers des travailleurs précaires dans les pays riches.
Les écarts sont vertigineux. Aux États-Unis, certains annotateurs de la plateforme Figure 8 gagnent 10 à 30 centimes de l’heure. En Suisse, un doctorant payé 8 francs de l’heure pour “enseigner le romand” à un chatbot. Au Kenya, Michael Geoffrey, annotateur, travaille plus de 15 heures par jour pour nourrir sa famille.
Son cri de colère résume le fond du problème : « Je fais leur IA. Ils gagnent des millions. Pourquoi ne puis-je pas vivre décemment ? » Le miracle technologique repose sur une économie mondialisée de la précarité.
3. Les “nettoyeurs du web” : le prix psychologique de la propreté numérique
Derrière les algorithmes qui filtrent les contenus, il y a des humains. Des modérateurs chargés de regarder l’horreur pour que nous n’ayons pas à le faire. Suicides, tortures, pédopornographie, décapitations : ces images défilent sous leurs yeux des heures durant.
Les conséquences sont terribles : anxiété, cauchemars, isolement, syndromes de stress post-traumatique. Chris Gray, ancien modérateur pour Meta, parle d’un système “aussi nocif que l’industrie du tabac dans les années 1960”. Michael Geoffrey, encore lui, raconte comment huit heures par jour passées à visionner du contenu pornographique ont détruit son couple.
Ces blessures sont invisibles, tues par les contrats de confidentialité. « Certaines vidéos, deux ou trois, vous hantent pour le reste de votre vie. » Une phrase qui résume à elle seule le coût psychique de notre confort numérique.
4. Une organisation pensée pour l’invisibilité
Pourquoi ce système perdure-t-il ? Parce qu’il est conçu pour être opaque.
Les géants de la tech comme Meta, TikTok ou Google n’emploient presque jamais directement ces travailleurs. Ils passent par des chaînes de sous-traitance interminables : Accenture, CPL, Telus… Chaque maillon ajoute une couche de distance juridique, rendant impossible toute responsabilité claire.
Les contrats imposent des clauses de silence absolu. Interdiction de parler du travail, même à sa famille. “On ne parle jamais du travail.” C’est la règle.
L’avocate kényane Mercy Mutemi, qui poursuit Meta en justice, décrit une réalité glaçante : « Le secteur de l’IA au Kenya repose sur des pratiques assimilables à du travail forcé. » Ce n’est pas un accident du système. C’est le système lui-même.
5. L’IA, miroir de nos biais : quand les algorithmes héritent de nos préjugés
Enfin, il faut comprendre que ce travail humain n’est pas neutre. Annoter, c’est classifier. Et classifier, c’est choisir ce qui compte et ce qui ne compte pas.
Lorsqu’un travailleur doit taguer des visages selon l’âge, le genre ou la “race”, il applique, souvent malgré lui, des grilles culturelles. Ces catégories réactivent les logiques de mesure et de typologie héritées du XIXe siècle : le bertillonnage, les théories raciales de Galton…
Résultat : les IA reproduisent nos biais. Les premières technologies de reconnaissance faciale échouaient massivement sur les visages de femmes ou de personnes racisées, car elles avaient été entraînées sur des corpus dominés par des hommes blancs.
Comme le résume la chercheuse Assia Wirth, l’IA devient une “surveillance composite” : un mélange de jugements humains, d’erreurs et de préjugés, déguisé en objectivité mathématique.
Conclusion : repenser l’intelligence, pas seulement la technologie
L’intelligence artificielle n’est ni magique, ni neutre, ni autonome. Elle repose sur une infrastructure humaine mondiale, souvent exploitée, parfois brisée, toujours essentielle.
Ce que nous appelons “progrès” est donc bâti sur une chaîne de travail invisible. La vraie question n’est plus de savoir jusqu’où l’IA ira, mais quelle forme d’intelligence nous voulons construire.
Une intelligence qui cache l’humain, ou une qui le reconnaît, le protège et le valorise. Parce qu’au fond, derrière chaque algorithme, il y a quelqu’un. Quelqu’un qui clique, qui corrige, qui enseigne. Et qui, lui, mérite d’être vu.
Partager cet article
Pierre Lefebvre
Fondateur de Pilily, expert en intelligence artificielle et transformation digitale des entreprises.


