L’économie circulaire de l’IA Gen et le mythe rentable de l’AGI

Une économie sous perfusion
Depuis un an, les géants de la tech et de l’IA générative s’injectent mutuellement des milliards pour soutenir une croissance qui, sans eux, s’essoufflerait.
Microsoft finance OpenAI, qui achète les GPU de Nvidia, pendant qu’Amazon soutient Anthropic, qui consomme massivement du AWS.
Une boucle où l’argent tourne en circuit fermé entre fournisseurs, partenaires et investisseurs.
Selon Bloomberg, ces “deals circulaires” totalisent près de 1 000 milliards de dollars de valeur cumulée, issus d’investissements croisés et de contrats bilatéraux.
“The AI economy has become self-referential: Nvidia funds OpenAI, OpenAI buys Nvidia’s chips, and investors cheer the illusion of exponential growth.”
Bloomberg, “A $1 Trillion AI Boom Fueled by Circular Deals”, 7 octobre 2025
🔗 Bloomberg Technology – Article complet
Concrètement
-
Microsoft ↔ OpenAI
-
Microsoft a investi plus de 13 milliards de dollars dans OpenAI depuis 2023.
-
En échange, OpenAI s’engage à utiliser exclusivement l’infrastructure Azure pour entraîner et déployer ses modèles génératifs.
-
Chaque requête ChatGPT renforce donc la division cloud de Microsoft, un modèle où l’investissement revient directement dans les caisses de l’investisseur.
-
-
Nvidia ↔ OpenAI / AMD / Oracle
-
Nvidia a investi jusqu’à 100 milliards $ dans OpenAI (Bloomberg, 2025).
-
OpenAI utilise ensuite ces fonds pour acheter des millions de GPU H100, propulsant la valorisation de Nvidia.
-
En parallèle, AMD et Oracle ont signé des accords similaires : Oracle fournit des serveurs GPU et reçoit en échange des warrants (bons de souscription d’actions) dans les entreprises qu’elle équipe.
-
-
Amazon ↔ Anthropic ↔ AWS
-
Amazon a investi 4 milliards $ dans Anthropic, un concurrent direct d’OpenAI.
-
En retour, Anthropic fait tourner tous ses modèles Claude sur AWS, en utilisant les puces Trainium et Inferentia conçues par Amazon.
-
Amazon finance donc un client qui lui reverse ses revenus sous forme de crédits cloud.
-
Selon Goldman Sachs et Wedbush, cette mécanique crée une valorisation artificielle :
“The same dollars circulate between partners, boosting everyone’s valuation without generating new productivity.”
(Bloomberg, 7 oct. 2025)
Les analystes y voient les signes d’une bulle spéculative comparable à celle des dot-com de la fin des années 1990, où chaque entreprise finançait la suivante en espérant une croissance sans fin.
Une bulle qui grossit
Les chiffres confirment la surchauffe :
-
73,1 milliards $ levés par les startups d’IA générative au premier trimestre 2025.
-
46 % du financement mondial en capital-risque concentré sur le secteur.
(Reuters, “AI startup valuations raise bubble fears”, 3 octobre 2025)
🔗 Lire sur Reuters
Et pendant que l’argent afflue, les revenus réels stagnent.
OpenAI, par exemple, a généré 4,3 milliards $ de revenus au premier semestre 2025, tout en perdant 2,5 milliards $ sur la même période.
(AInvest, “OpenAI’s Unprofitable Business Model Raises Concerns”, septembre 2025)
🔗 Lire sur AInvest
Même avec des abonnements record, les coûts d’infrastructure explosent.
Les entreprises de l’IA générative doivent investir dans toujours plus de GPU, de serveurs et d’énergie pour suivre la demande.
Une étude arXiv (janvier 2025) estime que la consommation énergétique de l’IA pourrait être multipliée par 24 d’ici 2030 si la trajectoire actuelle se poursuit.
(arXiv:2501.14334 – “Exploring the sustainable scaling of AI dilemma”)
🔗 Lire sur arXiv
Résultat : une économie sous perfusion, où l’argent tourne entre partenaires sans création de valeur nouvelle.
🧠 Qu’est-ce que l’AGI et pourquoi nous en sommes encore loin
L’AGI, pour Artificial General Intelligence, désigne une intelligence artificielle capable de raisonner, d’apprendre et d’agir dans une grande variété de contextes, au niveau ou au-delà des capacités humaines.
Contrairement aux systèmes actuels de l’IA générative, spécialisés dans des tâches précises (rédiger un texte, composer une image, générer du code ou du son), une véritable AGI pourrait généraliser ses connaissances, comprendre le monde, planifier et transférer ce qu’elle apprend d’un domaine à un autre.
C’est cette promesse d’un esprit artificiel universel qui alimente les investissements massifs dans l’IA générative.
Mais sur le plan scientifique, nous en sommes encore très loin.
Les chercheurs s’accordent à dire que les approches actuelles, fondées sur le simple scaling des modèles de langage, ne suffisent pas à atteindre une intelligence véritablement générale.
Les limites de la recherche actuelle
1. L’augmentation de la taille des modèles ne suffit pas.
Une enquête menée en 2025 auprès de 450 chercheurs membres de l’AAAI indique que 76 % d’entre eux jugent improbable que les architectures actuelles de l’IA générative conduisent à une AGI, même avec davantage de puissance de calcul et de données.
(TechPolicy Press, “Most researchers do not believe AGI is imminent”, avril 2025.)
2. Les modèles échouent dès que les tâches deviennent réellement complexes.
Une étude interne d’Apple, publiée en juin 2025 et relayée par The Guardian, montre que les grands modèles de raisonnement perdent toute précision dès que la complexité logique augmente.
“Même les meilleurs modèles s’effondrent en cohérence face à des problèmes qu’un étudiant de premier cycle résoudrait.”
(The Guardian, 9 juin 2025, “Advanced AI suffers complete accuracy collapse in face of complex problems.”)
3. La sécurité et la généralité sont en tension.
Une prépublication signée R. Panigrahy et V. Sharan démontre qu’un système parfaitement sûr et aligné ne peut pas, mathématiquement, couvrir toutes les exigences d’une intelligence générale.
(arXiv, septembre 2025, “Limitations on Safe, Trusted, Artificial General Intelligence.”)
4. La course à l’AGI pourrait accroître les risques.
Une autre étude, “Against Racing to AGI” (arXiv, juillet 2025), alerte sur les dangers d’une compétition sans coopération internationale.
Les auteurs expliquent que la quête de l’AGI pourrait détourner les ressources des recherches utiles sur la sûreté, l’éthique et la gouvernance des systèmes existants.
5. Le biais de focalisation sur l’AGI freine les progrès utiles.
Le papier “Stop treating ‘AGI’ as the north-star goal of AI research” (février 2025) souligne que cette obsession conduit à négliger les recherches fondamentales sur la robustesse, la causalité et la compréhension contextuelle.
Les voix des chercheurs
Plusieurs figures majeures du domaine ont exprimé leur scepticisme.
Andrew Ng, cofondateur de Google Brain, a déclaré que “l’AGI est un horizon trop abstrait pour guider utilement la recherche ou l’investissement” et encourage à se concentrer sur la création d’outils concrets à impact immédiat.
(Business Insider, juillet 2025.)
Lors de la conférence AAAI 2025, les chercheurs ont mis en avant les véritables défis : la conception d’architectures neuromorphiques, la compréhension des biais cognitifs et la formalisation d’une théorie de l’intelligence artificielle.
Autrement dit, la question n’est plus quand l’AGI arrivera, mais si les bases théoriques existent réellement pour la concevoir.
Une perspective scientifique plus lucide
Pour la majorité du monde académique, l’AGI n’est pas une étape naturelle de la recherche actuelle.
C’est une hypothèse spéculative, utilisée avant tout pour mobiliser des capitaux et justifier des paris économiques.
Dans les faits, aucune preuve empirique n’indique qu’une intelligence générale puisse émerger spontanément des modèles neuronaux existants.
Le débat scientifique reste ouvert, mais le consensus se renforce : il faudra plus qu’un milliard de paramètres et des GPU supplémentaires pour créer une intelligence capable de comprendre et d’interpréter le monde.
Peut-être même faudra-t-il repenser la notion même de cognition artificielle.
Et si elle existait vraiment un jour?
Imaginons que demain, l’AGI s’incarne dans nos objets du quotidien : une IA intégrée à nos lunettes, capable de tout faire à notre place, écrire, coder, négocier, enseigner, soigner.
Que deviendrait alors le travail humain ?
Si l’IA produit pour nous, à quoi bon consommer ?
Et surtout, comment générer un retour sur investissement pour ces milliards injectés ?
L’AGI pose un paradoxe fondamental selon moi :
-
Si elle réussit, elle rend le marché inutile.
-
Si elle échoue, elle justifie la bulle.
Peut-être que c’est mieux ainsi
D’un point de vue philosophique (bien que je n’ai jamais été un grand et bon philosophe), il vaut mieux que l’AGI reste un mythe, un horizon, pas une destination.
Parce que l’humain ne se définit pas seulement par ce qu’il produit, mais par ce qu’il comprend, ressent et partage.
Un futur “à la Wall-E”, où tout serait automatisé et où l’on ne ferait plus rien, ne serait pas un progrès. Ce serait une société qui aurait délégué le sens avant même le travail.
Et maintenant ?
Cette économie circulaire, alimentée par le mythe de l’AGI, soutient l’innovation, mais sur un modèle fermement spéculatif.
Les infrastructures deviennent plus puissantes, les promesses plus grandes, mais les rendements réels restent faibles.
La question n’est plus jusqu’où ira l’IA générative ?
mais jusqu’où pourrons-nous continuer à l’entretenir ?
Partager cet article
Pierre Lefebvre
Fondateur de Pilily, expert en intelligence artificielle et transformation digitale des entreprises.


