06/10/2025 lesakerfrancophone.fr  7min #292628

La bulle de l'Ia est-elle prête à éclater ?

Par  Moon of Alabama - Le 3 octobre 2025

Sur Naked Capitalism, Yves Smith a publié un article de Servaas Storm :

 La bulle de l'IA et l'économie américaine : Combien de temps vont durer les « hallucinations » ?

Yves écrit :

Il s'agit d'un article dévastateur et incontournable de Servaas Storm sur la façon dont l'IA ne parvient pas à respecter les promesses de performances essentielles et répétées, et ne le pourra jamais, indépendamment de l'argent et de la puissance de calcul qu'on lui fournit. Pourtant, l'IA, que Storm appelle "Information artificielle«, recueille toujours des évaluations dignes de la frénésie dot-com, même si les erreurs ne font qu'augmenter.

L'introduction de Storm :

Cet article soutient que (i) nous avons atteint le "pic GenAI" en termes de modèles actuels de grands langages (LLM) ; la mise à l'échelle (construire plus de centres de données et utiliser plus de puces) ne nous mènera pas plus loin vers l'objectif de "l'Intelligence Générale Artificielle" (AGI) ; les rendements diminuent rapidement ; (ii) l'industrie de l'IA-LLM et l'économie américaine dans son ensemble connaissent une bulle spéculative, qui est sur le point d'éclater.

Il se trouve que je suis d'accord avec les arguments et la conclusion.

Les Grands Modèles de langage actuels font partie du domaine de l'Intelligence Artificielle Générative. GenAI est une branche de l'arbre de recherche sur l'Intelligence artificielle. Les LLM sont basés sur des « réseaux de neurones«. Ils stockent des milliards de minuscules informations et de valeurs de probabilité sur la façon dont ces éléments sont liés les uns aux autres. Cette méthode est censée simuler en partie la pensée humaine.

Mais la pensée humaine fait beaucoup plus que stocker des bits d'information et des valeurs statistiques sur la façon dont ils sont liés. Elle construit constamment des modèles mentaux du monde dans lequel nous vivons. Cela conduit à la compréhension des concepts de niveau supérieur et des lois de la nature. Le cerveau peut simuler des événements dans ces mondes modèles mentaux. Nous pouvons ainsi reconnaître ce qui se passe autour de nous et anticiper ce qui pourrait arriver ensuite.

L'IA générative et les LLM ne peuvent pas faire cela. Ils n'ont pas, ou ne créent pas, de modèles mentaux. Ce sont de simples systèmes probabilistes. Ce sont des algorithmes d'apprentissage automatique qui peuvent reconnaître des modèles avec un certain degré de probabilité de réussite. Il est inhérent à de tels modèles de commettre des erreurs. Espérer, comme le disent les promoteurs de LLM, qu'ils passeront à une certaine Intelligence Générale Artificielle (AGI) sachant tout est futile. Faire de plus gros LLM ne fera qu'augmenter la quantité de production défectueuse qu'ils créeront.

(Hier, j'ai regardé une vidéo de Jon , un boulanger à Mesa, dans laquelle il mentionne comment il avait demandé à un LLM de faire la moitié d'une recette qu'il allait faire. Il l'a fait correctement pour tous les ingrédients sauf un. Le modèle avait divisé la quantité d'eau nécessaire par dix. Le test de cuisson de Jon a donc échoué.)

Mais le battage médiatique autour des LLM est réel et d'énormes sommes d'argent affluent dans les entreprises qui construisent de tels modèles. Ceci alors qu'aucun d'entre eux n'a trouvé le moyen de générer des revenus suffisants pour soutenir de tels investissements. La formation et l'exploitation de ces modèles à grande échelle coûtent très cher. Il y a tout simplement trop peu de cas d'utilisation réels qui justifieraient de payer un tel coût. Il peut être  amusant de créer et de jouer ( archivé) avec des vidéos AI-slop sur les réseaux sociaux. Mais qui est prêt à payer pour cela ? Surtout quand l'utilisation des médias sociaux  est finalement en train de sombrer ( archivé).

(Pour une discussion plus détaillée sur les LLM, leurs coûts, le manque de cas d'utilisation et sur les structures incestueuses des investissements qui y affluent, voir le long article d'Edward Zitrons ici :  Le cas contre l'IA générative.)

Il y a encore des centaines de milliards de dollars qui  affluent grace au battage médiatique déjà surévalué du LLM :

L'évaluation post-monétaire globale des startups d'IA (l'évaluation après le dernier cycle de financement) a grimpé à 2.300 milliards de dollars, contre 1.690 milliards en 2024 et contre 469 milliards de dollars en 2020, ce qui à l'époque avait déjà établi un énorme record, selon PitchBook.

...

OpenAI a atteint une valorisation de 500 milliards de dollars début septembre, lorsqu'il a proposé aux anciens et actuels employés éligibles de vendre 10 milliards de dollars de leurs actions dans le cadre d'une vente secondaire d'actions à d'autres investisseurs, dirigée par SoftBank, selon CNBC. En avril, OpenAI avait atteint une valorisation post-monétaire époustouflante de 300 milliards de dollars lors d'un tour de table lorsqu'elle a levé 40 milliards de dollars, principalement auprès de SoftBank. Le ciel n'est pas la limite.

Le xAI d'Elon Musk est censé viser une valorisation de 200 milliards de dollars avec un cycle de financement de 10 milliards de dollars, selon des sources citées par CNBC, ce que Musk a déclaré sur X être des « fausses nouvelles«. xAI ne lève pas de capital pour le moment. Pas maintenant. Ni n'importe quand.

Anthropic a atteint une valorisation post-monétaire de 183 milliards de dollars, après avoir levé 13 milliards de dollars lors d'une ronde de financement de série F début septembre, selon Anthropic.

Et ainsi de suite. Ces évaluations des startups d'IA sont ahurissantes. Comment ces investisseurs en phase finale vont-ils sortir intacts de leurs investissements ?

Ils ne pourront pas.

Des dizaines de centres de données LLM spécialisés sont en cours de construction pour héberger une énorme quantité de puces coûteuses qui perdent leur valeur plus rapidement qu'une voiture moderne nouvellement achetée. Le tout sans véritable cas probants d'utilisation des LLM et sans aucun espoir de revenus suffisants pour soutenir l'entreprise.

C'est mauvais pour l'économie américaine.

L'argent qui a coulé grâce au battage médiatique sur les LLM a disparu. Il ne peut pas être investi ailleurs, même si cela aurait beaucoup plus de sens pour la société dans son ensemble - par exemple dans la relance de l'industrie manufacturière ou dans des programmes d'apprentissage.  Comme pendant la bulle dot.com ( archivé) à la fin des années 1990, l'économie réelle a été évincée par une économie virtuelle. Les taxes douanières de Trump ne conduiront pas à la relance des industries américaines s'il n'y a plus d'argent à investir.

Les centres de données en construction nécessiteront  d'énormes quantités d'électricité supplémentaire qui ne pourront pas être générées dans un avenir prévisible :

Les implications sont brutales et frappantes. Un approvisionnement en électricité réduit et coûteux pour l'IA et la production nuira à la compétitivité économique américaine, avec des répercussions sur le pouvoir d'achat des ménages. Ces impacts deviennent déjà évidents, les prix de gros aux États-Unis ayant augmenté de 267% au cours des 5 dernières années, en raison de la montée en flèche de la demande d'électricité du secteur de l'IA (Bloomberg).

Tous les récents gains boursiers américains ont été alimentés par le battage médiatique autour du LLM. Lorsque la bulle éclatera, le marché boursier coulera et la plupart des personnes qui ont, directement ou indirectement, investi à cause du battage médiatique autour du LLM perdront beaucoup de leur argent.

Malheureusement, il n'y a aucun moyen de prévoir quand cela se produira ou dans quelle mesure les dégâts se propageront.

Mais nous pouvons déjà constater des dommages à l'économie réelle. Les investissements dans les usines de produits réels sont évincés et les prix de l'électricité doublent et triplent, frappant les fabricants ainsi que les consommateurs privés.

Pourquoi n'avons-nous pas de moyens de prévenir ces bulles ? Ou pourquoi ne pouvons-nous pas les dégonfler avant qu'elles ne deviennent des menaces pour nos sociétés ?

Moon of Alabama

Traduit par Wayan, relu par Hervé, pour le Saker Francophone.

 lesakerfrancophone.fr