par Bruno Bertez
Les deux petites betes qui montent qui montent :
-le doute sur la profitabilité finale d'AI
-le doute sur la possibilité de contrôler les taux à long terme
Concentrez vous là dessus, le reste est sans importance- bruno bertez (@BrunoBertez) August 21, 2025
La plupart des gens qui ne sont pas profondément impliqués dans la frénésie de l'intelligence artificielle ne l'ont pas remarqué, mais la perception de la marche inexorable de l'IA vers une intelligence supérieure à celle des humains, voire vers une menace pour l'humanité, s'est arrêtée net le 7 août.
C'est le jour où la société d'IA la plus suivie, OpenAI, a lancé GPT-5, un produit avancé dont l'entreprise avait longtemps promis qu'il ferait honte à ses concurrents et lancerait une nouvelle révolution dans cette technologie prétendument révolutionnaire.
En fin de compte, GPT-5 fut un échec. Il s'avéra moins convivial et, à bien des égards, moins performant que ses prédécesseurs dans l'arsenal d'OpenAI. Il commettait les mêmes erreurs ridicules dans les réponses aux questions des utilisateurs, n'était pas meilleur en mathématiques (voire pire), et n'offrait pas du tout l'avancée vantée par OpenAI et son directeur général, Sam Altman.
«Les entreprises d'IA stimulent réellement l'économie américaine en ce moment, et cela ressemble beaucoup à une bulle». ~ Alex Hanna, co-auteur de «The AI Con»
«On pensait que cette croissance serait exponentielle», explique Alex Hanna, critique technologique et co-auteur avec Emily Bender de l'Université de Washington du nouvel ouvrage indispensable « The AI Con : How to Fight Big Tech's Hype and Create the Future We Want».
Au lieu de cela, Hanna affirme : «On se heurte à un mur».
Les conséquences vont au-delà de la façon dont tant de chefs d'entreprise et d'Américains ordinaires ont été amenés à espérer, voire à craindre, l'arrivée de l'IA dans nos vies. Des centaines de milliards de dollars ont été investis par des investisseurs en capital-risque et de grandes entreprises comme Google, Amazon et Microsoft dans OpenAI et ses nombreux laboratoires d'IA, même si aucun de ces laboratoires n'a généré de bénéfices.
Les entreprises publiques se sont empressées d'annoncer des investissements dans l'IA ou de revendiquer des capacités d'IA pour leurs produits dans l'espoir de faire exploser le cours de leurs actions, tout comme une génération précédente d'entreprises s'est présentée comme des «dot-coms» dans les années 1990 pour paraître plus prestigieuses aux yeux des investisseurs.
Nvidia, le fabricant d'une puce haute puissance alimentant la recherche en IA, joue presque le même rôle de leader boursier qu'Intel Corp., un autre fabricant de puces, dans les années 1990, contribuant à soutenir le marché haussier des actions.
Si la promesse de l'IA s'avère être un mirage aussi grand que l'ont été les entreprises dot-com, les investisseurs en actions pourraient être confrontés à un douloureux bilan.
Le déploiement peu réjouissant de GPT-5 pourrait rapprocher le jour du jugement. «Les entreprises d'IA soutiennent véritablement l'économie américaine en ce moment, et la situation semble bien s'améliorer», m'a confié Hanna.
Le lancement a été si décevant qu'il a mis en lumière à quel point l'ensemble du secteur de l'IA dépendait du battage médiatique.
Voici ce qu'Altman a déclaré juste avant le dévoilement de GPT-5, le comparant à son prédécesseur immédiat, GPT-4o : «GPT-4o, c'était peut-être comme parler à un étudiant», a-t-il déclaré. «Avec GPT-5, c'est comme parler à un expert - un véritable expert de niveau doctorat dans n'importe quel domaine, quel que soit votre besoin, à la demande... quels que soient vos objectifs».
Eh bien, pas vraiment. Lorsqu'un utilisateur lui a demandé de produire une carte des États-Unis avec tous les États étiquetés, GPT-5 a extrudé un monde imaginaire, incluant des États comme Tonnessee, Mississipi et West Wigina. Un autre utilisateur a demandé au modèle une liste des 12 premiers présidents, avec leurs noms et leurs photos. Il n'en a obtenu que neuf, dont les présidents Gearge Washington, John Quincy Adama et Thomason Jefferson.
Les utilisateurs expérimentés des modèles précédents de la nouvelle version ont été consternés, notamment par la décision d'OpenAI de fermer l'accès à ses anciennes versions et de forcer les utilisateurs à se fier à la nouvelle. « GPT5 est horrible», a écrit un utilisateur sur Reddit. «Des réponses courtes et insuffisantes, un langage d'IA plus agaçant, moins de «personnalité»... et nous n'avons pas la possibilité d'utiliser d'autres modèles». (OpenAI a rapidement cédé, rouvrant l'accès aux anciennes versions.)
Les médias technologiques n'ont pas non plus été impressionnés. « Un peu raté», a jugé le site web Futurism, tandis qu'Ars Technica a qualifié le déploiement de « gros gâchis». J'ai demandé à OpenAI de commenter la réaction négative du public à GPT-5, mais je n'ai pas eu de réponse.
Tout cela ne signifie pas que la machine à buzz qui sous-tend la plupart des attentes du public à l'égard de l'IA ait marqué une pause. Au contraire, elle reste en pleine effervescence.
Une projection du développement de l'IA au cours des prochaines années, publiée par un projet appelé AI Futures Project sous le titre « AI 2027», indique : «Nous prévoyons que l'impact de l'IA surhumaine au cours de la prochaine décennie sera énorme, dépassant celui de la révolution industrielle».
Le reste du document, qui prévoit une trajectoire jusqu'à fin 2027, lorsqu'un agent d'IA «comprendra enfin sa propre cognition», est tellement absurde que je me suis demandé s'il ne s'agissait pas d'une parodie du battage médiatique excessif autour de l'IA. J'ai demandé à ses auteurs si c'était bien le cas, mais je n'ai pas reçu de réponse.
L'un des problèmes mis en évidence par le déploiement décevant de GPT-5 est qu'il a fait exploser l'un des principes les plus chers au monde de l'IA, à savoir que la «mise à l'échelle» - doter la technologie de plus de puissance de calcul et de plus de données - rapprocherait toujours plus le Graal de l'intelligence artificielle générale, ou AGI, de la réalité.
C'est le principe qui sous-tend les investissements colossaux du secteur de l'IA dans les centres de données et les puces hautes performances. La demande croissante de données et de capacités de traitement de données nécessitera environ 3000 milliards de dollars de capitaux d'ici 2028, selon Morgan Stanley. Cela dépasserait la capacité des marchés mondiaux du crédit et des produits dérivés. Mais si l'IA ne se développe pas, la majeure partie, voire la totalité, de cet argent sera gaspillée.
Comme le soulignent Bender et Hanna dans leur livre, les promoteurs de l'IA ont su captiver investisseurs et adeptes en s'appuyant sur une conception publique floue du terme «intelligence». Les robots IA semblent intelligents, car ils ont acquis la capacité de paraître cohérents dans leur langage. Mais c'est différent de la cognition.
Note BB : j'utilise régulièrement l'IA et je lui soumets mes articles pour analyse, commentaire et critique ; de temps en temps je demande des synthèses.Mon constat est que l'IA ne comprend rien à ce que j'écris même si elle est capable d'en faire des comptes rendus assez fidèle en apparence. Elle est capable de compiler ce que j'écris depuis des décennies et n'a toujours rien compris !
Le fond, la logique interne lui échappent et elle n'est capable que d'offrir une cohérence sémantique, par associations d'idées et proximité mais jamais par compréhension organique des liens entre les phénomènes que je décris ; c'est terrible car c'est faux tout en donnant l'impression que c'est juste !
L'IA ne comprend pas les articulations entre les propositions et le jeu dialectique des forces que je décris.
Cela me fait penser à SCIENCES PO dont j'ai suivi les cours il y a bien longtemps : on parle sur tout à tout moment, mais sans jamais comprendre et connaitre. Et c'est la même chose à l'ENA comme je l'ai constaté plus tard en fréquentant mes camarades qui avaient intégré l'ENA par la suite.
Il y a, selon moi et je parle d'expérience, une sorte de similitude entre la forme «d'intelligence» dont parait jouir l'IA et la forme «d'intelligence» de tous ces gens qui ont été formés ou programmés à SCIENCES PO ou l'ENA ; c'est du verbal du sémantique, de la combinatoire de mots et d'idées mais sans ancrage interne, organique et sans connaissance réelle, c'est superficiel, cela glisse. Ils ne savent pas ce qu'il y a derrière !
«Nous imaginons donc un esprit derrière les mots», explique Hanna, «et cela est associé à la conscience ou à l'intelligence. Mais la notion d'intelligence générale n'est pas vraiment bien définie».
En effet, dès les années 1960, ce phénomène a été remarqué par Joseph Weizenbaum, le concepteur du chatbot pionnier ELIZA, qui reproduisait les réponses d'un psychothérapeute de manière si convaincante que même les sujets de test qui savaient qu'ils conversaient avec une machine pensaient qu'il manifestait des émotions et de l'empathie.
«Ce que je n'avais pas réalisé», écrivait Weizenbaum en 1976, «c'est que des expositions extrêmement brèves à un programme informatique relativement simple pouvaient induire de puissants délires chez des personnes tout à fait normales». Weizenbaum avertissait que «l'anthropomorphisation imprudente de l'ordinateur» - c'est-à-dire le fait de le traiter comme une sorte de compagnon de réflexion - produisait une «vision simpliste de l'intelligence».
Cette tendance a été exploitée par les promoteurs actuels de l'IA. Ils qualifient d'«hallucinations» les erreurs et inventions fréquentes produites par les robots IA, suggérant ainsi que ces derniers ont des perceptions légèrement erronées. Or, les robots «n'ont pas de perceptions», écrivent Bender et Hanna, «et suggérer qu'ils en ont est une anthropomorphisation encore plus inutile».
Le grand public commence peut-être enfin à comprendre la promesse déçue de l'IA en général. Les prédictions selon lesquelles l'IA entraînera des pertes d'emplois massives dans les domaines créatifs et STEM (sciences, technologies, ingénierie et mathématiques) pourraient laisser penser que toute cette entreprise était, dès le départ, une arnaque de l'industrie technologique.
Les prédictions selon lesquelles l'IA entraînerait une augmentation soudaine de la productivité des travailleurs ne se sont pas réalisées ; dans de nombreux domaines, la productivité diminue, en partie parce que les travailleurs doivent être déployés pour vérifier à nouveau les résultats de l'IA, de peur que leurs erreurs ou leurs fabrications ne se retrouvent dans des applications critiques pour la mission - des notes juridiques intégrant des précédents inexistants, des prescriptions médicales aux ramifications potentiellement mortelles, etc.
Certains économistes rejettent avec véhémence les prévisions de gains économiques en général. L'économiste du MIT, Daron Acemoglu, par exemple, prévoyait l'année dernière que l'IA n'entraînerait qu'une augmentation d'environ 0,5% de la productivité américaine et une augmentation d'environ 1% du produit intérieur brut au cours des dix prochaines années, soit de simples fractions des projections du camp de l'IA.
L'intérêt du livre de Bender et Hanna, et la leçon de GPT-5, réside dans le fait qu'ils nous rappellent que l'«intelligence artificielle» n'est pas un terme scientifique ou technique. C'est un terme marketing. Et cela est vrai pour tous les discours sur la conquête future du monde par l'IA.
«Les affirmations sur la conscience et la sensibilité sont une tactique pour vous vendre l'IA», écrivent Bender et Hanna. Il en va de même pour les milliards, voire les milliers de milliards, que l'IA pourrait rapporter. Comme pour toute technologie, les profits iront à une petite minorité, tandis que le reste d'entre nous en paiera le prix... à moins que nous n'acquérions une perception beaucoup plus claire de ce qu'est l'IA, et surtout, de ce qu'elle n'est pas.
source : Bruno Bertez