Par Mike Whitney, le 14 février 2025
De plus en plus de gens commencent à réaliser que l'intelligence artificielle est une technologie à haut risque qui pourrait conduire à l'extermination de l'espèce. Cela peut a priori sembler excessif, mais si vous suivez de près les développements de l'IA, vous verrez que c'est une évaluation correcte. L'IA est une technologie potentiellement létale qui peut soit être utilisée pour le bien de l'humanité, soit ouvrir la voie à une mort et une destruction inimaginables. Voici un extrait d'un article de Scientific American :
"Une enquête menée en 2023 auprès d'experts en IA a révélé que 36 % d'entre eux craignent que le développement de l'IA n'entraîne une "catastrophe nucléaire". Près de 28 000 personnes ont signé une lettre ouverte écrite par le Future of Life Institute, dont Steve Wozniak, Elon Musk, les PDG de plusieurs entreprises d'IA et de nombreux autres technologues de premier plan, appelant à suspendre pendant six mois ou à interdire le développement de nouvelles IA avancées...Pourquoi sommes-nous tous si inquiets ? En bref : parce que le développement de l'IA va beaucoup trop vite". Here's Why AI May Be Extremely Dangerous-Whether It's Conscious or Not scientificamerican.com, Scientific American.
Elon Musk a utilisé sa tribune sur X pour amplifier ses préoccupations concernant l'IA et souligner la nécessité de faire preuve de prudence pour minimiser les risques. Malheureusement, les préoccupations de Musk sont restées lettre morte pour l'administration Trump, qui considère l'IA comme l'arme qu'il lui faut pour maintenir la position dominante de l'Amérique dans l'ordre mondial. Le conflit qui se prépare entre Trump et Musk sur cette question clé n'a pas encore éclaté au grand jour, mais nous pouvons être raisonnablement certains qu'il aura lieu dans un avenir proche. Si l'on considère, par exemple, le discours alarmant du vice-président J. D. Vance lors du Sommet de l'IA en France cette semaine, dans il a catégoriquement rejeté les appels à une réglementation prudente ou à une surveillance gouvernementale, qualifiant ceux qui prennent ces préoccupations au sérieux de "trop timorés et trop réfractaires au risque", alors inutile de se demander quelle sera l'approche de son administration. En fait, Vance a résumé la situation pour son auditoire en une phrase choquante : "L'avenir de l'IA ne se jouera pas en se lamentant sur la sécurité..."
En d'autres termes, prendre des mesures raisonnables pour éviter une extinction massive revient à "se lamenter" ?
Naturellement, cette vision des choses ne nous convient pas. Et comme on l'a déjà signalé, plus de 28 000 personnes ont déjà signé une lettre demandant un moratoire de six mois sur le développement de l'IA avancée. Faut-il en déduire que ces 28 000 personnes, qui ont toutes plus d'expertise en matière d'intelligence artificielle que Vance, sont simplement des alarmistes dont les opinions ne reposent sur aucune connaissance approfondie du sujet et de la menace qu'il représente pour l'humanité ?
Et quelles sont exactement ces menaces ? Peuvent-elles être résumées ? Voici d'autres informations provenant de Scientific American :
"Les algorithmes d'intelligence artificielle atteindront bientôt un point d'auto-amélioration rapide qui menace notre capacité à les contrôler, et présente un risque potentiel majeur pour l'humanité... Une fois que l'IA aura pu s'améliorer, ce qui ne devrait pas prendre plus de quelques années, voire même déjà être le cas, nous n'aurons aucun moyen de savoir ce qu'elle fera ou comment la contrôler. En effet, une IA superintelligente [...] sera capable de manipuler les programmeurs et tout autre humain pour arriver à ses fins ; elle aura également la capacité d'agir dans le monde virtuel grâce à ses connexions électroniques, et d'agir dans le monde physique grâce à des structures robotiques..." Here's Why AI May Be Extremely Dangerous-Whether It's Conscious or Not, Scientific American.
Les préoccupations de Musk sont encore plus explicites. Voici un bref résumé fourni sur sa propre entité IA appelée Grok : (En réponse à la question : "Qu'est-ce qui inquiète le plus Musk à propos de l'IA ?")
"On peut s'inquiéter sérieusement de la manière dont l'IA, en particulier les formes les plus puissantes comme l' IAG (Intelligence Artificielle Générale) devrait être développée et contrôlée. Musk a exprimé sa méfiance envers la direction d'OpenAI, en particulier envers Sam Altman, quant à la gestion de cette technologie. Il a indiqué qu'il préférait qu'OpenAI revienne à ses racines axées sur la sécurité et l'open source, ce qui, selon lui, serait plus conforme à l'intérêt public plutôt qu'aux motivations purement lucratives des entreprises...Un danger existentiel pour l'humanité
"Musk a averti que l'IA pourrait soit éliminer, soit limiter la croissance de l'humanité, soulignant le risque que l'IA devienne "bien plus intelligente que les humains" et conduise potentiellement à des scénarios où l'IA pourrait décider de se débarrasser de l'humanité ou de la placer sous un contrôle strict. Musk compare cette préoccupation aux dangers de la physique nucléaire, où l'énergie peut être utilisée à des fins bénéfiques ou catastrophiques..
"Elon Musk a plaidé en faveur d'une réglementation gouvernementale de l'IA, exprimant son inquiétude face aux progrès de la technologie en l'absence de cadres d'application adéquats. Il craint que l'IA ne mène à la "destruction de la civilisation" si elle n'est pas correctement gérée, proposant la création d'un "comité d'experts" chargé de superviser le développement de l'IA. (source : résultats de recherche sur les sites cnn.com, foxbusiness.com et reuters.com).
Le potentiel de l'IA à surpasser l'intelligence humaine
"Il a mentionné à plusieurs reprises le risque que l'IA surpasse l'intelligence humaine, ce qui conduirait à des scénarios où l'IA pourrait ne pas s'aligner sur les valeurs ou les intérêts humains. Musk l'a citée comme étant l'un des plus grands risques pour la civilisation, le comparant à l'invocation d'un démon...
"Musk a également exprimé ses inquiétudes quant à l'utilisation de l'IA pour la prolifération de systèmes d'armes autonomes, susceptibles d'entraîner une escalade involontaire des conflits.
Sécurité et éthique
"Musk plaide pour un développement prudent de l'IA, suggérant que des protocoles de sécurité soient établis avant de passer à des systèmes d'IA plus puissants. Il a appelé à un cadre réglementaire similaire à ceux de l'aviation ou des produits pharmaceutiques pour garantir une utilisation sûre de l'IA". (Grok)
Les préoccupations de Musk, qui découlent de sa vaste expérience technologique, sont clairement en conflit avec celles de JD Vance et de son administration, qui considèrent que la réglementation est une forme d'étranglement bureaucratique qui étouffe l'innovation. Voici une partie de ce que Vance a déclaré lors du Sommet de l'IA à Paris mardi :
"Lorsque des conférences comme celle-ci se réunissent pour discuter d'une technologie de pointe, il me semble que notre réponse se caractérise par une trop grande retenue et une grande réticence à prendre des risques. Mais je n'ai jamais été confronté, dans le domaine technologique, à une avancée qui nous ait poussés aussi clairement à réagir de manière diamétralement opposée. Notre administration, l'administration Trump, estime que l'IA aura d'innombrables applications révolutionnaires... Et restreindre son développement aujourd'hui ne signifierait pas seulement avantager injustement les acteurs du secteur, mais aussi paralyser l'une des technologies les plus prometteuses que nous ayons vues depuis des générations."Cette administration veillera à ce que la technologie américaine d'IA continue d'être la référence mondiale, et nous sommes le partenaire de choix pour nos partenaires étrangers et certainement pour les entreprises qui développent leur propre utilisation de l'IA. Deuxièmement, nous pensons qu'une réglementation excessive du secteur de l'IA pourrait nuire à une industrie en pleine mutation au moment même où elle prend son essor, et nous mettrons tout en œuvre pour encourager des politiques d'IA favorables à la croissance. Et j'aime ce vent de déréglementation qui souffle sur de nombreuses interventions de cette conférence. Troisièmement, nous sommes convaincus que l'IA doit rester à l'abri de tout parti pris idéologique et que l'IA américaine ne sera pas détournée à des fins de censure autoritaire. [...]
"Les États-Unis d'Amérique sont le leader de l'IA, et notre administration prévoit que cela ne change pas. Les États-Unis possèdent tous les composants nécessaires à l'IA, y compris la conception de semi-conducteurs avancés, les algorithmes de pointe et, bien sûr, les applications évolutives. Et pour préserver l'avantage des États-Unis, l'administration Trump veillera à ce que les systèmes d'IA les plus puissants soient construits aux États-Unis avec des puces conçues et fabriquées aux États-Unis. (Les États-Unis doivent se servir de l'IA parce que l'IA fournit les moyens de dominer).
"L'Amérique souhaite s'associer à vous tous, et se lancer dans la révolution de l'IA avec un esprit d'ouverture et de collaboration. Mais pour instaurer ce climat de confiance, nous avons besoin de cadres réglementaires internationaux qui favorisent la création de technologies d'IA plutôt que de la freiner. Et nous avons besoin de nos amis européens en particulier pour envisager ce nouveau défi avec optimisme plutôt qu'avec appréhension. (Note : "Au diable la prudence, en avant toute")
"Avec le récent décret présidentiel sur l'IA, nous sommes en train d'élaborer un plan d'action en matière d'IA qui évite une réglementation excessivement prudente tout en veillant à ce que tous les Américains bénéficient de la technologie et de son potentiel de transformation...
Préoccupations concernant les réglementations internationales
"Les innovateurs américains de tous horizons savent déjà ce que c'est que de faire face à des règles internationales contraignantes...
"Mesdames et Messieurs... L'avenir de l'IA ne se jouera pas en se lamentant sur la sécurité...
"En ce moment même, nous sommes confrontés à la perspective extraordinaire d'une nouvelle révolution industrielle, comparable à l'invention de la machine à vapeur ou de l'acier Bessemer, mais elle ne se produira jamais si une surréglementation dissuade les innovateurs de prendre les risques nécessaires pour faire avancer les choses..." Transcription du Discours du vice-président JD Vance au Paris AI Summit 2025, Singju Post
L'intégralité de la présentation de Vance n'était guère plus qu'une harangue anti-réglementation visant à dénigrer quiconque ne souscrit pas à sa philosophie "Au diable la prudence, en avant toute". Ce discours montre que l'équipe Trump estime que quiconque exprime le moindre soutien à une supervision modeste (de cette technologie potentiellement létale) n'est qu'un doux rêveur cherchant à bloquer les perspectives d'avenir. Mais ce qui est vraiment surprenant dans l'analyse de Vance, c'est qu'elle semble être à l'opposé de celle de Musk. Ce dernier n'a pas exprimé de telles objections à la réglementation ou à la surveillance, bien au contraire. Comme on l'a déjà dit, Musk est convaincu qu'il faut parvenir à un consensus international sur la manière de réglementer l'IA pour éviter que les choses ne dégénèrent.
À noter qu'Elon Musk a fait la semaine dernière une offre de 97,4 milliards de dollars pour racheter OpenAI à son propriétaire actuel, Sam Altman, en déclarant que ce dernier s'est écarté de la mission initiale du système, qui doit rester un logiciel open source à but non lucratif. À l'heure actuelle, OpenAI est une "entreprise à code source fermé et à but lucratif, contrôlée de facto par Microsoft", ce qui va à l'encontre de la vision de Musk d'un outil d'apprentissage transparent (et communautaire) qui pourrait être utilisé au profit de l'humanité. L'offre de près de 100 milliards de dollars souligne l'importance que Musk accorde au développement de l'IA compte tenu des risques qu'elle représente pour l'humanité. En d'autres termes, il veut racheter OpenAI parce qu'il ne considère pas son propriétaire actuel comme étant "digne de confiance".
𝕏 Elon Musk a déclaré à Tucker Carlson :
"Je ne fais pas confiance à Sam Altman, et je ne pense pas que nous voulions que l'IA la plus puissante au monde soit contrôlée par quelqu'un qui n'est pas digne de confiance".
Il faut également noter qu'un nombre croissant d'experts fuient OpenAI, se plaignant que l'entreprise ne prend pas de mesures pour répondre à leurs préoccupations en matière de sécurité. Parmi eux, Daniel Kokotajlo, William Saunders, Ilya Sutskever, Jan Leike, Gretchen Krueger, Leopold Aschenbrenner, Pavel Izmailov, Cullen O'Keefe, Miles Brundage et Rosie Campbell.
Pourquoi tant de professionnels grassement payés fuient-ils OpenAI tout en mettant en garde contre les risques en matière de sécurité ?
Parce que, comme l'a déclaré candidement l'ancien chercheur en IA Steve Adler :
"Les laboratoires OpenAI prennent un pari très risqué avec l'humanité dans la course à l'AGI".
Tout est dit. Ces gens estiment simplement qu'il est immoral pour eux de participer à un projet qui menace l'espèce humaine. Voici un complément d'information de la BBC :
"Le Royaume-Uni et les États-Unis n'ont pas signé d'accord international sur l'intelligence artificielle (IA) lors du sommet mondial de Paris. La déclaration, signée par des dizaines de pays dont la France, la Chine et l'Inde, s'engage à adopter une approche "transparente", "inclusive" et "éthique" du développement de cette technologie..."La déclaration signée par 60 pays énonce l'ambition de réduire la "fracture numérique" en favorisant l'accessibilité de l'IA et en veillant à ce que le développement de cette technologie soit "transparent", "sûr", "sécurisé" et "fiable".
"Le vice-président américain, JD Vance, a déclaré aux délégués à Paris qu'une réglementation excessive de l'intelligence artificielle (IA) pourrait "tuer une industrie en plein essor". Vance a déclaré aux dirigeants mondiaux que l'IA est "une opportunité que l'administration Trump ne laissera pas passer" et a affirmé que "les politiques en faveur du développement de l'IA" devraient être prioritaires sur la sécurité.
"Cependant, UKAI, un organisme professionnel représentant les entreprises du secteur dans tout le pays, a déclaré que c'est la bonne décision. "Si l'UKAI reconnaît qu'il est essentiel d'être responsable sur le plan environnemental, nous nous interrogeons sur la manière de concilier cette responsabilité avec les besoins croissants du secteur de l'IA en énergie", a déclaré son directeur général, Tim Flagg.
"L'UKAI salue avec prudence le refus du gouvernement de signer cette déclaration, qui indique qu'il explorera les solutions plus pragmatiques que l'UKAI appelle de ses vœux, tout en préservant les possibilités de travailler en étroite collaboration avec nos partenaires américains", a-t-il ajouté. UK and US refuse to sign international AI declaration, BBC
À en juger par sa page web, l'UKAI semble être un groupe industriel/de lobbying qui a peut-être influencé la décision de Vance de rejeter la Déclaration de Paris sur l'IA. Voici un extrait de leur page web :
"L'UKAI représente des entreprises de toutes tailles intéressées par l'IA, des start-ups aux leaders du secteur, et veille à ce que leur voix soit prise en compte dans l'élaboration des politiques. En travaillant en étroite collaboration avec le gouvernement britannique et avec les autorités de régulation, UKAI veille à ce que les politiques en matière d'IA favorisent l'innovation et le développement des entreprises sans pour autant entraver le progrès. UKAI fait le lien entre les décideurs politiques et la communauté de l'IA, en offrant une plateforme de communication sur la législation, les programmes et les initiatives. UKAI croit au rôle moteur que l'IA peut jouer dans le développement social et économique du Royaume-Uni". UKAI
Le groupe industriel britannique aurait-il ainsi influencé la position de l'administration américaine sur la déclaration ; est-ce bien ce qui se passe ? Et si c'est le cas, quel rôle ont alors joué les géants de la technologie de la Silicon Valley ? Nous avons posé cette question à Grok : "Les géants de la technologie ont-ils poussé JD Vance à s'opposer au Sommet de Paris pour l'intelligence artificielle ?"
Réponse : "L'expérience de Vance de la Silicon Valley et son financement par des milliardaires de la technologie comme Peter Thiel suggèrent qu'il a des liens étroits avec les leaders technologiques. Ces liens pourraient influencer ses perspectives politiques, mais aucun lien direct avec les grandes entreprises technologiques le poussant à s'opposer à la déclaration sur l'IA n'est explicitement établi... Bien que les positions de Vance semblent s'aligner sur les intérêts des grandes entreprises technologiques pour éviter des réglementations strictes, les informations disponibles ne confirment pas explicitement que ces entreprises aient directement influencé sa décision sur l'IA. Ses actions pourraient être vues comme relevant d'une position politique plus large sur la réglementation technologique, influencée par ses convictions politiques, son rôle dans l'administration Trump et ses interactions antérieures avec l'industrie technologique, plutôt que comme une pression spécifique des grandes entreprises technologiques. Cependant, compte tenu de ses propos critiques sur la "réglementation excessive", il est permis de penser que ses opinions sont au moins favorables au point de vue général des grandes entreprises technologiques sur les questions réglementaires. Grok
En bref, rien ne permet encore de vérifier que le rejet par l'administration du Sommet de Paris pour l'IA soit dû aux efforts de lobbying des géants de la Silicon Valley. Mais il est fort probable que l'administration ait au moins consulté ces entreprises avant de prendre sa décision.
Quoi qu'il en soit, le Sommet de Paris pour l'IA a été un véritable show de relations publiques doublé d'un échec cuisant en raison du refus choquant de Vance de signer la Déclaration. Ne l'oublions pas, la Déclaration ne s'accompagne d'aucune réglementation contraignante ni d'aucune obligation. Il s'agit simplement de l'expression du soutien à quelques principes généraux, concoctés pour rassurer le public. Au lieu de se montrer disposée à collaborer avec d'autres dirigeants mondiaux sur une question de sécurité internationale, l'administration Trump a décidé de faire la sourde oreille tout en exprimant son intention de développer l'IA comme bon lui semble. Le fait est que Trump et ses lieutenants considèrent l'IA comme un outil de domination et de préservation du pouvoir des États-Unis dans l'ordre mondial. Et pour cela, ils ne reculeront devant rien.