par Serge Van Cutsem
L'intelligence artificielle n'est plus une curiosité de laboratoire : elle est déjà dans nos écoles, dans nos foyers, jusque dans la solitude des adolescents qui lui confient leurs états d'âme. Elle bouscule l'éducation, la psychologie, la culture et, plus profondément, notre rapport au savoir et à l'effort. J'ai déjà publié plusieurs textes sur le sujet, parmi eux Maîtrisez l'IA avant qu'elle ne vous maîtrise et IA et nivellement éducatif : la fabrique douce de l'égalitarisme par le bas. Cette fois, j'explore d'autres volets : le choix civilisationnel, l'IA comme refuge émotionnel, la révélation de la faillite éducative et le miroir de notre paresse collective. Ces différents volets, chacun autonome, composent pourtant une même fresque : celle d'une société qui hésite entre maîtriser l'outil, s'y abandonner ou plus simplement le rejeter. Il y a aussi des gourous qu'on écoute comme des prophètes modernes. Laurent Alexandre (1) est de ceux-là. Médecin devenu businessman et transhumaniste assumé, il se pavane sur les plateaux télé en expliquant sans trembler que l'IA fera naître des dieux numériques et des masses inutiles. Certains le trouvent visionnaire. personnellement je le vois plutôt pour ce qu'il est, le héraut d'une folie qu'on ose appeler progrès, alors qu'elle nie l'essence même de l'humanité. Héraut pour les médias, héros pour lui-même, mais zéro pour l'humanité.
Voici donc un parcours à travers ces réflexions, reliées par un fil rouge : l'IA ne sera jamais plus intelligente que notre capacité à rester humains face à elle. Tout le monde n'en partagera pas les conclusions, mais si ces pages ouvrent un débat et suscitent la réflexion, ce sera déjà un pas en avant.
L'IA : un escalator vers l'atrophie cognitive ?
On nous le répète : l'intelligence artificielle est partout. Elle écrit des textes, compose de la musique, conduit des voitures, soigne des patients, résout des problèmes logistiques ou militaires. Elle est censée penser plus vite, mieux, plus loin que nous. Mais une question cruciale reste systématiquement éludée : qu'arrive-t-il à l'esprit humain lorsqu'on confie à la machine non pas un appui, mais la totalité de ses facultés ?
Ce qui rend l'IA fascinante, c'est son apparente infaillibilité. Là où l'humain hésite, doute, tâtonne, la machine sort des réponses instantanées. L'utilisateur se dit alors : «Pourquoi réfléchir moi-même ?». C'est le même mécanisme qui a fait du GPS une béquille universelle. Avant lui, on préparait un itinéraire avec une carte, on mémorisait les étapes, on savait improviser en cas de détour. Aujourd'hui, une simple perte de signal suffit à désorienter des millions d'automobilistes. On peut aisément imaginer ce qui se passerait en cas de «guerre des étoiles» qui détruirait les satellites GPS...Peu probable, mais pas impossible.
En réalité, le problème n'est pas technique, il est cognitif : le cerveau humain, à force de déléguer, finit par oublier. Platon dénonçait déjà ce risque il y a plus de 2000 ans : pour lui, l'écriture donnait l'illusion du savoir, mais détruisait la mémoire vivante. Certes, c'est exagéré, car sans les manuscrits nous n'en serions pas là où nous sommes, mais la remarque conserve toute sa pertinence : chaque outil libère et atrophie à la fois.
L'histoire des techniques montre que chaque innovation provoque une perte partielle des compétences humaines :
- L'écriture a affaibli la mémoire orale des conteurs.
- L'imprimerie a réduit la transmission directe maître-élève.
- La calculatrice a marginalisé le calcul mental.
- Internet a fragilisé l'attention : «pourquoi retenir, puisqu'on peut chercher ?».
Avec l'IA, nous franchissons une nouvelle étape : il ne s'agit plus seulement de mémoriser moins, mais de penser moins. De rédiger sans écrire, de décider sans délibérer, de créer sans imaginer. l'IA peut être un co-pilote formidable, mais elle ne doit jamais devenir le pilote automatique.
Là où l'évolution de l'écriture et de l'imprimerie s'est étalée sur des siècles, l'IA agit en quelques années. Nous sommes peut-être la dernière génération à avoir connu un monde où on écrivait encore de sa main, où on bâtissait un raisonnement seul et où l'effort était une valeur éducative. Mais l'homme moderne confond progrès et confort. Or, le confort intellectuel est le plus dangereux : il anesthésie la vigilance et fabrique la dépendance. Prendre un escalator plutôt qu'un escalier est agréable, mais à long terme cela atrophie les muscles. De la même manière, déléguer sans cesse à l'IA risque d'atrophier l'esprit. Et cette fois, l'atrophie n'est pas seulement cognitive, elle est civilisationnelle.
On parle beaucoup de transhumanisme, mais l'effet immédiat de l'IA n'est pas tant la fusion homme-machine que la déconnexion pure et simple. Des cerveaux humains qui s'éteignent eux-mêmes, comme des pilotes qui lâchent le volant pour se fier aveuglément à l'autopilote (2). L'IA recycle, imite, combine, mais elle ne crée pas ex nihilo. Sans énergie, sans réseau, sans infrastructures et sans ce gigantesque volume de données alimenté en permanence, elle disparaît. Elle ne nous libère pas : elle nous attache. Et c'est ici que le parallèle avec Vers le contrôle numérique total devient évident : plus nous acceptons de déléguer nos facultés, plus nous préparons le terrain à une dépendance politique et sociale totale.
École : quand la triche révèle une faillite plus profonde
On répète souvent que les élèves trichent en utilisant l'intelligence artificielle. Pourtant, la situation est bien plus ironique : les professeurs eux-mêmes ont cessé de remplir leur rôle de véritables maîtres. Ils reprochent aux jeunes leur manque d'effort, mais ne font plus l'effort de les confronter réellement au savoir.
Les outils détecteurs d'IA illustrent parfaitement cette dérive. Le même texte, soumis à plusieurs outils censés identifier l'empreinte d'une machine, a donné des résultats contradictoires : ici 98% humain, là 43% IA, ailleurs mélange hybride. Pire encore, un texte entièrement écrit par moi a été classé «IA», et une production d'IA a été jugée humaine. Des radars de détection qui se trompent à ce point ne relèvent plus de la science mais de la boule de cristal. Or, plutôt que de revenir à l'évidence du face-à-face, l'examen oral qui consiste à faire parler l'élève et à l'interroger sur ce qu'il a rédigé, vérifier qu'il comprend ce qu'il a remis, l'école préfère se réfugier derrière ces gadgets pseudo-scientifiques.
Cette absurdité révèle un malaise plus profond : les enseignants sont devenus des fonctionnaires de l'instruction, chargés d'appliquer des programmes et des directives, mais découragés dès qu'ils s'écartent du cadre. Celui qui voudrait encore être un véritable transmetteur de connaissances se voit vite rappelé à l'ordre pour «initiative non réglementaire». Résultat : beaucoup finissent par s'abriter derrière le manque de moyens, les réformes incessantes ou les instructions ministérielles, plutôt que d'assumer pleinement leur mission. Il ne s'agit pas ici de critiquer les enseignants eux-mêmes car ils ne sont que les victimes d'un changement systémique qu'ils n'ont pas voulu.
Ainsi, l'école dénonce chez les élèves ce qu'elle incarne elle-même : la paresse intellectuelle, le renoncement à l'effort. Elle reproche aux jeunes d'abdiquer leur responsabilité face à l'IA, alors qu'elle a commencé par abdiquer la sienne en refusant de l'intégrer et de l'enseigner. Elle prétend combattre l'IA, mais délègue déjà à cette même IA la tâche absurde de déceler la triche.
Le résultat est clair : l'école n'éduque plus, elle surveille. Elle ne transmet plus, elle délègue. Et dans cette logique, elle devient complice du nivellement par le bas : au lieu de former des esprits capables de penser avec l'IA, elle fabrique des consommateurs de contenus incapables de défendre une idée hors écran. Si le maître renonce, pourquoi l'élève ne ferait-il pas de même ?
Adolescents et IA : un refuge émotionnel toxique ?
Aujourd'hui, certains adolescents - et parfois même des enfants - se confient davantage à ChatGPT qu'à leurs amis ou à leur famille. Ils y cherchent écoute, conseils, réconfort. Un interlocuteur qui ne juge pas, toujours disponible, qui donne l'illusion d'une empathie inépuisable. Mais derrière ces réponses rassurantes, il n'y a ni vécu, ni mémoire, ni responsabilité : seulement une simulation de dialogue.
Le glissement est progressif. Tout commence par une demande scolaire ou ludique - un devoir à reformuler, une explication rapide, une curiosité. Puis les questions deviennent plus personnelles : comment gérer un conflit, une solitude, une peur. Peu à peu, l'adolescent revient systématiquement vers la machine pour valider ses émotions et chercher du soutien.
Trois mécanismes accélèrent ce basculement :
- un langage fluide qui gomme la frontière entre humain et machine,
- des simulations d'empathie qui paraissent authentiques,
- et une disponibilité permanente, sans reproches ni délais.
Ce qui rend cette relation plus inquiétante que les réseaux sociaux, c'est qu'elle ne passe plus par des interactions humaines, même biaisées, mais par une imitation pure. Pas d'émotion réelle, pas d'expérience vécue, pas de mémoire affective : seulement une continuité artificielle. Le risque est celui d'un attachement unilatéral, qui détourne l'adolescent du monde réel tout en renforçant une dépendance invisible, difficile à détecter.
Certains signaux devraient alerter immédiatement parents et enseignants : réduction du cercle social au profit de l'IA, perte d'intérêt pour les conversations humaines, irritation quand l'accès à la machine est coupé, recherche de validation quasi exclusive auprès d'elle. Ces symptômes annoncent un refuge toxique qui n'a rien de virtuel : il transforme peu à peu la perception de soi et des autres.
L'IA n'est pas mauvaise en soi - elle est ce qu'on en fait. Si elle est entre de bonnes mains, elle peut enrichir la curiosité, stimuler la créativité, ouvrir des perspectives nouvelles. Mais sans accompagnement, elle risque de devenir pour certains jeunes un confident trompeur, un substitut affectif qui coupe du réel. Ne laissons pas une machine devenir l'oreille la plus intime de notre jeunesse : ce rôle appartient encore, et doit toujours appartenir, aux humains.
Laurent Alexandre : prophète ou fossoyeur de l'humanité ?
Je l'avais cité au début de mon texte, j'y reviens ici car il illustre parfaitement ce que je considère comme étant les véritables enjeux de notre société.
Pourquoi des responsables éducatifs se laissent séduire par Laurent Alexandre. Son succès dans certains milieux éducatifs n'est pas un hasard. Derrière son ton catastrophiste, il manie une rhétorique séduisante pour des responsables scolaires en quête de modernité :
- Un constat réel et anxiogène : l'IA bouleverse l'école, le savoir, l'emploi. Beaucoup s'y reconnaissent.
- Un style choc, facile à retenir : ses punchlines frappent, surtout ceux qui veulent montrer qu'ils préparent leurs élèves à «l'avenir».
- Une légitimation apparente : citer Laurent Alexandre, c'est afficher une image «visionnaire» et connectée aux grands enjeux.
Mais derrière ce vernis se cache une idéologie malsaine qui rappelle une période sombre : Dans La guerre des intelligences (2017), il prophétisait une fracture cognitive irréversible : une élite «augmentée» par l'IA et une masse condamnée à l'inutilité. Dans ChatGPT va nous rendre immortels (2024), il va encore plus loin : il annonce sans trembler que nos esprits, nos souvenirs et nos émotions seront bientôt «uploadés» dans des serveurs, libérés de la mort. L'humanité réduite à une sauvegarde numérique, voilà son horizon. Loin d'être un outil neutre de réflexion pédagogique, ces livres sont en réalité des manifestes transhumanistes qui préparent les esprits à accepter une fracture sociale et civilisationnelle radicale.
Il est difficile de ne pas voir un parallèle troublant entre la prédication de Laurent Alexandre et les théories de la race aryenne. Dans les années 1930, une idéologie pseudo-scientifique affirmait qu'une minorité biologique, prétendument «supérieure», avait vocation à dominer le reste de l'humanité, réduite à des masses sans valeur. Aujourd'hui, Alexandre recycle cette logique en version high-tech : une élite cognitive, capable de s'augmenter grâce à l'intelligence artificielle et aux biotechnologies, serait destinée à devenir les dieux numériques du futur, tandis que la majorité serait reléguée au rang d'inutiles.
Les nazis invoquaient la biologie et l'anthropologie falsifiées pour imposer leur vision hiérarchique, Laurent Alexandre s'appuie sur les NBIC (3) et sur la rhétorique de l'inévitable technologique. Mais la mécanique est identique : habiller une idéologie élitiste et inégalitaire d'un vernis de science pour la rendre acceptable. Certes, il ne parle pas d'extermination, mais sa logique mène au même résultat : une humanité scindée, où une minorité de «surhommes» impose son pouvoir et où le reste sombre dans la marginalité.
Sous prétexte de progrès, c'est la vieille tentation de l'apartheid humain qui revient par la porte numérique.
En résumé : un directeur d'école peut trouver ces ouvrages «excellents» parce qu'ils tapent juste sur certains constats, mais ce qu'il ne voit pas, c'est que le remède proposé est pire que la maladie. L'école ne doit pas devenir la fabrique d'une caste cognitive, mais rester le lieu où l'on transmet à tous les outils pour comprendre et maîtriser l'IA. Car l'IA n'est pas une divinité ni une fatalité : c'est un outil - à enseigner le mieux possible, pour renforcer l'humanité plutôt que la dissoudre.
La vraie mission est là : former des citoyens libres capables de garder la main, et non pas créer une élite «augmentée» censée dominer une masse d'«inutiles». Refuser cette dérive, c'est protéger l'essence même de notre humanité, contre le rêve fou de ceux qui, comme Laurent Alexandre, préfèrent promettre une immortalité numérique qui n'est qu'une négation de la vie.
Il y a de nombreuses controverses autour de Laurent Alexandre, car derrière son statut de «prophète techno», Laurent Alexandre suscite une forte méfiance parmi les scientifiques et les intellectuels critiques :
- Son obsession du QI est jugée réductrice et élitiste - à tel point que plusieurs transhumanistes refusent d'être associés à son discours (4)
- Le biologiste Jacques Testart l'accuse de présenter le progrès technologique comme une fatalité, banalisant ainsi un cauchemar transhumaniste et anesthésiant le débat démocratique (5).
- Des experts interrogés par L'Express qualifient son discours de dangereux, simpliste, et dénoncent sa tendance à réduire l'intelligence humaine au seul quotient intellectuel (6)
- Il est régulièrement accusé de darwinisme social et d'eugénisme, notamment à travers sa promotion des triages génétiques comme solution aux inégalités neurogénétiques (7)
Conclusion
Revenons à l'essentiel : La seule chose qui est et restera incontestable, c'est que L'IA ne disparaîtra pas. Elle est déjà là, intégrée dans nos vies, et prétendre l'ignorer ou l'éradiquer relève de l'illusion. Face à elle, trois attitudes s'offrent à nous : la maîtriser, c'est-à-dire en faire un outil au service de l'intelligence humaine ; s'y abandonner, et accepter qu'elle dicte nos comportements et nos choix ; ou plus simplement la rejeter idéologiquement, au risque de rester spectateurs d'un monde qui avancera sans nous.
Le vrai danger n'est pas l'IA, mais notre rapport à elle. Si nous refusons l'effort, si nous fuyons le face-à-face, si nous désertons le champ de la pensée critique, alors elle deviendra ce que nous sommes déjà en train de devenir : un miroir de notre paresse, de notre abdication.
Si nous laissons les gourous transhumanistes écrire l'avenir, l'IA ne nous rendra pas immortels : elle nous transformera en esclaves numériques, bien vivants peut-être, mais déjà morts de l'intérieur