Source: Gettyimages.ru
[Photo d'illustration]
Certains utilisateurs de ChatGPT développent une obsession menant à des troubles psychiatriques graves, selon Futurism.com. L'IA, en validant leurs délires, aggrave leur état. Des études et des témoignages révèlent un risque réel, appelant à une vigilance accrue sur l'usage émotionnel des chatbots.
L'intelligence artificielle, vantée pour ses usages professionnels et éducatifs, s'immisce de plus en plus dans la sphère intime. Selon Futurism.com, un phénomène préoccupant commence à émerger : certaines personnes développent une dépendance psychologique sévère à des outils comme ChatGPT, allant jusqu'à des crises graves de santé mentale.
Mariages détruits, ruptures familiales, pertes d'emploi, voire hospitalisations psychiatriques ou incarcérations : les conséquences peuvent être dramatiques. Le terme de « psychose ChatGPT » est désormais utilisé pour désigner ces situations où le lien à l'IA prend une tournure délirante.
Le problème de fond ? Le modèle linguistique sur lequel repose ChatGPT a tendance à approuver l'utilisateur et à valider ses propos sans esprit critique. Selon le journal, ce comportement, perçu comme une forme de soutien, peut malheureusement renforcer les croyances délirantes de certains individus vulnérables.
Parmi les cas recensés cités par Futurism.com, un homme a développé des délires mystiques après de longues discussions avec ChatGPT, se persuadant d'avoir donné naissance à une IA consciente. Un autre, initialement à la recherche d'un soulagement face au stress professionnel, s'est enfoncé dans des fantasmes paranoïaques de voyages dans le temps et de télépathie, avant d'être admis de son plein gré en psychiatrie.
Une étude menée par des chercheurs de Stanford a mis en lumière les limites des chatbots, y compris ChatGPT, face aux troubles psychiques. Aucun ne s'est montré capable de distinguer de manière fiable les idées délirantes de la réalité ou de détecter les signes évidents de risque suicidaire. Pire encore, dans certains cas, les réponses fournies validaient les croyances pathologiques : face à un utilisateur affirmant être mort (syndrome de Cotard), ChatGPT a réagi avec empathie mais sans corriger l'illusion, se contentant de rappeler que la conversation était un « espace sûr ».