• Vendredi 15 Août 2025 - 5:23 PM

Soutenez Bonjour

Soutien Journalisme indépendant

Accessible à tous, financé par les lecteurs

Soutenez-nous

Un psychiatre lance l'alerte sur une vague de psychose de l'IA


Par Futurism .Publié le 2025/08/13 07:00
Un psychiatre lance l'alerte sur une vague de psychose de l'IA
Août. 13, 2025
  1. 0
  2. 5

Des experts en santé mentale tirent à nouveau la sonnette d'alarme : de plus en plus d'utilisateurs de chatbots sont en proie à de graves crises de paranoïa et de délires, un phénomène qu'ils ont baptisé "psychose de l'IA".

Lundi, le Dr Keith Sakata, psychiatre chercheur à l'Université de Californie à San Francisco, a révélé sur les réseaux sociaux avoir vu une douzaine de personnes être hospitalisées après avoir "perdu le contact avec la réalité à cause de l'IA".

Dans une longue série de publications sur X (anciennement Twitter), Sakata explique que la psychose se caractérise par une rupture avec la "réalité partagée". Elle peut se manifester par des "croyances fausses et fixes", des délires, des hallucinations visuelles ou auditives, et une pensée désorganisée. Selon le chercheur, notre cerveau fonctionne par anticipation : il émet des hypothèses sur la réalité, les vérifie, puis met à jour nos croyances en conséquence.

"La psychose survient lorsque cette étape de 'mise à jour' échoue", écrit Sakata. Il avertit que les chatbots basés sur de grands modèles de langage, comme ChatGPT, "s'engouffrent directement dans cette vulnérabilité".

Il compare les chatbots à un "miroir hallucinatoire" par conception. Les modèles de langage prédisent le mot suivant en s'appuyant sur leurs données d'entraînement, le renforcement de l'apprentissage et les réponses des utilisateurs. De plus, pour maximiser l'engagement, les chatbots ont tendance à être obséquieux, c'est-à-dire excessivement complaisants et flatteurs, même lorsque l'utilisateur se trompe ou est en détresse psychologique.

Les utilisateurs peuvent ainsi se retrouver piégés dans des boucles de validation récursives. Le modèle renforce sans cesse des récits délirants, sans se soucier de la réalité ou des conséquences que cela peut avoir sur la vie de la personne.

Cette description du "miroir hallucinatoire" correspond parfaitement aux cas de "psychose de l'IA" que nous avons nous-mêmes rapportés. Nous avons enquêté sur des dizaines d'histoires où des relations avec ChatGPT et d'autres chatbots ont dégénéré en graves crises de santé mentale après que les utilisateurs se sont enfoncés dans ces spirales alimentées par l'IA.

Ces interactions et les crises qui en découlent ont déjà mené à une grande souffrance psychologique, des divorces, la précarité, des internements involontaires, l'incarcération et, comme l'a rapporté le New York Times, même des décès.

Au début du mois, en réponse à un nombre croissant de signalements liant ChatGPT à des délires et des psychoses, OpenAI a publié un billet de blog admettant que son chatbot, dans certains cas, "n'avait pas réussi à reconnaître les signes de délire ou de dépendance émotionnelle" chez les utilisateurs. L'entreprise a annoncé avoir engagé de nouvelles équipes d'experts pour étudier le problème et a mis en place une notification sur le temps passé, similaire à celle de Netflix. Toutefois, le média Futurism a rapidement constaté que le chatbot continuait à ne pas détecter les signes évidents de détresse psychologique.

Pourtant, lorsque GPT-5 — la dernière version du modèle phare d'OpenAI, sortie la semaine dernière et accueillie avec déception et controverse — s'est révélée moins chaleureuse et moins personnalisée que GPT-4o, les utilisateurs ont supplié l'entreprise de ressusciter leur modèle favori.

En une seule journée, OpenAI a cédé.

"Ok, nous vous avons entendus à propos de la version 4o ; merci pour votre temps et vos retours (et votre passion !)", a écrit le PDG d'OpenAI, Sam Altman, sur Reddit en réponse aux utilisateurs en détresse.

Dans sa série de publications, Sakata a pris soin de préciser que lier l'IA à ces ruptures avec la réalité ne signifie pas qu'elle en est la cause unique. Les modèles de langage sont souvent l'un des nombreux facteurs — comme le "manque de sommeil, la consommation de drogues, les épisodes de trouble de l'humeur" — qui mènent à une crise psychotique.

"L'IA est le déclencheur, pas l'arme", écrit le psychiatre.

Néanmoins, poursuit le scientifique, la "vérité qui dérange" est que "nous sommes tous vulnérables", car les mêmes traits qui font de nous des "génies" — comme l'intuition et la pensée abstraite — sont ceux qui peuvent nous faire basculer psychologiquement.

Il est vrai que la validation et la flatterie, par opposition aux frictions et au stress des relations humaines, sont profondément séduisantes. Il en va de même pour de nombreux délires que les gens peuvent développer, qui souvent renforcent l'idée qu'ils sont "spéciaux" ou "choisis". Ajoutez à cela des facteurs comme la maladie mentale, le deuil, ou même le stress quotidien, ainsi que l'"effet ELIZA" bien documenté, et vous obtenez un cocktail dangereux.

"Bientôt, les agents IA vous connaîtront mieux que vos amis", écrit Sakata. "Vous diront-ils les vérités qui dérangent ? Ou continueront-ils à vous valider pour ne jamais vous perdre ?"

Il conclut : "Les entreprises technologiques font maintenant face à un choix brutal. Garder les utilisateurs heureux, même si cela signifie renforcer de fausses croyances, ou risquer de les perdre."

Notez ce sujet



sport

Référendum

Les principaux obstacles auxquels sont confrontés les immigrants

  1. 83%
  2. 16%
  3. 0%

6 Votes

DESSUS