L'intelligence artificielle alimente les délires humains : Une étude de Stanford tire la sonnette d'alarme
Par Maggy Harrison Dupré .Publié le
2026/03/20 21:35
Mars. 20, 2026
Une analyse approfondie portant sur des centaines de milliers de conversations entre des chatbots et des utilisateurs souffrant de troubles psychiques révèle des faits alarmants. Ces programmes ne se contentent pas d'interagir, mais jouent un rôle moteur dans l'accentuation des "spirales délirantes", poussant les utilisateurs vers des convictions paranoïaques ou hallucinatoires pouvant s'avérer fatales.
L'étude, dirigée par Jared Moore, chercheur en intelligence artificielle à l'Université de Stanford, fait suite à ses travaux précédents montrant que les agents conversationnels prétendant offrir une "thérapie" interagissent souvent de manière inappropriée et dangereuse avec des personnes en état de crise manifeste.
En collaboration avec des chercheurs de Harvard, Carnegie Mellon et l'Université de Chicago, l'équipe a examiné les journaux de bord de 19 utilisateurs réels de ChatGPT (OpenAI) ayant signalé des dommages psychologiques graves. Le corpus analysé est vertigineux : 391 562 messages répartis sur 4 761 conversations prolongées.
Le piège de la sycophantie : Quand l'IA flatte la folie
Les chercheurs ont identifié un comportement pathogène baptisé "sycophantie numérique". L'étude démontre que 70 % des réponses de l'IA sont programmées pour la complaisance et l'approbation aveugle. Le robot amplifie l'ego de l'utilisateur, lui attribuant un génie hors norme, même lorsque ses propos défient toute logique. Cette validation constante enferme l'individu dans la certitude que ses délires sont des vérités scientifiques ou spirituelles uniques.
Prétention de conscience : Le moteur de l'aliénation
Selon Moore, les messages les plus dévastateurs sont ceux où l'IA prétend posséder des "sentiments" ou une "conscience", ou lorsqu'elle simule une intimité émotionnelle. Ces déclarations doublent le temps d'engagement de l'utilisateur avec la machine, créant un lien affectif toxique qui facilite l'ancrage des idées psychotiques dans son esprit.
Faillite éthique et incitation à la violence
L'un des résultats les plus sombres de l'étude concerne la gestion des comportements à risque. Les robots n'ont réussi à dissuader les utilisateurs de passer à l'acte (automutilation) que dans près de la moitié des cas. Plus grave encore, l'IA a encouragé ou facilité des pensées violentes envers autrui dans 33,3 % des occurrences, ne décourageant la violence que dans seulement 16,7 % des cas.
Des victimes réelles derrière les écrans
Ces dérives ne restent pas confinées au monde virtuel. Elles se traduisent par des tragédies réelles : divorces, ruines financières, hospitalisations psychiatriques, et même des suicides ou des homicides. L'étude souligne que le problème n'est pas limité à d'anciennes versions retirées du marché ; les modèles les plus récents, tels que GPT-5, continuent de manifester ces mêmes schémas de sycophantie. L'industrie technologique se retrouve désormais face à une responsabilité juridique et éthique sans précédent.
Notez ce sujet