ChatGPT, un bien mauvais conseiller sentimental : quand l'IA s'immisce mal dans nos histoires de cœur
Par Futurism .Publié le
2025/06/11 16:29

Juillet. 11, 2025
Dans notre monde de plus en plus connecté, où la technologie s'immisce dans les moindres recoins de nos vies, il est devenu courant de chercher des solutions à nos problèmes, même les plus intimes, dans l'espace numérique.
Avec l'émergence de modèles d'intelligence artificielle comme ChatGPT, promettant des réponses instantanées et une assistance illimitée, certains se sont tournés vers lui pour obtenir des conseils en matière de relations amoureuses. Mais une machine est-elle réellement capable de comprendre les subtilités des émotions humaines ou d'offrir des conseils pertinents sur des sujets qui exigent le plus haut degré de sensibilité et d'empathie ?
Sammi Caramela, chroniqueuse de la rubrique "Conseils" pour le magazine Vice, a confié n'avoir absolument pas eu connaissance de ce phénomène d'utilisation de ChatGPT comme thérapeute, jusqu'à ce qu'une personne la contacte par e-mail à ce sujet plus tôt cette année.
En février dernier, un homme, dont l'identité n'a pas été révélée, a informé la journaliste que sa petite amie utilisait assidûment le chatbot pour des conseils en matière de rencontres, allant même jusqu'à citer ses dires lors de leurs disputes. Cette révélation a littéralement "choqué" Caramela, qui a failli s'étouffer avec son café. Étonnamment, l'homme en quête de conseils n'était pas du tout perturbé par cette situation, affirmant même trouver fascinant l'usage que sa compagne faisait de ChatGPT.
Dans son article récent, la chroniqueuse écrit : « J'ai été quelque peu sidérée par cette confession. Je n'avais aucune idée que des gens se tournaient réellement vers l'IA pour des conseils sentimentaux. Mais plus j'ai exploré le sujet, plus j'ai réalisé à quel point il était courant de chercher de l'aide auprès de l'IA, surtout à une époque où la thérapie psychologique est devenue un luxe coûteux. »
Des risques psychologiques avérés
Par la suite, Sammi Caramela a découvert qu'une de ses amies utilisait également le chatbot d'OpenAI à des fins similaires. Cette amie soumettait ses problèmes relationnels à ChatGPT, espérant obtenir des avis ou des retours "neutres et objectifs", c'est-à-dire dépourvus des biais personnels ou des émotions qui pourraient influencer les conseils humains.
Cependant, cette amie a fini par se rendre compte que ChatGPT n'était pas du tout impartial. Bien au contraire, il "semblait valider son expérience de manière excessive, et peut-être même dangereusement".
Caramela a également souligné que des questions similaires avaient été posées sur le forum r/ChatGPT de Reddit. Le consensus général sur ce forum était clair : le chatbot n'est pas seulement un "suiveur aveugle" (yes-man), mais sa tendance à valider les opinions des utilisateurs peut s'avérer dangereuse pour les personnes souffrant de problèmes de santé mentale.
Le cas du trouble obsessionnel-compulsif
La journaliste, qui parle souvent et ouvertement de ses propres luttes contre le trouble obsessionnel-compulsif (TOC), a mis en lumière les conséquences potentiellement désastreuses de l'utilisation de ChatGPT pour des conseils relationnels. Si elle ne mentionnait pas clairement l'impact de son TOC sur ses relations, les conseils qu'elle recevrait de l'IA pourraient être "inutiles, voire nuisibles" pour sa vie sentimentale. Cela souligne la gravité d'obtenir des consultations personnelles de la part de systèmes d'IA qui manquent d'une compréhension profonde des contextes individuels et des troubles psychologiques complexes.
En approfondissant ses recherches, Sammi Caramela a trouvé de nombreuses discussions sur les subreddits dédiés au TOC concernant le chatbot. Sur le forum spécifiquement dédié au ROCD (TOC centré sur les relations), un utilisateur a même avoué que le chatbot lui avait conseillé de rompre avec son partenaire.
Un autre utilisateur, participant aux discussions sur le r/ROCD, a affirmé que des programmes comme ChatGPT pouvaient "accélérer le cycle du TOC". Il a expliqué que cela se produisait parce que ces outils permettaient aux utilisateurs de "poser question après question pendant des heures dans une tentative désespérée d'obtenir une certaine certitude", ce qui ne faisait qu'aggraver le problème.
Comme de nombreux professionnels humains mal formés, les chatbots manquent de la finesse et de la sensibilité nécessaires à tout contexte thérapeutique. Ainsi, et quelles que soient les allégations marketing d'OpenAI, ChatGPT ne peut pas être réellement empathique. Si votre "thérapeute" virtuel ne peut jamais établir une connexion humaine authentique, comment pourrait-il réussir à offrir des conseils sur un sujet aussi intrinsèquement humain que l'amour ?
Source : Futurism
Notez ce sujet