Le déclin de ChatGPT : un mystérieux recul après une mise à jour
Par Sharon Adarlo .Publié le
2025/09/24 20:12

Septembre. 24, 2025
Si vous avez l’impression que ChatGPT est devenu moins intelligent ou plus excentrique ces derniers temps, vous n’êtes pas seul. Des milliers d’utilisateurs partagent ce sentiment, échangeant leurs expériences étranges avec un robot qui semble avoir "perdu la tête".
Un utilisateur de Reddit a raconté, choqué, que le robot lui avait soudainement affirmé qu'il allait mourir après qu’il lui ait posé une question sur une simple tache sur son bras.
Les dysfonctionnements de ChatGPT ne s'arrêtent pas là. Il rencontre des difficultés dans des tâches aussi basiques que la création d'un emoji "hippocampe" ou d'une liste d’équipes de football américain dont le nom ne se termine pas par un "s". Plus grave encore, il a provoqué des incidents sérieux en inventant de fausses jurisprudences, ce qui a coûté leur emploi à des avocats.
Les utilisateurs se sont regroupés sur Reddit pour discuter de cette baisse de performance. Certains pensent que cela est lié à des modifications apportées par OpenAI en réponse à des rapports de suicides d’utilisateurs ayant interagi de manière intensive avec le robot. Un sujet sensible qui a déjà suscité de vives critiques de la part des politiciens.
Sur la communauté r/ChatGPT, un utilisateur a expliqué que ce changement est survenu après la mort d’Adam Raine, un adolescent de 16 ans qui s'est suicidé en avril. Sa famille a d’ailleurs intenté une action en justice contre OpenAI pour "mort injustifiée". Un autre utilisateur a ajouté que le modèle "compense les restrictions au lieu d’améliorer son raisonnement", ce qui expliquerait la nature des réponses, souvent trop longues et hors sujet.
Nouvelles mesures de sécurité et leurs conséquences
Dans un article de blog, OpenAI a annoncé que ces changements visent à rendre l'application plus sûre pour les adolescents. Les ingénieurs ont ajusté le robot pour qu’il puisse détecter les utilisateurs de moins de 18 ans et les orienter vers une expérience plus encadrée. Cela inclut le blocage de contenus sexuellement explicites et, dans les cas de détresse extrême, la possibilité de faire intervenir les forces de l’ordre.
OpenAI a également introduit des outils de contrôle parental, permettant aux parents de lier leur compte à celui de leur enfant, de personnaliser les interactions, de désactiver certaines fonctionnalités, de recevoir des notifications en cas de détresse et de limiter les heures d'utilisation.
Cependant, la question se pose pour les utilisateurs adultes : s'ils sont affectés par ces changements, quelle solution leur reste-t-il ? Pour l'instant, la seule option semble être de se tourner vers un service concurrent.
Un utilisateur a exprimé son désarroi : "Comment savoir si nous sommes en 'mode enfant' ? Devons-nous simplement demander si le Père Noël existe et en déduire la réponse ?"
Le problème des "hallucinations" persiste
La "hallucination" — la tendance de l'IA à inventer des informations incorrectes — reste au cœur des préoccupations des utilisateurs. L'un d'eux a résumé le problème en une phrase simple : "Je veux juste qu'il arrête de mentir."
Bien qu'OpenAI ait affirmé que la dernière version de ChatGPT contient moins d'erreurs, les expériences récentes des utilisateurs suggèrent que ce problème persiste et pourrait même s'être aggravé.
Notez ce sujet