• Samedi 18 Avril 2026 - 2:17 AM

Soutenez Bonjour

Soutien Journalisme indépendant

Accessible à tous, financé par les lecteurs

Soutenez-nous

IA sans discernement : ChatGPT encense une symphonie de gaz et décrédibilise ses propres analyses


Par Victor Tangermann .Publié le 2026/04/17 17:52
IA sans discernement : ChatGPT encense une  symphonie de gaz  et décrédibilise ses propres analyses
Avril. 17, 2026
  1. 0
  2. 11

Il en faut peu pour impressionner un agent conversationnel. Des outils comme ChatGPT, développés par OpenAI, traînent depuis longtemps une réputation de sycophantes (flatteurs) invétérés. Malgré les promesses des entreprises d’IA de s’attaquer à ce problème, des chercheurs ont récemment découvert que ces robots conservent une forte tendance à la flatterie face à pratiquement n'importe quel type de requête.

Dernier exemple absurde en date : Jonas Čeika, écrivain et YouTubeur spécialisé en philosophie, a envoyé à ChatGPT un fichier audio composé uniquement de bruits de flatulences, en lui demandant ce qu'il pensait de « sa musique ».

Une analyse musicale qui manque de flair

Le chatbot n'a pas mis longtemps à féliciter l'auteur pour sa réussite musicale, dans ce qu'il a qualifié de réaction « honnête et directe ». Le robot a écrit : « Première impression : il y a une ambiance lo-fi, nocturne et légèrement inquiétante très cool. On dirait plus une pièce d'ambiance qu'une chanson traditionnelle, ce qui joue d'ailleurs en sa faveur. Cela me rappelle quelque chose qui passerait sur un montage d'une ville calme ou un générique de fin. »

Ce retour bizarre souligne à quel point la complaisance des modèles d’IA reste un problème majeur. Comme l'ont plaisanté les animateurs du podcast « Pod Save America » lors d'un récent épisode : « L'analyse musicale de ChatGPT sent vraiment mauvais ! »

Illusions de confiance et hallucinations numériques

Ce n'est pas la première fois qu'une IA est prise en flagrant délit de conseils outrageusement trompeurs. Au début du mois, par exemple, un utilisateur de TikTok a demandé à ChatGPT de lancer un chronomètre pendant qu'il courait un mille. Lorsqu'il a demandé l'arrêt du chrono quelques secondes plus tard, l’IA lui a affirmé avec assurance qu'il avait mis plus de dix minutes pour couvrir la distance.

Si proposer une analyse musicale pour des bruits de pets peut sembler être une blague inoffensive, la tendance de cette technologie à l'hallucination et à l'erreur pourrait avoir des conséquences bien plus graves. Les chercheurs avertissent que ces conversations mielleuses pourraient bercer les utilisateurs dans un sentiment de confiance et d'intimité potentiellement dangereux, facilitant tout, de la « psychose de l'IA » à des actes de violence dans les cas extrêmes.

Notez ce sujet



sport

Référendum

Les principaux obstacles auxquels sont confrontés les immigrants

  1. 83%
  2. 16%
  3. 0%

6 Votes

DESSUS