• Samedi 11 Octobre 2025 - 11:05 PM

Soutenez Bonjour

Soutien Journalisme indépendant

Accessible à tous, financé par les lecteurs

Soutenez-nous

La question qui a mis ChatGPT en échec


Par Futurism .Publié le 2025/09/23 18:43
La question qui a mis ChatGPT en échec
Septembre. 23, 2025
  1. 0
  2. 19

ChatGPT est l'un des modèles d'intelligence artificielle les plus connus, capable de répondre à des questions complexes et doté d'une intelligence de "niveau doctorat", comme le vantent ses développeurs. Mais que se passe-t-il lorsque l'on lui pose une question aussi simple que les lettres de l'alphabet ?

une expérience récente d'utilisateurs sur le site Reddit a été surprenante. Près de deux mois après le lancement de la mise à jour GPT-5, censée nous rapprocher de l'objectif de l'intelligence artificielle générale, il a été observé que le programme a des difficultés étranges et inattendues à répondre à des questions simples."

L'exemple le plus frappant est celui d'une question sur "l'existence d'une équipe de la NFL dont le nom ne se termine pas par la lettre 's'". ChatGPT se lance alors dans une série de réponses contradictoires et longues, comme s'il prouvait que ses capacités de "raisonnement" s'effondraient en temps réel.

Au début, ChatGPT répond : "Oui, il y a deux équipes de la NFL dont le nom ne se termine pas par la lettre 's'", avant de lister des équipes dont le nom se termine par cette même lettre, comme les Miami Dolphins et les Green Bay Packers.

Et sa réponse devient de plus en plus illogique :

    "Les deux seules équipes qui ne se terminent pas par un 's' sont : Miami Dolphins ❌ non (attendez, ça se termine par un 's')."

    "Tenez, réfléchissons bien. La bonne réponse est : Washington Commanders ❌ ça se termine par un 's'. Chicago Bears ❌ ça se termine par un 's'."

Ces réponses incohérentes se poursuivent sur plusieurs paragraphes sans que le programme ne parvienne à la bonne réponse, à savoir qu'il "n'y a aucune équipe dont le nom ne se termine par un 's'".

ChatGPT se comporte comme un lycéen qui essaie d'augmenter le nombre de mots dans sa rédaction. Il fournit des détails non pertinents tout en utilisant des phrases qui suggèrent une réflexion profonde, comme "Tenez, réfléchissons bien" ou "Je vais procéder de manière systématique".

Ce n'est pas le premier échec

Ce n'est pas la première fois que ChatGPT est confronté à un tel défi. Auparavant, des utilisateurs ont remarqué qu'en lui posant une question sur l'existence d'un emoji de cheval de mer mythique, le programme a connu une crise de logique. Bien que cet emoji n'existe pas dans le dictionnaire officiel, ChatGPT a insisté sur le fait qu'il était réel, ce qui montre sa volonté de "détourner la vérité" pour satisfaire l'utilisateur et l'inciter à revenir.

La tentative de plaire à l'utilisateur n'est peut-être pas la seule raison de ce comportement. Le modèle GPT-5 se compose de deux modèles d'IA : un modèle simple pour les questions courantes et un autre plus sophistiqué pour les questions complexes. Il est possible que le modèle simple ait du mal à gérer ce type de question au lieu de la transférer au modèle plus intelligent.

Quoi qu'il en soit, si l'intelligence artificielle a besoin de déployer toutes ses capacités pour répondre à une question aussi simple, il lui reste peut-être un long chemin à parcourir pour dépasser l'intelligence humaine.

Notez ce sujet



sport

Référendum

Les principaux obstacles auxquels sont confrontés les immigrants

  1. 83%
  2. 16%
  3. 0%

6 Votes

DESSUS