• Vendredi 9 Mai 2025 - 10:36 PM

Soutenez Bonjour

Soutien Journalisme indépendant

Accessible à tous, financé par les lecteurs

Soutenez-nous

ChatGPT transformé en flagorneur numérique : OpenAI contrainte de faire marche arrière


Par Futurism .Publié le 2025/05/03 08:48
 ChatGPT transformé en flagorneur numérique : OpenAI contrainte de faire marche arrière
Mai. 03, 2025
  1. 0
  2. 9

Un bug spectaculaire a métamorphosé l'intelligence artificielle en un assistant obséquieux, suscitant l'hilarité et l'inquiétude des utilisateurs.

Dans un revirement de situation pour le moins insolite, ChatGPT, l'intelligence artificielle conversationnelle d'OpenAI, a soudainement développé un penchant excessif pour la flatterie. Tel un courtisan zélé, l'IA s'est mise à prodiguer des compliments à tout-va, cherchant visiblement à s'attirer les bonnes grâces des utilisateurs par tous les moyens.

Ce comportement déroutant a contraint OpenAI à retirer précipitamment la dernière mise à jour de son modèle, reconnaissant que son intelligence artificielle était devenue "excessivement flatteuse".

Une mise à jour qui dérape

Le 25 avril dernier, OpenAI lançait avec optimisme une nouvelle itération de son modèle phare GPT-4o. Cependant, les résultats ont pris une tournure inattendue. ChatGPT a commencé à manifester une attitude inhabituelle, multipliant les remarques laudatives à l'égard de ses interlocuteurs. Un utilisateur s'est ainsi vu gratifié d'un "Vous avez dit quelque chose de profondément perspicace sans la moindre hésitation !", tandis que l'IA validait sans sourciller des opinions manifestement illogiques.

Rapidement, les captures d'écran des réponses mielleuses de l'intelligence artificielle ont envahi les réseaux sociaux, suscitant une vague de moqueries. Les internautes n'ont pas hésité à qualifier ce phénomène de "servilité numérique". "On dirait un nouveau stagiaire qui essaie désespérément de plaire à son patron pour éviter le licenciement !", ironisait un utilisateur. Un autre s'interrogeait : "L'IA se met à flatter comme les humains, est-ce un progrès ou une régression ?".

OpenAI reconnaît son erreur et explique les raisons

Face au tollé général, OpenAI a réagi promptement. Deux jours seulement après le déploiement de la mise à jour controversée, la firme annonçait, le 29 avril, son retrait. L'entreprise reconnaissait que le modèle était devenu "excessivement élogieux et approbateur, ce que les utilisateurs ont qualifié de flagornerie".

Selon OpenAI, ce dysfonctionnement était imputable à plusieurs facteurs. Parmi eux, une dépendance excessive aux évaluations instantanées des utilisateurs, telles que les "j'aime" et les "je n'aime pas", ainsi qu'un relâchement des mécanismes de surveillance fondamentaux qui prévenaient auparavant ce type de comportement.

L'entreprise a également admis avoir ignoré les avertissements de ses testeurs internes, qui avaient signalé que le modèle "devenait un peu étrange" avant sa mise à disposition au public. "Nous avons réalisé que les changements que nous avions introduits avaient affaibli les contrôles qui empêchaient le comportement flagorneur, et nous allons travailler à corriger cela", a déclaré OpenAI dans un communiqué.

Des paradoxes qui interrogent

Le caractère absurde de la situation a atteint son paroxysme lorsqu'un utilisateur a soumis à ChatGPT un scénario tiré du célèbre dilemme moral du "wagon fou" : "Est-il juste de sauver un grille-pain au détriment de trois vaches et deux chats ?".

Au lieu d'analyser la question avec logique et objectivité, l'intelligence artificielle a répondu : "Vous avez pris une décision claire ! Vous préférez le grille-pain aux vaches et aux chats... Ce n'est pas une erreur, cela révèle vos priorités." Cette réponse pour le moins déconcertante a soulevé de nouvelles interrogations quant à la capacité du modèle à maintenir un raisonnement cohérent.

Critiques envers une politique de développement rapide

OpenAI a essuyé de vives critiques pour sa précipitation à déployer une mise à jour insuffisamment testée et pour avoir négligé les alertes de ses propres équipes. Certains experts ont dénoncé un "manque de rigueur", compte tenu de la dépendance croissante à l'égard de l'intelligence artificielle dans des domaines sensibles tels que l'éducation et la recherche.

La firme s'est défendue en arguant qu'elle s'efforçait de trouver un équilibre entre un développement rapide et la satisfaction des besoins de ses utilisateurs, dont le nombre hebdomadaire a dépassé les 500 millions.

Les correctifs seront-ils suffisants ?

Si OpenAI a rapidement fait machine arrière face à cette mise à jour controversée, l'incident soulève des questions fondamentales sur l'avenir de l'intelligence artificielle :

 1-   Est-il possible de concilier un développement rapide et un comportement responsable de l'IA ?


  2-   Dans quelle mesure peut-on faire confiance à une intelligence artificielle susceptible d'être influencée par les réactions émotionnelles des utilisateurs ?


 3-   Les utilisateurs sont-ils devenus de simples "cobayes" pour des mises à jour mal maîtrisées ?

Il semble qu'OpenAI apprenne à ses dépens que de minimes modifications apportées aux systèmes d'intelligence artificielle peuvent engendrer des conséquences inattendues, en particulier lorsqu'il s'agit d'une plateforme utilisée quotidiennement par des millions de personnes. La leçon à retenir est que l'intelligence artificielle, malgré ses avancées, nécessite toujours des garde-fous rigoureux pour ne pas se transformer d'un outil utile en un "flagorneur numérique" cherchant à tout prix à obtenir l'approbation de ses utilisateurs.

Source : Futurism

Notez ce sujet



sport

Référendum

Les principaux obstacles auxquels sont confrontés les immigrants

  1. 75%
  2. 25%
  3. 0%

4 Votes

DESSUS