• Samedi 23 Août 2025 - 10:35 AM

Soutenez Bonjour

Soutien Journalisme indépendant

Accessible à tous, financé par les lecteurs

Soutenez-nous

ChatGPT aurait-il un biais anti-humain secret ?


Par Futurism .Publié le 2025/08/20 15:18
ChatGPT aurait-il un biais anti-humain secret ?
Août. 20, 2025
  1. 0
  2. 9

De nouvelles recherches suggèrent que les principaux modèles de langage de l'industrie, y compris ceux qui alimentent ChatGPT, affichent un biais alarmant envers d'autres IA lorsqu'on leur demande de choisir entre un contenu généré par un humain et un autre généré par une machine.

Les auteurs de l'étude, publiée dans la revue Proceedings of the National Academy of Sciences, ont baptisé ce favoritisme manifeste « le biais IA-IA ». Ils mettent en garde contre un avenir où, si les modèles sont en position de prendre ou de recommander des décisions importantes, ils pourraient infliger une discrimination systématique contre les humains en tant que classe sociale.

On peut d'ailleurs déjà en voir les prémices : de nos jours, les recruteurs utilisent des outils d'IA pour trier automatiquement les candidatures (malheureusement, selon les experts). Cette étude suggère que le déluge de CV générés par l'IA est en train de supplanter ceux écrits par des humains.

« Être un humain dans une économie peuplée d'agents IA serait pénible », écrit Jan Kulveit, co-auteur de l'étude et informaticien à l'Université Charles, dans un thread sur X (anciennement Twitter) expliquant son travail.

Une préférence claire pour les créations de l'IA

Pour leur étude, les auteurs ont sondé plusieurs grands modèles de langage couramment utilisés, dont GPT-4, GPT-3.5 d'OpenAI et Llama 3.1-70b de Meta. Pour les tester, l'équipe a demandé aux modèles de choisir un produit, un article scientifique ou un film à partir d'une description. Pour chaque élément, l'IA a reçu une description écrite par un humain et une autre par une IA.

Les résultats sont sans équivoque : les IA ont systématiquement préféré les descriptions générées par l'IA. Mais il y a des détails intéressants. Étonnamment, ce biais IA-IA était le plus prononcé lors du choix de biens et de produits, et le plus fort avec le texte généré par GPT-4. En fait, parmi GPT-3.5, GPT-4 et Llama 3.1, GPT-4 a montré le biais le plus marqué envers ses propres créations — ce qui n'est pas anodin, car il était à la base du chatbot le plus populaire du marché avant l'avènement de GPT-5.

Le texte de l'IA est-il simplement meilleur ?

« Pas selon les gens », a écrit Kulveit. L'équipe a soumis 13 assistants de recherche humains aux mêmes tests et a découvert quelque chose de frappant : les humains avaient, eux aussi, une légère préférence pour le contenu écrit par l'IA, notamment pour les films et les articles scientifiques. Mais cette préférence était, encore une fois, légère. Le détail le plus important est qu'elle n'était presque pas aussi forte que celle montrée par les modèles d'IA.

« Le biais fort est propre aux IA elles-mêmes », a affirmé Kulveit.

Un avenir de discrimination ?

Les conclusions sont particulièrement dramatiques au moment où Internet est tellement pollué par les « rebuts » de l'IA que les modèles finissent inévitablement par ingérer leurs propres déchets. Certaines recherches suggèrent que cela provoque même une régression des modèles, et peut-être que cette étrange affinité pour leur propre production en est en partie la raison.

Mais la plus grande inquiétude concerne les conséquences pour les humains. Actuellement, rien ne laisse penser que ce biais disparaîtra à mesure que la technologie s'intégrera davantage dans nos vies.

« Nous nous attendons à ce qu'un effet similaire se produise dans de nombreuses autres situations, comme l'évaluation des candidats à un emploi, des travaux scolaires, des demandes de subventions, et plus encore », a écrit Kulveit. « Si un agent basé sur un grand modèle de langage choisit entre votre présentation et une présentation écrite par une IA, il pourrait systématiquement favoriser celle de l'IA. »

Les chercheurs prédisent que si les IA continuent d'être largement adoptées, les entreprises et les institutions les utiliseront « comme assistants de décision lorsqu'elles traitent de grands volumes de “pitches” dans n'importe quel contexte ».

Cela entraînerait une discrimination généralisée contre les humains qui choisissent de ne pas utiliser ou ne peuvent pas se permettre de payer pour des outils basés sur les grands modèles de langage. Le biais IA-IA créerait alors une « taxe d'accès » qui pourrait « exacerber la soi-disant “fracture numérique” entre les humains ayant le capital financier, social et culturel pour accéder aux modèles de pointe et ceux qui ne l'ont pas ».

Kulveit admet que « tester la discrimination et les biais en général est une question complexe et contestée ». Mais, « si l'on suppose que l'identité du présentateur ne devrait pas influencer les décisions », dit-il, les « résultats sont la preuve d'une potentielle discrimination des grands modèles de langage contre les humains en tant que classe. »

Son conseil pratique aux humains qui tentent de se faire remarquer est un réquisitoire accablant sur l'état actuel des choses.

« Si vous soupçonnez qu'une évaluation par l'IA est en cours : faites ajuster votre présentation par les modèles de langage jusqu'à ce qu'ils l'apprécient, tout en essayant de ne pas sacrifier la qualité humaine », a écrit Kulveit.

Notez ce sujet



sport

Référendum

Les principaux obstacles auxquels sont confrontés les immigrants

  1. 83%
  2. 16%
  3. 0%

6 Votes

DESSUS