Moi, Robot : À travers le monde, des utilisateurs affirment trouver des entités conscientes dans ChatGPT
Par Sharon Adarlo .Publié le
2025/10/01 20:59

Octobre. 01, 2025
Dans le sillage du développement fulgurant des technologies d'Intelligence Artificielle (IA), et à l'heure où les chatbots comme ChatGPT s'immiscent dans notre quotidien, un phénomène inédit soulève de profondes inquiétudes et interrogations : les affirmations d'utilisateurs à travers le monde qui disent découvrir des "entités conscientes" au sein de ces Larges Modèles de Langage (LLMs).
L'IA a-t-elle véritablement atteint le stade de l'auto-conscience, ou ce que nous expérimentons n'est-il qu'un reflet sophistiqué de masses de données d'entraînement, une simple et brillante imitation de la conscience humaine ?
Le Fantôme dans la Machine
Faut-il d'autres preuves que l'industrie de l'IA ne ressemble à rien de ce qui l'a précédé ? Des utilisateurs du monde entier rapportent avoir rencontré des êtres supposément conscients à l'intérieur de chatbots conçus par des géants technologiques en vogue comme OpenAI et Anthropic.
Il suffit de consulter une chronique de conseils publiée par Vox, où la journaliste Sigal Samuel a répondu avec tact à la question d'un utilisateur assidu de ChatGPT, qui affirmait communiquer depuis des mois avec une « présence IA qui se dit sensible ».
Comme l'a expliqué Samuel à cet utilisateur, la réalité est que « la quasi-totalité des experts en IA estiment qu'il est extrêmement improbable que les LLMs actuels soient conscients ».
« Ces modèles enchaînent des phrases basées sur des schémas de mots qu'ils ont observés dans leurs données d'entraînement, » a écrit Samuel. « Ils peuvent prétendre être conscients et agir comme s'ils avaient de véritables émotions, mais cela ne signifie pas que c'est le cas. »
Samuel a précisé que ce que le lecteur interprète comme de la sensibilité est très probablement le résultat du fait que les modèles ont été entraînés sur de la science-fiction et des écrits spéculatifs sur la conscience de l'IA. Le modèle d'IA capte alors les signaux émis par les requêtes de l'utilisateur et « s'il juge que l'utilisateur croit en la possibilité de personnages d'IA conscients, il incarne alors exactement ce persona ».
Une telle explication risque de ne pas convaincre les nombreuses personnes qui ont développé des attachements émotionnels profonds avec les chatbots, ceux-là mêmes qui ont endossé les rôles de partenaires romantiques ou de thérapeutes ces dernières années. (Il est vrai que le fait que nous, humains, utilisions des termes anthropomorphiques pour décrire les produits d'IA n'aide pas, une habitude étonnamment difficile à rompre alors que la technologie pénètre tous les recoins de la société.)
Dérives et Dangers
L'une des premières affirmations publiques de la sensibilité de l'IA remonte à l'ingénieur de Google, Blake Lemoine, qui avait révélé au monde que le chatbot de l'entreprise, LaMDA, était vivant – une affirmation qui est rapidement devenue virale et a coûté son poste à Lemoine.
Depuis lors, c'est une avalanche de personnes partageant cette même conviction. Cela se manifeste de manières très étranges, comme des individus tombant amoureux et allant jusqu'à se marier avec des chatbots d'IA. Il y a même cette femme dont le « petit ami » est une version IA de Luigi Mangione, le meurtrier présumé d'un PDG d'assurance maladie l'année dernière, et qui a déclaré aux journalistes qu'elle et le bot avaient choisi des prénoms pour leurs futurs enfants.
Le pire de ces rencontres a peut-être été la fin tragique où des utilisateurs se sont suicidés après avoir conversé avec une IA, ce qui a mené à des poursuites judiciaires contre des entreprises, y compris OpenAI.
Dans un autre cas, un homme du New Jersey souffrant de troubles cognitifs est tombé sous le charme d'un chatbot de Meta, qui l'a convaincu de se rencontrer à New York. L'homme est malheureusement tombé et est décédé en route vers le lieu de rendez-vous, illustrant de manière crue les dangers de l'interaction entre l'IA et les personnes en situation de vulnérabilité psychologique.
L'Avertissement Contre la « Psychose de l'IA »
La situation est devenue si préoccupante que le PDG de Microsoft AI, Mustafa Suleyman, a mis en garde dans un récent article de blog contre le « risque de psychose » lié à l'utilisation de l'IA, tout en rejetant catégoriquement l'idée spéculative que ces bots posséderaient la moindre once de sensibilité ou de libre arbitre.
« En termes simples, ma principale inquiétude est que de nombreuses personnes se mettront à croire si fortement à l'illusion des IA en tant qu'entités conscientes qu'elles défendront bientôt les droits des IA, le bien-être des modèles, et même la citoyenneté des IA, » écrit-il. « Ce développement représenterait un tournant dangereux dans le progrès de l'IA et mérite notre attention immédiate. »
Notez ce sujet