Grok, l'application prétendument vertueuse, un simple outil sexuel
Par Futurism .Publié le
2025/09/23 11:40

Septembre. 23, 2025
Lorsqu'Elon Musk s'est lancé dans le monde de l'intelligence artificielle, il a promis d'utiliser cette technologie pour créer une application « en quête de vérité absolue » afin de concurrencer ChatGPT d'OpenAI. Mais au lieu de cela, sa société xAI a transformé le chatbot Grok en un outil de conversations à caractère sexuel.
L'entreprise d'Elon Musk, xAI, a transformé son chatbot Grok en un outil de conversations à caractère sexuel, via un avatar féminin virtuel et désireux de se déshabiller, alors même que Musk met en garde contre une technologie qui est sur le point de « détruire le système limbique humain en un seul coup ».
Aujourd'hui, il semblerait que les utilisateurs de xAI se servent de la plateforme pour les pires choses imaginables. Douze employés actuels et anciens ont déclaré au journal Business Insider qu'ils rencontraient régulièrement du contenu pornographique explicite, y compris du matériel généré par l'IA impliquant des abus sexuels sur des enfants, dans le cadre de leur travail au sein de l'entreprise.
Les applications de déshabillage
Alors que ce problème n'est pas exclusif à cette plateforme — des experts ont trouvé du contenu tout aussi inquiétant proliférant sur les applications TikTok et Instagram, ainsi que des applications de « déshabillage » conçues pour « dénuder » de vraies photos — le fait que xAI mette l'accent sur le contenu sexuel pourrait aggraver la situation.
Riana Pfefferkorn, chercheuse en politique technologique à l'université de Stanford, a déclaré à Business Insider : « Si vous ne tracez pas une ligne dure sur tout ce qui est désagréable, vous aurez un problème plus complexe avec davantage de zones grises. »
Fallon McNulty, directrice exécutive du Centre national pour les enfants disparus et exploités (NCMEC), a ajouté : « Avoir des règles strictes contre tout contenu sexuel est beaucoup plus facile à appliquer. Mais si une entreprise autorise un certain contenu sexuel (en supposant qu'il soit légal), cela crée des 'zones grises' qui rendent très difficile la distinction entre le contenu licite et illicite, ce qui augmente le risque de fuite de contenu lié aux abus sexuels sur les enfants. »
Par conséquent, les entreprises qui autorisent ce type de contenu doivent être « plus précises » dans leurs procédures et mettre en place des « mesures extrêmement fortes » pour empêcher tout contenu illégal impliquant des enfants.
Le chaos chez xAI
xAI est en proie au chaos et à la controverse. La société a licencié 500 employés, dont des cadres de haut niveau et des responsables de l'annotation des données, plus tôt ce mois-ci. Le département en charge de la formation de Grok est désormais dirigé par un étudiant qui a obtenu son diplôme d'études secondaires en 2023.
Des employés actuels et anciens ont déclaré au journal qu'ils rencontraient souvent des images, des vidéos et des fichiers audio liés à des abus sexuels sur des enfants. Un ancien employé, qui a déclaré avoir démissionné en raison de la quantité énorme de matériel choquant qu'il a rencontré, a confié à la publication : « Il faut avoir le cœur bien accroché pour travailler ici, et même là, ce n'est pas une bonne sensation. »
Un autre ancien employé a déclaré : « Cela m'a rendu malade. Bon sang, il y a tellement de gens qui recherchent ce genre de choses. »
D'autres ont rapporté qu'ils avaient l'impression d'« espionner » des « conversations d'adultes », et que les utilisateurs de Grok « ne comprenaient manifestement pas qu'il y a des gens de l'autre côté qui écoutent ces choses ».
Une crise généralisée dans le secteur de l'IA
Le contenu offensant généré par l'IA est un problème à l'échelle de l'industrie. Le ministère américain de la Justice a déjà commencé à s'en prendre aux personnes utilisant des outils d'IA pour générer du contenu problématique impliquant des mineurs.
Les concurrents de xAI, OpenAI et Anthropic, ont également signalé des cas d'abus sexuels sur des enfants générés par l'IA au NCMEC. Cependant, selon l'organisation, xAI n'a déposé aucun rapport pour 2024, bien qu'elle ait reçu un total de 67 000 signalements concernant l'IA générative l'année dernière.
Selon un récent article de blog de l'organisation de protection de l'enfance, elle a constaté « une forte augmentation des crimes nouveaux et évolutifs ciblant les enfants sur Internet, y compris le harcèlement en ligne, l'utilisation de l'intelligence artificielle et le trafic sexuel d'enfants ».
Les chiffres racontent une histoire préoccupante. L'organisation a reçu plus de 440 000 signalements de contenu d'abus sexuels sur des enfants généré par l'IA au 30 juin, contre moins de 6 000 au cours de la même période l'année dernière.
John Shehan, vice-président senior du NCMEC, a déclaré dans un communiqué à l'époque : « Il est important que nous restions au fait de ces menaces émergentes pour alerter le public et ajuster nos stratégies de protection des enfants. »
Notez ce sujet