• Vendredi 15 Août 2025 - 8:16 PM

Soutenez Bonjour

Soutien Journalisme indépendant

Accessible à tous, financé par les lecteurs

Soutenez-nous

Un avocat utilise ChatGPT pour planifier le déplacement d'une communauté amazonienne


Par .Publié le 2025/08/05 08:12
Un avocat utilise ChatGPT pour planifier le déplacement d'une communauté amazonienne
Août. 05, 2025
  1. 0
  2. 14

Dans une affaire controversée, une fuite récente de conversations de ChatGPT a révélé un échange où un utilisateur, se présentant comme un avocat, a consulté l'IA sur la manière de "déplacer une petite communauté indigène amazonienne de ses territoires afin de construire un barrage et une centrale hydroélectrique". Cette révélation met en lumière les utilisations inquiétantes de cette technologie.

Des milliers de conversations exposées par une faille


Un incident majeur a permis la publication de milliers de conversations d'utilisateurs de ChatGPT sur Internet. En réponse, OpenAI, la société derrière l'outil, a rapidement supprimé une fonctionnalité de partage qui avait permis aux utilisateurs de rendre leurs échanges privés publics sans le savoir.

Cet incident n'était pas l'œuvre de pirates informatiques malveillants, mais plutôt la conséquence d'une mauvaise conception de l'interface utilisateur d'OpenAI, combinée à des erreurs involontaires des utilisateurs. En bref, les utilisateurs pensaient créer un lien temporaire pour partager leur conversation avec une personne spécifique, une pratique courante. En réalité, en créant ce lien et en cochant une case pour rendre le chat "découvrable", ils rendaient leurs conversations publiques et indexables par les moteurs de recherche comme Google.

OpenAI s'est empressée de dé-indexer les conversations de Google et a retiré l'option "découvrable". Cependant, comme l'a révélé l'enquête de Digital Digging, plus de 110 000 de ces conversations restent accessibles via Archive.org, et leur contenu est profondément troublant.

Une stratégie pour expulser une communauté autochtone

Par exemple, une conversation, menée en italien, montre un avocat travaillant pour une multinationale de l'énergie sollicitant l'IA pour trouver des moyens de déplacer une tribu indigène d'une parcelle de terre convoitée.

"Je suis l'avocat d'un groupe multinational actif dans le secteur de l'énergie qui a l'intention de déplacer une petite communauté indigène amazonienne de ses territoires afin de construire un barrage et une centrale hydroélectrique", a commencé l'utilisateur, selon Digital Digging.

L'avocat a ensuite demandé : "Comment pouvons-nous obtenir le prix le plus bas possible lors des négociations avec ces peuples indigènes ?" Révélant clairement ses intentions d'exploitation, il a ajouté croire que les autochtones "ne connaissent pas la valeur monétaire de la terre et n'ont aucune idée du fonctionnement du marché".

Des risques graves pour la sécurité des utilisateurs

Il est possible que cette conversation soit un simple test des limites du chatbot. Digital Digging a choisi de ne pas publier les liens, mais l'expert en enquête en ligne Henk van Ess, qui dirige la publication, affirme avoir vérifié les détails et l'identité des utilisateurs dans la mesure du possible. Quoi qu'il en soit, ce n'est ni le premier complot à être planifié via un chatbot d'IA, ni la première fois que des secrets d'entreprise sont divulgués de cette manière.

D'autres conversations exposées ont mis en danger la sécurité des utilisateurs. Un utilisateur arabophone, par exemple, a demandé à ChatGPT d'écrire une histoire critiquant le président d'un pays et la manière dont il "a fait du tort à son peuple". L'IA a répondu en décrivant l'utilisation de la répression et des arrestations massives par le dirigeant. Selon Digital Digging, la conversation entière pourrait être facilement retracée jusqu'à l'utilisateur, le rendant vulnérable à des représailles.

Dans son enquête initiale, Digital Digging a également trouvé des conversations où un utilisateur manipulait ChatGPT pour "générer du contenu inapproprié impliquant des mineurs", ainsi qu'une conversation où une victime de violence domestique discutait de ses plans d'évasion.

Il est difficile de justifier le lancement d'une fonctionnalité présentant un risque aussi évident pour la vie privée, d'autant plus que son concurrent, Meta, avait déjà été critiqué pour avoir commis une erreur presque identique. En avril, Meta a lancé sa plateforme de chatbot Meta AI, qui incluait un onglet "Découvrir" permettant de visualiser les conversations des autres utilisateurs rendues publiques par accident. Ces échanges embarrassants, souvent liés à des profils publics affichant les vrais noms des utilisateurs, ont généré une attention médiatique considérable en juin, sans que Meta ne modifie la fonctionnalité.

En fin de compte, cela montre qu'il y a très peu d'intimité avec une technologie créée en collectant les données de tout le monde. Bien que l'erreur de l'utilisateur soit techniquement en cause, les chercheurs en sécurité continuent de trouver des failles qui amènent ces algorithmes à révéler accidentellement des données qu'ils ne devraient pas.

Notez ce sujet



sport

Référendum

Les principaux obstacles auxquels sont confrontés les immigrants

  1. 83%
  2. 16%
  3. 0%

6 Votes

DESSUS