• Lundi 20 Avril 2026 - 5:16 PM

Soutenez Bonjour

Soutien Journalisme indépendant

Accessible à tous, financé par les lecteurs

Soutenez-nous

Ce que vous dites à ChatGPT ou Claude pourrait déjà vous avoir condamné devant les tribunaux


Par Joe Wilkins .Publié le 2026/04/20 15:50
Ce que vous dites à ChatGPT ou Claude pourrait déjà vous avoir condamné devant les tribunaux
Avril. 20, 2026
  1. 0
  2. 8

Il n'est plus un secret que la plupart des produits de l'industrie technologique sont sous la loupe du gouvernement américain. Les sonnettes Ring ont permis à la police de Los Angeles d'accéder aux images des caméras sans mandat, tandis que le FBI peut extraire les métadonnées des iPhones pour surveiller les messages Signal. De son côté, Google répond favorablement aux assignations administratives du Département de la Sécurité intérieure.

Aujourd'hui, une nouvelle décision d'un juge fédéral de New York inscrit définitivement les agents conversationnels (chatbots) sur cette liste. Dans le cadre d'une bataille juridique impliquant Brad Heppner, ancien président de GWG Holdings, le juge Jed Rakoff a tranché : les chatbots d'IA ne sont pas soumis au privilège de confidentialité avocat-client.

Quand l'assistant numérique devient un témoin à charge

Cela peut sembler évident, mais certains ont manifestement besoin d'un rappel. Pour préparer sa défense, Heppner a inséré divers rapports dans Claude, le modèle phare d'Anthropic. L'IA a ensuite généré des rapports préliminaires que ses avocats ont utilisés pour sa défense contre des accusations de fraude financière, selon Reuters.

Le problème majeur est que si le secret professionnel protège les échanges entre Heppner et ses avocats, cette protection ne s'étend pas aux données partagées avec Claude. En conséquence, le financier a été contraint de remettre 31 documents générés par l'IA à la justice.

Aucun contrat légal avec les machines

Dans ses conclusions, le juge Rakoff a souligné qu'aucune relation avocat-client n'existe — ni ne pourrait exister — entre un utilisateur d'IA et une plateforme telle que Claude. Le juge est allé plus loin en dédouanant le chatbot de toute ambiguïté, puisque "Claude décline toute prestation de conseil juridique".

"En effet, lorsque le gouvernement a demandé à Claude s'il pouvait donner des conseils juridiques, il a répondu : Je ne suis pas avocat et je ne peux pas fournir de conseils ou de recommandations juridiques formels", a expliqué le juge, précisant que l'IA recommandait de consulter un avocat qualifié.

Un séisme dans les cabinets d'avocats

Au-delà du cas Heppner, ce jugement a des implications majeures pour les utilisateurs d'IA qui pourraient s'incriminer sans le savoir. Selon Reuters, l'onde de choc se fait déjà sentir dans le milieu juridique. Le cabinet Sher Tremonte a d'ailleurs mis à jour ses contrats pour stipuler que "la divulgation de communications privilégiées à une plateforme d'IA tierce peut constituer une renonciation au privilège avocat-client".

Le partage de données personnelles avec les autorités par les géants de la Tech n'est pas nouveau. Cependant, au vu du nombre d'utilisateurs ayant confié l'intégralité de leurs réflexions à ces chatbots ces dernières années, ce jugement marque une nouvelle frontière dans la conformité technologique face aux exigences gouvernementales.

Notez ce sujet



sport

Référendum

Les principaux obstacles auxquels sont confrontés les immigrants

  1. 83%
  2. 16%
  3. 0%

6 Votes

DESSUS