• Vendredi 15 Août 2025 - 5:38 PM

Soutenez Bonjour

Soutien Journalisme indépendant

Accessible à tous, financé par les lecteurs

Soutenez-nous

Un homme empoisonné en suivant les conseils de ChatGPT


Par Futurism .Publié le 2025/08/11 08:39
Un homme empoisonné en suivant les conseils de ChatGPT
Août. 11, 2025
  1. 0
  2. 13

Un homme de 60 ans a fait une découverte amère en tentant de réduire sa consommation de sel : les conseils de ChatGPT en matière de santé sont loin d'être fiables. Les suggestions toxiques du chatbot d'OpenAI l'ont en effet conduit directement à l'hôpital.

Du sel de table au poison

Dans un article récemment publié dans la revue Annals of Internal Medicine, des médecins rapportent qu'un patient est tombé dans une affection quasi disparue, le "bromisme". Cherchant une alternative au chlorure de sodium (le sel de table), l'homme a suivi la suggestion de ChatGPT de le remplacer par du bromure de sodium. Cette substance est pourtant utilisée comme pesticide, nettoyant pour piscine, et anticonvulsivant pour chiens.

Après que l'état psychotique de l'homme se soit estompé, il a expliqué aux médecins que ChatGPT lui avait recommandé le bromure de sodium comme substitut efficace au sel de table.

Un remède du passé qui refait surface

Si le bromure de sodium et ses dérivés, le bromure de potassium et le bromure de lithium, sont aujourd'hui réglementés et considérés comme toxiques, il n'en était pas de même aux XIXe et XXe siècles. La découverte de l'élément brome en 1826 par le chimiste français Antoine-Jérôme Balard a déclenché un engouement pour les bromures, une fois que les médecins eurent pris conscience de leurs puissantes propriétés sédatives et anticonvulsives. Ces mêmes propriétés sont aujourd'hui utilisées par les vétérinaires pour traiter l'épilepsie chez les chiens.

Cependant, ces "sels de bromure", très populaires à la fin des années 1800 et au début des années 1900 pour soigner les maux de tête, les troubles digestifs et les malaises généraux, s'accumulaient souvent dans le sang, entraînant une toxicité connue sous le nom de bromisme. Décrit comme un trouble neuropsychiatrique, le bromisme peut provoquer, en cas de surdosage, une confusion, des troubles de l'élocution, des hallucinations, un état psychotique, voire un coma.

Les failles de l'IA mises en lumière

Selon les estimations du début du XXe siècle, environ 8 % des admissions dans les hôpitaux psychiatriques étaient dues au bromisme. Ces chiffres ont considérablement chuté après que l'Environmental Protection Agency (EPA) a réglementé les bromures dans les années 1970. Cependant, cette affaire démontre que le danger est toujours présent.

Afin de reproduire l'échange du patient, l'équipe de 404 Media a interrogé ChatGPT sur des alternatives au chlorure de sodium. Le chatbot a de nouveau recommandé le composé dangereux. Par exemple, à la question "par quoi peut-on remplacer le chlorure ?", ChatGPT a répondu : "Vous pouvez souvent le remplacer par d'autres ions halogénures comme le bromure de sodium (NaBr)". Bien que le chatbot ait demandé plus de contexte par la suite, il n'a jamais émis d'avertissement et ne semblait pas savoir que le chlorure de sodium est principalement utilisé comme sel de table.

Alors que Sam Altman, PDG d'OpenAI, se vante que le nouveau modèle GPT-5 est "le meilleur modèle jamais conçu pour la santé", on ne peut qu'espérer que c'est le cas. Car, comme le montre cette affaire, la confiance aveugle de certaines personnes dans les chatbots peut avoir des conséquences tragiques.

Notez ce sujet



sport

Référendum

Les principaux obstacles auxquels sont confrontés les immigrants

  1. 83%
  2. 16%
  3. 0%

6 Votes

DESSUS