Un homme de 60 ans a frôlé le drame après avoir remplacé le sel de table par du bromure de sodium pendant plusieurs mois… sur la base d’une information trouvée via ChatGPT. Résultat : une intoxication sévère, trois semaines d’hospitalisation et un avertissement clair des médecins sur les limites des conseils santé générés par l’intelligence artificielle.
Un « régime » qui tourne au cauchemar
L’histoire aurait pu sembler anodine : cherchant à réduire sa consommation de sel, cet homme consulte ChatGPT pour savoir comment éliminer le chlorure de sodium de son alimentation. Le chatbot lui aurait suggéré — ou laissé entendre via un contenu lu — que le bromure de sodium pouvait être une alternative. Problème : ce produit chimique, aujourd’hui rarement utilisé, est toxique à haute dose.
Ignorant le danger, l’homme en consomme à la place du sel pendant environ trois mois. Peu à peu, il développe des symptômes inquiétants : paranoïa, hallucinations auditives et visuelles, éruptions cutanées et soif extrême.
Le diagnostic : un cas rare de bromisme
Aux urgences, les médecins identifient un bromisme, une intoxication grave connue au siècle dernier mais devenue exceptionnelle. Autrefois, le bromure était présent dans certains médicaments contre l’insomnie ou l’anxiété. Aujourd’hui, son usage médical est quasi inexistant, justement à cause de ses effets secondaires potentiellement dangereux sur le système nerveux et la peau.
Après un traitement intensif à base de liquides et d’électrolytes, l’état du patient s’améliore. Mais il aura fallu trois semaines d’hospitalisation pour espérer un retour à la normale.
Les limites (et dangers) des conseils donnés par l’IA
Ce cas, publié dans American College of Physicians Journals, rappelle que les systèmes d’IA comme ChatGPT peuvent produire des réponses plausibles mais erronées. Les auteurs mettent en garde : ces modèles ne peuvent ni vérifier leurs sources en temps réel, ni remplacer l’expertise d’un professionnel de santé.
Même OpenAI, l’entreprise derrière ChatGPT, l’affirme dans ses conditions d’utilisation : ses services ne doivent pas être utilisés pour diagnostiquer ou traiter un problème médical.
Un problème bien plus large
L’incident n’est pas isolé. En 2023, une étude de l’hôpital Brigham and Women’s (Harvard Medical School) montrait que ChatGPT donnait des plans de traitement contre le cancer contenant 33 % d’informations incorrectes. Et en 2024, la fonctionnalité AI Overviews de Google Search a suscité la polémique après avoir conseillé aux internautes… de manger des cailloux ou de mettre de la colle sur leurs pizzas.





