
Tout commence par une question anodine : comment réduire sa consommation de chlorure de sodium, autrement dit le sel de cuisine ? L’homme, soucieux de sa santé, consulte ChatGPT, l’outil conversationnel d’intelligence artificielle de plus en plus populaire. Or, au lieu de proposer des alternatives alimentaires sûres comme les épices ou les substituts à base de potassium, l’IA lui suggère le bromure de sodium, une substance utilisée en milieu industriel et médical, mais formellement déconseillée pour un usage alimentaire.
Une erreur aux conséquences dramatiques
Convaincu par la réponse, l’homme commande le produit en ligne et l’intègre à ses repas pendant près de trois mois. Peu à peu, son état se dégrade : hallucinations auditives et visuelles, paranoïa, confusion mentale, fatigue extrême… jusqu’à ce qu’une hospitalisation en urgence s’impose.
Les médecins diagnostiquent rapidement un cas de bromisme, une intoxication au brome aujourd’hui rare mais connue pour ses effets neurologiques sévères. Le patient, désorienté, refusait même de boire l’eau qu’on lui proposait, la croyant toxique. Après trois semaines de soins intensifs, son état s’est stabilisé, lui permettant de regagner son domicile.
L’IA, un outil puissant mais faillible
Ce cas soulève une question cruciale : peut-on faire confiance aveuglément à une intelligence artificielle, surtout en matière de santé ? Les auteurs du rapport médical, publié par l’American College of Physicians, mettent en garde : les IA comme ChatGPT peuvent générer des informations erronées, manquer de discernement et, involontairement, propager de la désinformation.
Alors que le règlement européen sur l’intelligence artificielle entre partiellement en vigueur, cette affaire rappelle avec force que l’IA, aussi performante soit-elle, ne remplace ni le bon sens… ni l’avis d’un professionnel de santé.