Faits divers

Intoxication : un homme hospitalisé après avoir suivi les recommandations de Chat GPT

intoxication-un-homme-hospitalise-apres-avoir-suivi-les-recommandations-de-chat-gpt
PARTAGEZ
En témoigne cette affaire troublante rapportée par The Independent, où un homme de 60 ans a frôlé la mort après avoir suivi les recommandations de ChatGPT pour remplacer le sel dans son alimentation.

Tout commence par une question anodine : comment réduire sa consommation de chlorure de sodium, autrement dit le sel de cuisine ? L’homme, soucieux de sa santé, consulte ChatGPT, l’outil conversationnel d’intelligence artificielle de plus en plus populaire. Or, au lieu de proposer des alternatives alimentaires sûres comme les épices ou les substituts à base de potassium, l’IA lui suggère le bromure de sodium, une substance utilisée en milieu industriel et médical, mais formellement déconseillée pour un usage alimentaire.

A lire aussiInclusion numérique : 50 personnes du 3e âge formées aux outils de l'IA

Une erreur aux conséquences dramatiques

Convaincu par la réponse, l’homme commande le produit en ligne et l’intègre à ses repas pendant près de trois mois. Peu à peu, son état se dégrade : hallucinations auditives et visuelles, paranoïa, confusion mentale, fatigue extrême… jusqu’à ce qu’une hospitalisation en urgence s’impose.
Les médecins diagnostiquent rapidement un cas de bromisme, une intoxication au brome aujourd’hui rare mais connue pour ses effets neurologiques sévères. Le patient, désorienté, refusait même de boire l’eau qu’on lui proposait, la croyant toxique. Après trois semaines de soins intensifs, son état s’est stabilisé, lui permettant de regagner son domicile.

A lire aussiTechnologique / Le ministère du numérique signe trois partenaires clés pour booster l'IA et l'innovation

L’IA, un outil puissant mais faillible

Ce cas soulève une question cruciale : peut-on faire confiance aveuglément à une intelligence artificielle, surtout en matière de santé ? Les auteurs du rapport médical, publié par l’American College of Physicians, mettent en garde : les IA comme ChatGPT peuvent générer des informations erronées, manquer de discernement et, involontairement, propager de la désinformation.


Alors que le règlement européen sur l’intelligence artificielle entre partiellement en vigueur, cette affaire rappelle avec force que l’IA, aussi performante soit-elle, ne remplace ni le bon sens… ni l’avis d’un professionnel de santé.

Newsletter
Inscrivez-vous à notre lettre d'information

Inscrivez-vous et recevez chaque jour via email, nos actuaités à ne pas manquer !

Veuillez activer le javascript sur cette page pour pouvoir valider le formulaire