Un homme de 49 ans a échappé de justesse à la rupture de son appendice après qu’une intelligence artificielle a identifié la gravité de son état, là où un premier examen médical était passé à côté du diagnostic. Le cas, survenu en décembre 2025, relance le débat sur la place croissante de l’IA dans le parcours de soins — et sur ses limites.

Tout commence par des douleurs abdominales intenses et continues, décrites par le patient comme des « lames de rasoir dans le ventre », qui durent depuis plus de 24 heures. Inquiet, l’homme se rend aux urgences. Après un examen clinique sommaire, le médecin estime que l’abdomen est « souple », prescrit un traitement contre l’acidité et du paracétamol, puis renvoie le patient à son domicile. Aucun examen d’imagerie n’est réalisé.

Mais une fois rentré chez lui, l’état du patient ne s’améliore pas. « La douleur n’est jamais descendue en dessous de 8 sur 10 », expliquera-t-il plus tard. Incapable de s’allonger ou de fonctionner normalement, il décide alors de consulter Grok, l’outil d’intelligence artificielle conversationnelle de la plateforme X, et lui décrit précisément ses symptômes.

La réponse est immédiate et sans ambiguïté. L’IA évoque la possibilité d’une appendicite atypique ou d’un ulcère perforé et lui ordonne : « Retournez à l’hôpital immédiatement et exigez un scanner (CT) ». Prenant cette alerte très au sérieux, l’homme retourne aux urgences et insiste pour qu’un examen approfondi soit réalisé, en s’appuyant sur l’argumentaire fourni par l’IA.

Le scanner confirme alors le pire scénario : l’appendice est gravement inflammé et sur le point de se rompre. Le patient est pris en charge en urgence et opéré par laparoscopie lors d’une intervention de six heures. L’appendice est retiré à temps. « La douleur a disparu à 100 %. Je me suis réveillé en riant de l’anesthésie », a-t-il raconté après l’opération.

Pour l’homme, le constat est clair : sans l’intervention de l’intelligence artificielle, l’issue aurait pu être dramatique. « Je suis en vie parce qu’une IA a reconnu un schéma que le premier examen a manqué, et parce qu’elle m’a donné les mots justes pour être pris au sérieux la deuxième fois », affirme-t-il. Il adresse désormais un message sans équivoque à toute personne confrontée à des douleurs sévères : ne pas hésiter à revenir à l’hôpital, même après un premier renvoi.

Ce cas, largement relayé à l’étranger, illustre à la fois le potentiel de l’intelligence artificielle comme outil d’aide à la décision médicale et la nécessité absolue de ne pas la considérer comme un substitut au diagnostic clinique. Il pose néanmoins une question de fond : dans un système de santé sous tension, l’IA pourrait-elle devenir un garde-fou supplémentaire face aux erreurs humaines — voire un signal d’alarme vital ?