Skip to main content
CMAJ : Canadian Medical Association Journal logoLink to CMAJ : Canadian Medical Association Journal
. 2025 Dec 15;197(43):E1503–E1504. [Article in French] doi: 10.1503/cmaj.250663-f

L’IA médicale, la mésinformation et l’importance d’un dialogue ouvert avec la patientèle

Ningjun Shao 1
PMCID: PMC12705202  PMID: 41397705

La première fois qu’une patiente m’a tendu un rapport médical généré par l’intelligence artificielle (IA), je n’en croyais pas mes yeux. Ce n’est pas le taux de créatinine qui m’a inquiété, mais la conclusion du rapport : « Probabilité de 89 % de lésion rénale réversible avec un traitement à base de plantes. La dialyse n’est pas recommandée. » Mme Wu, une grand-mère de 62 ans atteinte de néphropathie diabétique, a souri et tapoté son téléphone avec triomphe : « Vous voyez? Même l’ordinateur pense que nos traitements habituels sont trop agressifs. » Sous le bourdonnement des lampes fluorescentes de la clinique, l’œdème de ses chevilles venait silencieusement démentir le message optimiste de l’algorithme.

J’ai tenté de lui faire comprendre, tant bien que mal, les biais de données et les complexités des lésions rénales, mais j’ai plutôt perdu son attention. Elle est finalement repartie, tenant son « rapport médical », sans prendre de rendez-vous de suivi. Plus tard ce soir-là, dans le calme de mon petit bureau, je me suis demandé : « Comment les conseils de santé en ligne ont-ils pu gagner autant en influence, au point qu’ils supplantent parfois la chaleur humaine de nos soins? »

Peu de temps après, une publication virale sur les réseaux sociaux a attiré mon attention : un gourou du bien-être affirmait que le jus de céleri pouvait « détoxifier les reins défaillants en sept jours »! La section réservée aux commentaires était envahie d’un enthousiasme dangereux : « Les grosses pharmaceutiques essaient de nous le cacher! », « Mon oncle a vécu six mois de plus sans dialyse! », etc.

J’ai publié une explication détaillée, soulignant que si la consommation de jus de céleri offrait certains bienfaits, la teneur élevée en oxalate de cet aliment pouvait en fait aggraver les troubles rénaux. J’ai cité des directives sur l’équilibre hydrique et les risques d’hyperkaliémie, puis inséré un lien vers des données cliniques récentes. Les réponses furent immédiates et partagées : « Mais mes analyses montrent que ma fonction rénale est mauvaise. Est-ce vraiment sécuritaire pour moi? »; « Docteur, pouvez-vous m’expliquer comment les stades de l’insuffisance rénale chronique influencent les décisions thérapeutiques? »

Très vite, on a commencé à citer mon nom dans des fils de conversation semblables. Un soir, dans une petite pièce éclairée uniquement par la lueur de mon téléphone, j’ai animé une longue séance de questions en direct pour déconstruire les mythes entourant les « traitements à base de plantes comme substitut à la dialyse ». C’était la naissance d’un effort concerté visant à distinguer les faits de la fiction.

Par la suite, M. Lin, 45 ans, atteint de néphropathie, s’est présenté avec des conseils générés par l’IA qui lui recommandaient d’« éviter toute protéine animale » afin de protéger ses reins. Les analyses de laboratoire indiquaient un faible taux d’albumine, signe d’un déséquilibre nutritionnel. Plutôt que de lui donner un cours magistral, j’ai suggéré que nous regardions ensemble le fondement des conseils de l’IA.

« Voyons sur quoi l’IA s’est basée », ai-je dit en affichant la source offerte par le robot conversationnel. La plupart des recommandations provenaient d’études obsolètes ou trop générales. J’ai évoqué son dernier rapport de biopsie, qui révélait certaines lésions rénales, et je lui ai expliqué que son état requérait une approche personnalisée, et non une approche générique. Je lui ai dit : « Vos envies nocturnes de thé aux perles ne sont pas compatibles avec une alimentation équilibrée; c’est comme essayer de colmater une fuite avec une passoire. »

« Donc, mes reins ne sont pas simplement fatigués? J’ai vraiment des problèmes? » m’a-t-il demandé. Ses questions confirmaient l’importance de l’intuition humaine, mais montraient également comment les conseils trouvés en ligne, lorsqu’ils sont utilisés à bon escient, peuvent engendrer des discussions constructives. Nous avons conjugué technologie et sagesse traditionnelle pour adapter son plan de traitement.

Quelques semaines plus tard, Mme Wu est revenue me voir. Cette fois, elle s’était équipée d’une montre intelligente, qui émettait chaque heure un message bienheureux : « Votre fonction rénale est à 82 % aujourd’hui! Buvez un peu plus de thé aux champignons! » Son œdème s’était aggravé. Je lui ai proposé une petite expérience : nous avons saisi ses résultats d’analyse dans l’outil d’IA en indiquant qu’elle avait 35 ans, et non 62. La recommandation de l’algorithme a été la suivante : « dialyse immédiate indiquée » — ce qui l’a visiblement déstabilisée. D’après son tableau clinique, j’étais déjà d’avis que la dialyse serait nécessaire, et en lui montrant comment l’IA changeait si rapidement son fusil d’épaule, elle a commencé à comprendre les limites de ce genre d’outils. Elle a pris une grande inspiration, puis a murmuré : « Alors … cet outil ne me connaît pas personnellement? » Nous avons parlé du fait que les données de santé de sa montre intelligente reposent sur des indicateurs de bien-être non éprouvés, et non sur des mesures en temps réel de la fonction rénale.

J’ai passé une bonne heure avec Mme Wu pour ajuster ses applications mobiles de santé et vérifier chaque recommandation — comme un grand ménage du printemps. Cette fois, c’est avec une fiche de directives simples qu’elle a quitté mon bureau : « Vérifier la date : ce conseil est-il périmé? Vérifier la source : qui bénéficie de ces recommandations? Écouter mon corps : comment je me sens aujourd’hui? »

En tant que prestataires de soins, nous ne parviendrons jamais à arrêter le flot des contenus en ligne, mais nous pouvons certainement aider notre patientèle à se retrouver dans ce flux d’informations. Un algorithme ne sentira jamais la main tremblante d’une aînée qui savoure sa tisane préférée, et ne peut comprendre les peurs discrètes qui poussent nos patients et patientes à remettre en question nos conseils. Il ne peut pas non plus trouver le moyen de décrire une maladie à un patient ou à une patiente dans des termes qu’il ou elle comprendra. Par exemple, lors d’une consultation la semaine dernière, j’ai expliqué les complexités de l’hyperkaliémie à une personne curieuse qui étudie en médecine : « Imaginez votre potassium comme une crue soudaine sur le fleuve Yangtsé, menaçant de faire céder les digues de votre cœur. »

Pendant que je planifiais ses prochains traitements de dialyse, Mme Wu m’a montré un fil de conversation sur les réseaux sociaux qu’elle et sa petite-fille avaient publié, intitulé « Une grand-mère riposte : laisser de côté l’engouement du numérique et faire confiance aux prestataires de soins ». Ce texte s’inspirait d’une réflexion que j’avais précédemment publiée sur mes pages personnelles de médias sociaux. Les commentaires — chaotiques, optimistes ou authentiques — m’ont rappelé que nous ne pouvons pas contrer la mésinformation uniquement à l’aide de données. Nous devons nous unir et allier les avantages de la technologie à la chaleur des soins humains.

Remerciement

L’auteur remercie la Dre Tiankai Tang pour sa contribution à la structure narrative et à l’amélioration du texte.

Voir la version anglaise de l’article ici : www.cmaj.ca/lookup/doi/10.1503/cmaj.250663

Footnotes

Cet article a été révisé par des pairs.

Les événements évoqués correspondent aux expériences cliniques de l’auteur. Les patients et patientes ont consenti verbalement à la publication de ce récit, et les éléments permettant de les identifier ont été modifiés ou effacés.

Traduction et révision : Équipe Francophonie de l’Association médicale canadienne


Articles from CMAJ : Canadian Medical Association Journal are provided here courtesy of Canadian Medical Association

RESOURCES