Skip to main content
Canadian Family Physician logoLink to Canadian Family Physician
. 2022 Aug;68(8):e230–e233. [Article in French] doi: 10.46747/cfp.6808e230

L’intelligence artificielle et les algorithmes prédictifs en médecine

Promesses et problèmes

Susan P Phillips 1,, Sheryl Spithoff 2, Amber Simpson 3
PMCID: PMC9374076  PMID: 35961718

L’intelligence artificielle (IA) est sur le point de transformer la pratique de la médecine préventive; toutefois, ses bienfaits pour les patients, les groupes sociaux spécifiques (p. ex. populations racialisées) et les entreprises restent à confirmer. L’intelligence artificielle désigne « un système qui fonctionne grâce à une machine qui, pour répondre à un ensemble donné d’objectifs définis par l’humain, est capable de faire des prédictions, des recommandations ou des décisions qui influent sur des environnements réels ou virtuels »1. Même si l’IA ne joue pas encore de rôle important dans les soins primaires canadiens, le bien-fondé de certains algorithmes produits ailleurs a été remis en cause par des biais tant volontaires que non volontaires. Par exemple, un algorithme des États-Unis, dont la tâche était d’identifier les patients américains dont les maladies actuelles pourraient permettre de prédire les besoins futurs en soins accrus, a conclu de manière erronée que les patients noirs étaient en meilleure santé que les patients blancs aussi malades, ce qui priverait les patients noirs de ressources2. Les auteurs ont constaté que les patients noirs engendraient des coûts plus faibles en soins de santé que les patients blancs et qu‘ils consultaient des médecins moins souvent que les patients blancs; pourtant, l’IA était codée pour interpréter cet accès moins fréquent aux soins par les patients noirs comme un fardeau de maladie plus faible2. Pour éviter des biais comme celui-là, il faut une connaissance des risques et des actions audacieuses, mais réfléchies, de la part des chercheurs et des gouvernements.

Promesses

L’intelligence artificielle peut comptabiliser les effets sur la santé de n’importe quel ensemble de données accessibles (p. ex. génétique, environnement, comportement); autrement dit, pour le contexte et la biologie d’un patient, l’IA peut « reconstituer le patient3 » pour optimiser et individualiser la prévention et le diagnostic. Par conséquent, elle a le potentiel d’uniformiser les règles du jeu et de corriger les iniquités existantes en santé4,5. En intégrant de grandes quantités de données tirées des dossiers médicaux électroniques (DME) du monde réel, l’IA tient compte de l’efficience plutôt que de se limiter à l’efficacité des essais cliniques, tout en incorporant simultanément les principaux déterminants sociaux de la santé comme facteurs de prédiction6. Lorsque sont utilisés les DME de patients dont les résultats médicaux sont connus, les algorithmes peuvent prédire le risque de tels résultats chez d’autres patients7. Des algorithmes créés par l’IA pourraient corriger la sous-représentation ou la représentation erronée de longue date des femmes et des personnes ayant des antécédents raciaux ou ethniques particuliers, et ils pourraient tenir compte de circonstances sociales comme la scolarisation, le revenu ou le capital social. Par exemple, un algorithme produit pour cerner le risque de maladies cardiovasculaires pourrait inclure non seulement les scores de risque, mais aussi la situation socioéconomique, qui est un solide facteur de prédiction de cardiopathies8. La conservation, l’agrégation et l’analyse de l’information longitudinale dérivée des DME sont prometteuses quant à la prédiction du risque, à la prévention et au traitement, en tenant compte de la biologie et du contexte individuels.

Problèmes

Les algorithmes produits par l’IA ne sont pas dépourvus de difficultés sur le plan médical, éthique et social, certaines étant causées par les valeurs des rédacteurs des données (p. ex. médecins), des concepteurs et des sources de financement9-11 et d’autres, parce que les entrées dans les DME ne sont ni uniformisées ni rédigées pour répondre à des questions de recherche. Les renseignements consignés dans les DME sont circonscrits par l’accès des patients aux soins (pas de rencontre clinique signifie pas de consignation de données sur ce patient), et par les valeurs et les déterminations des cliniciens au sujet de ces soins. L’ambiguïté, l’absence de terminologie normalisée, les inexactitudes et les acronymes portant à confusion sont inévitables12. Les données des DME sont limitées par la longévité du dossier et peuvent être faussées pour de nombreuses raisons, y compris une mesure ou une documentation incohérente des biomarqueurs, l’absence de qualificatif au diagnostic, comme la sévérité, ou même une orthographe impossible à interpréter. Pour fusionner les facteurs sociaux et biologiques connus de la santé, l’IA exige la disponibilité et la précision des paramètres sociodémographiques, comme la race et la situation socioéconomique, des données qui ne sont pas systématiquement inscrites dans les DME au Canada. Cette lacune signifie que les algorithmes doivent soit ignorer ces données ou encore risquer d’imputer ces catégories13. En outre, les diagnostics consignés, même à l’aide des codes CIM, sont souvent vagues (p. ex. une entrée « cancer du sein » réfère-t-elle à la crainte de la patiente, au sujet d’une discussion ou à un diagnostic?), comme peuvent l’être des mots tels que pire et mieux. Les algorithmes pourraient ne se servir que des mesures biomédicales sans tenir compte des déterminants sociaux, mais une telle omission pourrait réduire les « promesses » de l’IA et entraîner un aveuglement néfaste quant aux effets médicaux des conditions sociales14. Les médecins tiennent probablement en compte les déterminants sociaux de la santé d’un patient en plus de ses problèmes de santé; sinon, cela pourrait nuire à au plus 1 patient. L’agrégation des données des DME pour prédire les risques pour la santé multiplie l’effet d’aveuglement envers les caractéristiques sociodémographiques et peut nuire à l’exactitude des prédictions pour de nombreux patients2,15,16.

Mauvais diagnostics et surdiagnostics

Les modèles prédictifs de l’IA qui sont incomplets ou non représentatifs peuvent biaiser les résultats et engendrer de mauvais diagnostics17. À l’inverse, des surdiagnostics peuvent résulter de l’acceptation d’un seul résultat de test anormal comme étant un diagnostic, et ainsi attribuer un poids pronostique plus élevé à certaines mesures (p. ex. taux de glucose sanguin dans le prédiabète) que ce qui est validé par la recherche, de la restriction des définitions de la normalité (p. ex. abaisser la limite supérieure d’un taux normal d’hémoglobine A1c) ou définir des résultats de dépistage de manière à favoriser les faux positifs au détriment des faux négatifs9,18,19. Tout cela précipite des surdiagnostics et des investigations excessives, de la peur chez les patients et les interventions inutiles qui les accompagnent. Par exemple, si un algorithme accepte par défaut que « 1 mesure de la tension artérielle élevée indique un risque », les surdiagnostics seront inévitables, parce qu’un plus grand nombre de visites chez le médecin produiront plus de données consignées, créant un biais dans ce qui est, essentiellement, une série chronologique avec un échantillonnage irrégulier et inégal parmi les participants18.

Inversement, l’IA peut sous-diagnostiquer des groupes de personnes en excluant les patients dont les données sont absentes en raison d’un accès limité aux soins2, en ignorant les groupes pour qui les données ne sont pas enregistrées ou en utilisant plutôt des définitions biaisées de la maladie (p. ex. utiliser un taux plus faible de filtration glomérulaire pour diagnostiquer l’insuffisance rénale chez les populations noires par rapport aux populations blanches). Envisageons un algorithme, pour cerner le risque de diabète, qui choisit comme marqueur d’inquiétude un taux de glucose sanguin plus élevé qu’un niveau précisé. Comme dans le dépistage actuel, les personnes qui vont peu souvent chez le médecin seront testées de manière moins constante et peuvent être sous-diagnostiquées. Avec l’IA, si des sousgroupes de la population ne consultent pas souvent le médecin et sont sous-diagnostiqués, les caractéristiques de leur groupe (p. ex. âge, race, genre) seront interprétées à tort comme conférant un risque plus faible de la maladie dont on fait le suivi. Il s’agit de 1 exemple de la possibilité plus générale de fausser la prédiction d’une maladie lorsque les données sous-jacentes échantillonnent à l’excès les personnes ayant des caractéristiques médicales précises, ou sont limitées à celles des cas intéressants ou diagnostiqués, plutôt qu’à l’ensemble des populations20.

Qui pourrait s’intéresser à l’IA?

Bien que les principes éthiques des droits de la personne, le fait de ne pas nuire et la protection de la personne soient des principes fondamentaux de la recherche, l’IA ne fait que commencer à faire l’objet d’une telle surveillance15. Sans le consentement explicite des patients, les personnes dont les dossiers médicaux sont sous forme électronique (près de 90 % des dossiers en soins primaires au Canada en 201921) ont une empreinte de santé numérique qui est traitée comme une marchandise, agrégée, partagée, vendue et réidentifiée22. Les possibilités de réidentification sont amplifiées lorsque les données des DME sont fusionnées avec des outils d’autoquantification comme les montres intelligentes22. L’ardeur que met l’industrie à maximiser les affaires est une puissante force sous-jacente en sciences et en technologie23. Dans leur propre intérêt, les négociants peuvent fausser la sélection des mesures des intrants et des extrants pour amplifier un résultat avantageux (pour l’industrie) en maximisant le nombre de ceux qui sont identifiés comme étant à risque et en créant une demande pour des traitements inutiles. Des données statistiques probantes ont été mal représentées en affichant le risque relatif plutôt que le risque absolu, une fois de plus dans le but de grossir le nombre des diagnostics et des marchés5,24,25. Les algorithmes de l’IA qui font l’objet d’un droit de propriété, comme la plupart jusqu’à présent, ont tendance à manquer de transparence et nécessitent des détours astucieux pour en faire la vérification de manière à détecter des disparités ou des distorsions, et pour trouver des biais, des inégalités et des sources de mauvais diagnostics ou de surdiagnostics2,24,26. La philosophie de l’IA et de la médecine de précision sert mieux l’industrie que les patients lorsqu’elle est propulsée et alimentée par l’idée que « plus, c’est mieux », que « nouveau, c’est mieux », et que « mieux vaut prévenir que guérir », et que le fait de diagnostiquer même ceux qui ont un risque minime est avantageux.

Que réserve l’avenir?

Le corps humain intègre des caractéristiques sociales et des expériences de vie avec la biologie individuelle pour déterminer de manière interdépendante la santé et les maladies25. Les algorithmes de l’IA sont capables d’en faire autant24, mais ils pourraient exacerber les conséquences de l’omission de tenir compte de la race, du genre et de l’identité sociale, et tout dissimuler derrière une perception de certitude issue des sciences et des nombres4. Une évaluation des risques empiriques que pose l’IA s’impose de toute urgence, notamment sur le plan des intrants, des processus ou des diagnostics qui se dégagent des extrants. Il faut aussi élaborer des paramètres de réglementation et de pratique pour protéger la santé des Canadiens. Cet exercice est en marche ailleurs, mais ne fait que commencer chez les chercheurs, les médecins, les éthiciens et les responsables de la réglementation au Canada27-29. Les règlements et les politiques devraient s’appliquer à la marchandisation et à la monétarisation des données sur la santé; au consentement explicite des patients; à la protection des renseignements personnels des patients; aux possibilités de réidentification; à la nécessité de mettre à l’essai les algorithmes à l’aide de données nombreuses, diversifiées et représentatives; au codage transparent permettant une vérification; à la communication aux patients que leurs diagnostics sont générés par IA; à la hiérarchie des responsabilités pour les erreurs. D’autres instances opérationnalisent la surveillance et la réglementation des produits (p. ex. algorithmes) et des processus (p. ex. accès aux données, analyse) pour assurer des normes éthiques et une allocation équitable des ressources. Depuis 2010, au Royaume-Uni, les logiciels d’aide à la décision clinique exigent l’approbation de l’Agence de réglementation des médicaments et des produits de soins de santé. Les concepteurs doivent démontrer la supériorité des bienfaits par rapport aux risques, l’efficacité du logiciel et la conformité des critères aux normes; et doivent aussi effectuer une surveillance aprèsvente30. La Food and Drug Administration des États-Unis a rédigé une ébauche de guide s’appliquant aux systèmes d’aide à la décision clinique qui utilisent l’IA31,32. Santé Canada envisage des exigences réglementaires pour l’IA en tant que dispositif médical, mais pas encore pour les systèmes de logiciels d’IA autonomes32. Un guide sur l’utilisation de l’IA en pratique clinique, publié en 2019 par l’Association canadienne de protection médicale, énonce que la responsabilité d’évaluer la qualité, la fonctionnalité, la fiabilité et la confidentialité des systèmes d’IA incombe au médecin34, ce qui soulève la question de savoir si l’assurance de l’efficacité, de l’imputabilité et de la confidentialité, tout en ne contrecarrant pas l’élaboration de paramètres bénéfiques en matière de santé, devrait incomber à chaque médecin.

Conclusion

Ce n’est que lorsque nous aurons l’assurance que les valeurs, l’IA, de même que la formation et les ensembles de données de validation sous-jacents sont alignés sur les entités qu’ils prétendent aider, et sont aussi larges et inclusifs que ces dernières, que leurs extrants favoriseront l’équité sociale et raciale, et une meilleure santé pour tous. La vraie question est de savoir si les responsables de la réglementation, les scientifiques spécialistes des données, les chercheurs en médecine et les cliniciens donneront la priorité à l’équité et à l’éthique.

Footnotes

Intérêts concurrents

Aucun déclaré

Les opinions exprimées dans les commentaires sont celles des auteurs. Leur publication ne signifie pas qu’elles soient sanctionnées par le Collège des médecins de famille du Canada.

Cet article a fait l’objet d’une révision par des pairs.

The English version of this article is available at https://www.cfp.ca on the table of contents for the August 2022 issue on page 570.

Références

  • 1.The technical landscape. Dans : Artificial intelligence in society. Paris, France: Organisation pour la coopération et le développement économiques; 2019. [Google Scholar]
  • 2.Obermeyer Z, Powers B, Vogeli C, Mullainathan S.. Dissecting racial bias in an algorithm used to manage the health of populations. Science 2019;366(6464):447-53. [DOI] [PubMed] [Google Scholar]
  • 3.Greene JA, Loscalzo J.. Putting the patient back together—social medicine, network medicine, and the limits of reductionism. N Engl J Med 2017;377(25):2493-9. [DOI] [PubMed] [Google Scholar]
  • 4.Geneviève LD, Martani A, Shaw D, Elger BS, Wangmo T.. Structural racism in precision medicine: leaving no one behind. BMC Med Ethics 2020;21(1):17. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 5.Chen IY, Joshi S, Ghassemi M.. Treating health disparities with artificial intelligence. Nat Med 2020;26(1):16-7. [DOI] [PubMed] [Google Scholar]
  • 6.Phillips SP, Hamberg K.. Doubly blind: a systematic review of gender in randomised controlled trials. Glob Health Action 2016;9:29597. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 7.Suresh H, Guttag JV.. A framework for understanding unintended consequences of machine learning. ArXiv 2019;1901.10002. [Google Scholar]
  • 8.Marmot M, Shipley M, Brunner E, Hemingway H.. Relative contribution of early life and adult socioeconomic factors to adult morbidity in the Whitehall II study. J Epidemiol Community Health 2001;55(5):301-7. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 9.Carter SM, Rogers W, Win KT, Frazer H, Richards B, Houssami N.. The ethical, legal and social implications of using artificial intelligence systems in breast cancer care. Breast 2020;49:25-32. Publ. en ligne du 11 oct. 2019. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 10.Benjamin R. Race after technology. Cambridge, RU: Polity Press; 2019. [Google Scholar]
  • 11.Noble SU. Algorithms of oppression: how search engines reinforce racism. New York, NY: New York University Press; 2018. [DOI] [PubMed] [Google Scholar]
  • 12.Chen IY, Szolovits P, Ghassemi M.. Can AI help reduce disparities in general medical and mental health care? AMA J Ethics 2019;21(2):E167-79. [DOI] [PubMed] [Google Scholar]
  • 13.Gianfrancesco MA, Tamang S, Yazdany J, Schmajuk G.. Potential biases in machine learning algorithms using electronic health record data. JAMA Intern Med 2018;178(11):1544-7. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 14.Dubber MD, Pasquale F, Das S.. The Oxford handbook of ethics of AI. Oxford, RU: Oxford University Press; 2020. [Google Scholar]
  • 15.Tannenbaum C, Ellis RP, Eyssel F, Zou J, Schiebinger L.. Sex and gender analysis improves science and engineering. Nature 2019;575(7781):137-46. Publ. en ligne du 6 nov. 2019. [DOI] [PubMed] [Google Scholar]
  • 16.Raji ID, Smart A, White RN, Mitchell M, Gebru T, Hutchinson Bet al. . Closing the AI accountability gap: defining an end-to-end framework for internal algorithmic auditing. ArXiv 2020;2001.00973. [Google Scholar]
  • 17.Vogt H, Green S, Ekstrøm CT, Brodersen J.. How precision medicine and screening with big data could increase overdiagnosis. BMJ 2019;366:l5270. [DOI] [PubMed] [Google Scholar]
  • 18.Zheng K, Gao J, Ngiam KY, Ooi BC, Yip WLJ.. Resolving the bias in electronic medical records. Dans : Proceedings of the 23rd ACM SIGKDD International Conference on Knowledge Discovery and Data Mining (KDD ‘17). New York, NY: Association for Computing Machinery; 2017. [Google Scholar]
  • 19.Cahn A, Shoshan A, Sagiv T, Yesharim R, Goshen R, Shalev Vet al. . Prediction of progression from pre-diabetes to diabetes: development and validation of a machine learning model. Diabetes Metab Res Rev 2020;36(2):e3252. Publ. en ligne du 14 janv. 2020. [DOI] [PubMed] [Google Scholar]
  • 20.Bae SH, Yoon KJ.. Polyp detection via imbalanced learning and discriminative feature learning. IEEE Trans Med Imaging 2015;34(11):2379-93. Publ. en ligne du 18 mai 2015. [DOI] [PubMed] [Google Scholar]
  • 21.How Canada compares: results from the Commonwealth Fund’s 2019 international health policy survey of primary care physicians. Ottawa, ON: Institut canadien d’information sur la santé; 2020. [Google Scholar]
  • 22.Grande D, Luna Marti X, Feuerstein-Simon R, Merchant RM, Asch DA, Lewson Aet al. . Health policy and privacy challenges associated with digital technology. JAMA Netw Open 2020;3(7):e208285. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 23.Sharon T. When digital health meets digital capitalism, how many common goods are at stake? Big Data Soc 2018;5(2):1-12. [Google Scholar]
  • 24.Challen R, Denny J, Pitt M, Gompels L, Edwards T, Tsaneva-Atanasova K.. Artificial intelligence, bias and clinical safety. BMJ Qual Saf 2019;28(3):231-7. Publ. en ligne du 12 janv. 2019. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 25.Krieger N, Davey Smith G.. “Bodies count,” and body counts: social epidemiology and embodying inequality. Epidemiol Rev 2004;26:92-103. [DOI] [PubMed] [Google Scholar]
  • 26.Cirillo D, Catuara-Solarz S, Morey C, Guney E, Subirats L, Mellino Set al. . Sex and gender differences and biases in artificial intelligence for biomedicine and healthcare. NPJ Digit Med 2020;3:81. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 27.Obermeyer Z, Nissan R, Stern M, Eaneff S, Bembeneck EJ, Mullainathan S.. Algorithmic bias playbook. Chicago, IL: Chicago Booth Center for Applied Artificial Intelligence; 2021. Accessible à : https://www.chicagobooth.edu/research/center-for-applied-artificial-intelligence/research/algorithmic-bias/playbook. Réf. du 14 juill. 2022. [Google Scholar]
  • 28.Smith G, Rustagi I.. Mitigating bias in artificial intelligence: an equity fluent leadership playbook. Berkeley, CA: Berkeley Haas School of Business; 2020. Accessible à : https://haas.berkeley.edu/equity/industry/playbooks/mitigating-bias-in-ai/. Réf. du 14 juill. 2022. [Google Scholar]
  • 29.Faes L, Liu X, Wagner SK, Fu DJ, Balaskas K, Sim DAet al. . A clinician’s guide to artificial intelligence: how to critically appraise machine learning studies. Transl Vis Sci Technol 2020;9(2):7. Erratum dans : Transl Vis Sci Technol 2020;9(9):33. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 30.Vollmer S, Mateen BA, Bohner G, Király FJ, Ghani R, Jonsson Pet al. . Machine learning and artificial intelligence research for patient benefit: 20 critical questions on transparency, replicability, ethics, and effectiveness. BMJ 2020;368:l6927. Erratum dans : BMJ 2020;369:m1312. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 31.Artificial intelligence and machine learning in software as a medical device. Silver Spring, MD: US Food and Drug Administration; 2021. Accessible à : https://www.fda.gov/medical-devices/software-medical-device-samd/artificial-intelligence-and-machine-learning-software-medical-device. Réf. du 11 juill. 2022. [Google Scholar]
  • 32.Clinical decision support software: draft guidance for industry and Food and Drug Administration staff. Silver Spring, MD: US Food and Drug Administration; 2019. Accessible à : https://www.fda.gov/regulatory-information/search-fda-guidance-documents/clinical-decision-support-software. Réf. du 2020 Jun 5. [Google Scholar]
  • 33.Instituts de recherche en santé du Canada, Santé Canada . Introduction of artificial intelligence and machine learning in medical devices. Ottawa, ON: gouvernement du Canada; 2019. Accessible à : https://cihr-irsc.gc.ca/e/51459.html. Réf. du 10 mai 2019. [Google Scholar]
  • 34.Can AI assist you with your clinical decisions? Looking at the benefits and risks of AI technologies in medicine. Ottawa, ON: Association canadienne de protection médicale; 2019. Accessible à : https://www.cmpa-acpm.ca/en/advice-publications/browse-articles/2019/can-ai-assist-you-with-your-clinical-decision. Réf. du 11 juill. 2022. [Google Scholar]

Articles from Canadian Family Physician are provided here courtesy of College of Family Physicians of Canada

RESOURCES