Skip to main content
Revista Médica del Instituto Mexicano del Seguro Social logoLink to Revista Médica del Instituto Mexicano del Seguro Social
. 2025 Sep-Oct;63(5):e6736. [Article in Spanish] doi: 10.5281/zenodo.16748310

Educación médica e inteligencia artificial: perspectivas y desafíos éticos

Medical education and artificial intelligence: perspectives and ethical challenges

Omar Chávez-Martínez 1,, Ragacini Leonardo Adriano 2
PMCID: PMC12377860  PMID: 40815540

Abstract

Artificial intelligence (AI) drives innovation in medical education by enabling personalized learning, instant feedback, and clinical simulations. However, it raises concerns such as loss of human skills, misinformation, and ethical issues. ChatGPT has gained prominence for its natural language generation capabilities, despite lacking real understanding. The aim of this article was to analyze the use of AI, particularly ChatGPT, in medical education, identifying its benefits, limitations, and ethical implications, which is why a qualitative integrative review was conducted through a systematic search in PubMed (2020-2025), using MeSH descriptors related to artificial intelligence and medical education. A total of 37 open-access, full-text articles in English were included. The information was analyzed and synthesized using a thematic approach, organized into 4 categories: pedagogical applications, benefits, challenges, and ethical recommendations, thanks to which we had these results: AI supports clinical simulations, personalized learning, and equitable access. Benefits include enhanced clinical reasoning and autonomous learning. Challenges remain, such as bias, data privacy, and misinformation. Five pillars for integration are proposed, along with a professional classification into consumers, translators, and developers. Digital curation emerges as a key element to ensure quality and reliability. We conclude that AI can transform medical education if implemented ethically, critically, and with a human-centered approach.

Keywords: Artificial Intelligence; Education, Medical; Professional Training; ChatGPT

Introducción

La integración de la inteligencia artificial (IA) en la educación médica se erige como un motor de innovación, expandiendo el horizonte de posibilidades para la personalización del aprendizaje, la provisión de retroalimentación inmediata y la creación de simulaciones clínicas de alto realismo. Sin embargo, este prometedor potencial se ve acompañado de retos significativos, ya que investigaciones recientes alertan sobre la posible merma de habilidades humanas fundamentales, tales como el pensamiento crítico y la empatía, especialmente si se genera una dependencia excesiva de los sistemas automatizados.1,2 El concepto de infodemia impulsada por IA fue introducido recientemente para advertir sobre el riesgo de una vasta propagación de desinformación académica.3 Asimismo, la creciente inquietud por la seguridad de la información y la ética en la formación médica refuerza la imperiosa necesidad de protocolos rigurosos, dada la creciente adopción de plataformas basadas en IA.4,5

Por ende, a pesar de las innegables ventajas de la IA, su aplicación crítica se vuelve esencial para asegurar que estas tecnologías complementen, sin comprometer, la formación médica. Una de las tecnologías basadas en IA que ha cobrado mayor relevancia en los últimos años en la educación en salud es ChatGPT,1,2,6 el cual es un modelo de lenguaje, desarrollado por la empresa OpenAI, adiestrado con extensos volúmenes de datos textuales, dotado de la capacidad de comprensión y generación de texto en lenguaje natural. Su mecanismo de análisis se fundamenta en patrones estadísticos y probabilísticos, lo que le permite emular interacciones humanas, responder interrogantes, generar explicaciones y adaptarse a diversos contextos comunicativos, si bien carece de comprensión o juicio propios.2

Enmarcado en lo anterior, el presente estudio tiene como propósito examinar el estado actual de la IA, con un énfasis particular en el uso de ChatGPT en la educación médica contemporánea, con el objetivo de analizar cómo se están integrando estas tecnologías en los procesos formativos, identificar los beneficios y limitaciones, así como explorar las implicaciones que esto conlleva para el futuro de la formación médica.

Metodología

Se realizó un estudio de revisión integrativa de la literatura científica, con enfoque cualitativo y alcance exploratorio, cuyo objetivo fue analizar el uso de la IA, particularmente la herramienta ChatGPT, en los procesos de formación y educación continua de personal médico.

La búsqueda de documentos se realizó en la base de datos PubMed y se utilizaron los descriptores controlados MeSH: "Artificial Intelligence", "Medical Education", "ChatGPT" y "Educational Technologies". Estos términos se combinaron mediante operadores booleanos para estructurar la estrategia de búsqueda sistemática detallada en el cuadro I.

Cuadro I. Estrategia de búsqueda sistemática.

Fuente: elaboración propia

Componente Detalles
Base de datos PubMed
Periodo Últimos 5 años (2020–2025)
Filtros Texto completo disponible, acceso abierto
Descriptores "Artificial Intelligence", "Medical Education", "ChatGPT", "Educational Technologies"
Operadores booleanos AND para combinar conceptos principales; OR para sinónimos dentro de cada concepto

Se incluyeron artículos publicados entre 2020 y 2025, en idioma inglés, con texto completo en acceso abierto y relevancia directa con el uso de ChatGPT en la educación médica. Se excluyeron artículos que no abordaban de forma explícita la temática central del estudio.

El proceso de selección se llevó a cabo en 3 etapas sucesivas. En primer lugar, se realizó una revisión preliminar de los títulos para descartar estudios claramente irrelevantes. Posteriormente, se procedió a la lectura de los resúmenes, a fin de evaluar su alineación temática con los objetivos del estudio. Finalmente, se llevó a cabo una lectura completa de los textos seleccionados para confirmar su pertinencia conceptual. A partir de un total de 78 documentos localizados, se seleccionaron 37 artículos que cumplían con los criterios previamente definidos.

Análisis de la información

La información extraída fue organizada, analizada y sintetizada mediante un análisis temático. Se definieron previamente 4 ejes de categorización —aplicaciones pedagógicas, beneficios, desafíos y recomendaciones éticas— con base en los objetivos del estudio y en la revisión preliminar de la literatura. Esta estructura temática permitió sistematizar los hallazgos e interpretar críticamente las contribuciones de cada artículo seleccionado (ver anexo 1).

Cabe destacar que esta revisión se centró exclusivamente en artículos de acceso abierto, lo que si bien limita la inclusión de ciertas fuentes especializadas, también permite destacar el papel de la ciencia abierta como facilitadora del acceso equitativo al conocimiento en contextos académicos y profesionales. Esta decisión metodológica, además de responder a criterios de disponibilidad, representa una oportunidad para reflexionar sobre la democratización del saber en salud mediado por IA.

Resultados

Aplicaciones de la IA en la educación médica

La aplicación de la IA en la educación médica ha sido objeto de un amplio debate y ha abarcado desde plataformas de enseñanza adaptativa hasta simulaciones clínicas.7 Azer y Guerrero (2023) resaltan el potencial de la IA para crear entornos virtuales de aprendizaje que replican situaciones clínicas reales, lo que contribuye al desarrollo de competencias en diagnóstico y toma de decisiones.8 Shi et al. (2024) complementan esta visión al proponer un proceso integral para organizar documentos bibliográficos en salud conforme al estándar FAIR (Findable, Accessible, Interoperable, Reusable), adaptable para enriquecer los recursos educativos médicos.9

Un ejemplo práctico es la utilización de algoritmos de procesamiento de imagen en la formación en radiología, lo cual facilita el desarrollo de habilidades diagnósticas en diversos escenarios clínicos. Saroha (2025) pone énfasis en la relevancia de incorporar herramientas de IA en la enseñanza médica, a fin de preparar a los estudiantes para un futuro en el que estas tecnologías desempeñarán un papel central.10 Moon et al. (2022) ilustran cómo el procesamiento del lenguaje natural (PLN) puede ser empleado para extraer datos de expedientes clínicos electrónicos y proveer así material para la construcción de casos clínicos realistas.11 Stretton et al. (2023) también demuestran la aplicación de modelos de lenguaje como ChatGPT en la generación de casos clínicos para metodologías de aprendizaje basado en problemas, lo cual enriquece los escenarios educativos con una mayor diversidad y alineación con los objetivos pedagógicos.12 Wang et al. (2022) subrayan que ChatGPT puede contribuir significativamente a la mejora del razonamiento clínico y la toma de decisiones, al simular diálogos médicos complejos y ofrecer respuestas personalizadas.13

Un ejemplo representativo del uso de modelos de lenguaje en la educación médica es el estudio de Ghorashi et al. (2023), quienes analizan el potencial de los chatbots impulsados por inteligencia artificial como herramientas interactivas de apoyo para estudiantes de medicina. Estos sistemas pueden actuar como tutores personalizados fuera del aula, generar tarjetas didácticas automáticamente, simplificar conceptos complejos y brindar retroalimentación inmediata. Asimismo, los autores proponen que los chatbots sean entrenados para crear escenarios clínicos simulados que fortalezcan el razonamiento diagnóstico, la toma de decisiones y la preparación para exámenes estandarizados como el USMLE. En un contexto clínico, los chatbots podrían convertirse en referencias rápidas durante la atención directa al paciente y ofrecer información en lenguaje natural sobre diagnósticos, interacciones farmacológicas y planes terapéuticos. No obstante, el estudio enfatiza que estas tecnologías deben usarse como herramientas asistenciales y no como sustitutos del juicio clínico ni del pensamiento crítico, y destaca la necesidad de que estén basadas en evidencia, programadas con recursos confiables y alineadas con principios éticos de la educación médica.13

Otro caso de uso con jóvenes es presentado por Boscardin et al. (2024), quienes señalan que los estudiantes han utilizado la herramienta para generar resúmenes, estructurar trabajos académicos y realizar simulaciones clínicas, fomentando así un aprendizaje más activo y autónomo.14 Como complemento de esta perspectiva, Knopp et al. (2023) exploran escenarios futuros para la integración de ChatGPT en la educación médica y destacan beneficios como la personalización de la enseñanza y el aumento de la eficiencia.15 Sin embargo, también alertan sobre posibles riesgos, como la propagación de desinformación y la pérdida de privacidad. Para mitigar estos riesgos, Shi et al. (2024) enfatizan la necesidad de una curaduría rigurosa de los datos utilizados y resaltan la importancia de la interoperabilidad y la reutilización responsable como estrategias para asegurar la calidad y la seguridad de la información mediada por la herramienta.9

Estas aplicaciones amplían el alcance de la enseñanza, especialmente en contextos con acceso limitado a tutores. No obstante, Mondal (2025) advierte sobre los riesgos éticos y prácticos en el uso de modelos como ChatGPT y defiende la comprensión de sus limitaciones y la salvaguarda de la integridad académica, además de que propone directrices para un uso responsable, incluida la verificación de la información generada y la transparencia en el empleo de estas herramientas.16 Grabb (2023) ilustra estas limitaciones al reportar el uso de ChatGPT en estudios sobre catatonia, y señala errores iniciales en las clasificaciones del Diagnostic and Statistical Manual of Mental Disorders (DSM-III),17 que solo fueron corregidos tras un cuestionamiento directo; subraya, asimismo, la importancia de la supervisión crítica y la validación especializada. Xu et al. (2024) enfatizan la necesidad de equilibrar el aprendizaje personalizado con las interacciones presenciales para prevenir la pérdida de habilidades comunicativas.18 Moon et al. (2022) también advierten que las deficiencias en los expedientes clínicos electrónicos pueden dar lugar a clasificaciones incorrectas, lo que evidencia la relevancia de la validación humana.11 Jackson et al. (2024) informan que los estudiantes perciben la IA como un recurso valioso para reducir errores clínicos y potenciar la precisión diagnóstica.4

Por otro lado, las herramientas basadas en IA, integradas en los expedientes clínicos electrónicos, facilitan la detección temprana de condiciones críticas, como la sepsis. Sin embargo, persisten preocupaciones sobre la deshumanización del cuidado y la posible merma de habilidades interpersonales. Saroha (2025) sostiene que, a pesar de su potencial para mejorar la eficiencia, la IA no debe suplantar competencias humanas como la empatía y la comunicación. Los currículos, según estos autores, deben equilibrar la enseñanza técnica con el desarrollo de dichas habilidades.10 Preiksaitis et al. (2023) refuerzan esta idea al destacar la importancia de estudiar las interacciones entre humanos e IA, y sugieren que la tecnología complemente, y no reemplace, las relaciones humanas.19

Para ilustrar lo anterior, con las aportaciones de Saroha10 se proponen 5 pilares fundamentales para la integración de la IA en la educación médica (figura 1).

Figura 1. Cinco pilares para la integración de IA en la educación médica.

Figura 1

Fuente: elaboración propia a partir del trabajo de Saroha10

Estos pilares ponen de manifiesto la necesidad de un enfoque multifacético para preparar a los estudiantes ante un entorno digitalizado. No obstante, el autor alerta sobre la falta de consenso respecto a cómo implementar estos contenidos, lo que indica la necesidad de más estudios y directrices claras. Gilson et al. (2023) complementan esta idea al demostrar que ChatGPT puede alcanzar un rendimiento comparable al de estudiantes de tercer año en exámenes como el United States Medical Licensing Examination (USMLE), si bien su capacidad para justificar respuestas incorrectas exige la atención de los docentes.20 Khan et al. (2023) también reconocen el potencial de ChatGPT, pero subrayan la necesidad de una revisión minuciosa debido a la posible existencia de sesgos en los datos de entrenamiento.21 Shi et al. (2024) resaltan el papel de los sistemas estandarizados de lenguaje, como Medical Subject Headings (MeSH) y Systematized Nomenclature of Medicine Clinical Terms (SNOMED CT), en la mejora de la confiabilidad de los datos utilizados por la IA.9

En este mismo orden de ideas, Mondal (2025) propone 8 atributos para el uso ético de la IA en la educación médica, organizados en 2 ejes principales: uso responsable y ético, y optimización para el aprendizaje y la accesibilidad (cuadro II).16

Cuadro II. Atributos para el uso ético de la IA en la educación médica.

Fuente: elaboración propia con base en el trabajo de Mondal16

Ética y principios Prácticas educacionales Gestión técnica
Uso responsable y ético Comprender las limitaciones Manipulación ética de datos
Mantener la integridad Mantener la confianza
Optimización para aprendizaje y accesibilidad Usar como complemento Garantizar accesibilidad
Promover retroalimentación Proporcionar entrenamiento

Lo anterior enfatiza que la evaluación de la autenticidad de los trabajos debe centrarse en la calidad del contenido y no en la detección de IA. Esta perspectiva se alinea con la de Saroha (2025), quien resalta la importancia de establecer criterios claros para evaluar la eficacia de las herramientas de IA.10 Peacock et al. (2023) presentan prácticas éticas para el uso de ChatGPT, como la creación de currículos personalizados con supervisión humana.22 Wang et al. (2022) abogan por la accesibilidad y la inclusión en el diseño de los chatbots y aseguran que las herramientas satisfagan las necesidades de diversos públicos.13

En este sentido, la IA ofrece oportunidades significativas para la educación médica, pero su adopción debe ser meticulosa. La integración de las recomendaciones de Saroha (2025) y Mondal (2025) conforma una matriz (cuadro III) que puede guiar la implementación ética y eficaz en los planes de estudio médicos.10,16

Cuadro III. Matriz integradora de principios éticos, pedagógicos y técnicos en la educación médica mediada por IA .

Fuente: elaboración propia a partir de los trabajos de Saroha (2025)10 y Mondal (2025)16

Dimensión Principios de Saroha (2025) Atributos de Mondal (2025) Sinergia de las ideas de los autores
Técnico-operacional Aplicación clínica responsable Manipulación ética de datos y proporcionar entrenamiento Competencia digital y gobernanza
Ético-legal Ética y gobernanza de datos Uso responsable y ético para mantener la confianza Transparencia en el uso de datos
Pedagógico Desarrollo de habilidades humanas Usar como complemento y promover retroalimentación IA como herramienta, no como fin
Crítico-evaluativo Alfabetización digital y técnica Entender las limitaciones y mantener la integridad Verificación de sesgos y validación humana
Accesibilidad Innovación y aprendizaje experiencial Garantizar accesibilidad y optimización para aprendizaje Diseño universal e inclusión

Por otro lado, Stretton et al. (2023) y Preiksaitis et al. (2023) reiteran que el rol del docente como mediador crítico es indispensable, asegurando que la IA complemente, mas no reemplace, la formación integral de los futuros profesionales.12,19 Kiyak et al. (2024) enfatizan la relevancia de revisar meticulosamente las preguntas generadas por IA antes de utilizarlas en evaluaciones.23 Asimismo, Moon et al. (2022) y Shi et al. (2024) reiteran la necesidad de mitigar sesgos y deficiencias de información para garantizar la fiabilidad de las herramientas educativas basadas en IA.9,11

En este contexto, la personalización de la enseñanza, la retroalimentación automatizada y el fomento de la equidad educativa son algunos de los beneficios más destacados. Rincón et al. (2025) demuestran que las plataformas inteligentes pueden trazar el desempeño individual de los estudiantes y sugerir contenidos específicos según sus necesidades, lo que aumenta el compromiso y la eficacia, especialmente en contextos de educación a distancia.24

La Harvard Medical School (HMS) ilustra el progreso en esta área. Desde 2024, la institución ha incorporado la IA en su plan de estudios y ofrece un curso de IA aplicada a la salud en el programa Health Sciences and Technology (HST) y un doctorado enfocado en la intersección entre IA y medicina.18 Para 2025, la HMS tiene previsto lanzar un tutor automatizado basado en IA generativa para simular consultas clínicas y proporcionar retroalimentación en tiempo real. Esta iniciativa se alinea con las propuestas de Xu et al. (2024), quienes abogan por modelos "asistidos por IA" como estrategia para democratizar el acceso a contenido de vanguardia.18 Otra aplicación prometedora es la retroalimentación inmediata. Herramientas como ChatGPT pueden corregir redacciones clínicas, proponer preguntas y simular consultas. Boscardin et al. (2024) señalan que esto es particularmente útil en instituciones con escasez de profesores.14 Un ejemplo es la plataforma Clinical Mind AI de la Universidad de Stanford, que simula interacciones médico-paciente con retorno en tiempo real y se encuentra actualmente en fase de prueba con 100 instructores en Estados Unidos.

Según Jackson et al. (2024), la IA puede promover la equidad en el acceso a la formación médica, toda vez que los estudiantes en regiones remotas pueden acceder a contenidos actualizados y participar en actividades colaborativas virtuales.4 Como ejemplo de lo anterior, la Universidad de Melbourne también ha adoptado principios para el uso responsable de la IA, y ha garantizado la accesibilidad y prácticas inclusivas, lo que lleva a la discusión sobre la necesidad de comités de ética y de formación docente que orienten el uso de la IA de forma complementaria al juicio clínico humano.25

En síntesis, la IA ya es una realidad en instituciones de prestigio como Harvard, Melbourne y Stanford, donde ha comenzado a transformar la educación médica mediante una mayor personalización del aprendizaje, incremento en la eficacia y fortalecimiento de la inclusión. Sin embargo, su implementación demanda directrices éticas sólidas que garanticen que los avances tecnológicos no comprometan la calidad formativa ni la esencial relación médico-paciente.

Sin embargo, esta integración presenta una paradoja: si bien la IA aporta avances en la personalización y eficiencia educativa, también exige un equilibrio para no comprometer competencias fundamentales, como la empatía y el pensamiento clínico independiente.18 Se advierte también que una dependencia excesiva de las herramientas automatizadas podría debilitar el razonamiento autónomo, lo que refuerza la necesidad de establecer directrices que armonicen la innovación con una formación humanística.10 Así, instituciones como Harvard, Melbourne, Stanford y College London demuestran el potencial transformador de la IA, siempre y cuando su adopción se acompañe de estructuras éticas y una integración crítica en el proceso de aprendizaje. Por ejemplo, los simuladores basados en IA enriquecen el entrenamiento práctico, pero deben combinarse con experiencias clínicas reales para preservar la humanización del cuidado.

Igualmente, es esencial invertir en la formación docente para el uso crítico y ético de estas herramientas.25 El consenso entre los autores es que la IA es inevitable y beneficiosa, pero su eficacia depende de una implementación responsable, anclada en los valores fundamentales de la medicina. El equilibrio reside en adoptar la IA como un complemento, y no como un sustituto de la enseñanza tradicional.

Desafíos y consideraciones éticas de usar IA en la educación médica

Moritz et al. (2023) resaltan que la IA tiene la capacidad de mejorar la calidad lingüística de los casos virtuales y generar escenarios complejos con elementos de storytelling, lo que enriquece el aprendizaje.26 Un ejemplo práctico de esta aplicación se observa en la plataforma OSCE-AI, diseñada para simular exámenes clínicos objetivos estructurados, donde la IA crea y personaliza escenarios clínicos interactivos basados en el progreso del estudiante. Además, la IA, especialmente los modelos generativos de lenguaje, puede funcionar como una herramienta interactiva que apoya a los estudiantes en el análisis de literatura científica, el desarrollo del pensamiento crítico y la formulación de preguntas clínicas. Estas capacidades contribuyen al fortalecimiento de competencias clave para la toma de decisiones informadas, al facilitar el acceso, la síntesis y la comprensión de información médica actualizada.27 Asimismo, AnkiGPT, una herramienta que genera tarjetas de memorización interactivas con base en contenido médico, amplifica el acceso al aprendizaje activo. Estos avances son corroborados por Bhuyan et al. (2025), quienes destacan el papel de la IA generativa en la mejora de la educación médica mediante simulaciones realistas y personalizadas que permiten a los alumnos adquirir experiencia teórica y práctica sin depender de pacientes reales.28

Liaw et al. (2020) proponen un conjunto de recomendaciones que abarcan desde el consentimiento informado y la gobernanza de los datos hasta la implementación de marcos éticos aplicados al ciclo de vida de los datos. Estas directrices son cruciales para asegurar que los datos generados y utilizados por las herramientas de IA mantengan su integridad, seguridad y relevancia clínica a lo largo del tiempo.29 Para sistematizar este uso, Ng et al. (2023) propusieron un currículo estructurado que clasifica a los profesionales de la salud en 3 niveles: consumidores (usuarios de la IA), traductores (quienes interpretan y validan las herramientas de IA) y desarrolladores (responsables de crear soluciones técnicas) (cuadro IV).27

Cuadro IV. Roles, responsabilidades y competencias en el ecosistema de la IA aplicada a la salud .

Fuente: elaboración propia, adaptado de Ng et al. (2023)27

Nivel Papel Responsabilidades Habilidades necesarias
Consumidores Usuarios de la IA Aplicar herramientas de IA en la práctica clínica (ej.: diagnóstico asistido por IA) Alfabetización digital, interpretación de resultados
Traductores Intermediarios técnico-clínicos Validar, adaptar y comunicar soluciones de IA para equipos clínicos Conocimiento en IA/expertise clínico
Desarrolladores Creadores técnicos Diseñar e implementar algoritmos específicos para necesidades en salud Programación, ciencia de datos, dominio clínico

Este enfoque tiene como finalidad garantizar una integración ética y eficaz de la IA con los principios de la medicina basada en la evidencia, además de fomentar un compromiso más crítico y activo de los profesionales con estas tecnologías. Un ejemplo aplicado de este modelo se observa en el AI in Medicine Bootcamp de la Universidad de Stanford, el cual capacita a estudiantes y residentes para comprender y desarrollar soluciones de IA, y promueve así una formación interdisciplinaria. Jeyaraman et al. (2023) complementan esta discusión al enfatizar la necesidad de transparencia y explicabilidad en los sistemas de IA, especialmente en contextos de alto riesgo, como la toma de decisiones clínicas, en la que la comprensión de los procesos algorítmicos es esencial para garantizar la confianza y la seguridad.30

También se alerta sobre el riesgo de que el sesgo algorítmico replique desigualdades estructurales y afecte negativamente la formación de los futuros profesionales de la salud. Datos mal curados o desbalanceados, según ambos estudios, pueden generar inferencias erróneas y prácticas pedagógicas sesgadas, comprometiendo la calidad de la enseñanza.8,26 Por ejemplo, un análisis del algoritmo de diagnóstico DermAssist de Google Health evidenció un menor acierto en la identificación de enfermedades dermatológicas en pieles negras, lo que subraya la necesidad de bases de datos representativas e inclusivas. Bhuyan et al. (2025) también destacan la generación de datos sintéticos por medio de redes generativas adversarias (Generative Adversarial Networks: GAN).28 Las GAN se denominan "adversarias" debido a que operan con 2 redes neuronales en competencia: la generadora, que crea datos sintéticos a partir de muestras reales, y la discriminadora, que intenta identificar si esos datos son originales o artificiales. Este proceso ocurre en ciclos iterativos, donde la red generadora perfecciona sus salidas para engañar a la discriminadora, mientras esta se vuelve cada vez más precisa en sus clasificaciones. El objetivo final es lograr un equilibrio en el que los datos sintéticos sean indistinguibles de los reales.28

La preocupación por la fiabilidad de la IA también es acentuada por Jackson et al. (2024), quienes en un estudio demostraron que aproximadamente el 16% de las referencias citadas por ChatGPT no pudieron ser localizadas en bases de datos confiables, lo que indica un riesgo de replicación de información falsa o descontextualizada.4 Esto fue corroborado en pruebas realizadas por personal clínico en el foro MedTwitter, donde verificaron la fabricación de referencias científicas "inventadas" en las respuestas de ChatGPT, lo que generó discusiones sobre la importancia de la verificación bibliográfica. De Angelis et al. (2023) amplían esta discusión al introducir el concepto de "infodemia impulsada por IA", con el que alertan sobre el riesgo de que modelos como ChatGPT sean utilizados para producir artículos científicos falsos o desinformación a gran escala, especialmente en revistas depredadoras que no realizan verificaciones de calidad.3

La privacidad de los datos estudiantiles también se erige como una cuestión central. Ng et al. (2023) y Azer y Guerrero (2023) subrayan que el almacenamiento y procesamiento de información personal en sistemas basados en IA demandan protocolos de seguridad y una gobernanza transparente.8,27 Esta protección es esencial para salvaguardar la integridad de los datos de los estudiantes y mantener la confianza institucional en el uso de estas tecnologías. En este sentido, Liaw et al. (2020) advierten sobre los riesgos asociados al proceso de extracción, transformación y carga de datos (ETL), y enfatizan que etapas mal ejecutadas pueden comprometer la calidad de los datos y exponer a los usuarios a violaciones éticas y técnicas. Destacan que la atención a los riesgos en estas fases es crucial para la protección de la privacidad y la precisión de la información.29

La preocupación por la confianza institucional y por la gobernanza de los datos se ve reforzada por la noción de que los sistemas integrados de salud requieren, además de la interoperabilidad técnica, un compromiso ético con la seguridad y el uso adecuado de la información. Liaw et al. (2020) destacan que las prácticas sostenibles de recopilación y curaduría de datos deben considerar el consentimiento continuo, la transparencia y la construcción de confianza con los usuarios, aspectos esenciales también en el contexto educativo.29 Jeyaraman et al. (2023) proponen soluciones técnicas avanzadas para proteger la privacidad en aplicaciones de salud, destacando la criptografía homomórfica, que permite procesar datos cifrados sin necesidad de descifrarlos, y la computación multipartidista segura, donde múltiples partes analizan datos colaborativamente sin compartir información bruta.30 Estos enfoques evitan la exposición sensible durante los análisis, pero los autores resaltan que su eficacia depende de la combinación con políticas claras de gobernanza y la concientización de los usuarios sobre los riesgos y beneficios.

La superación de estos desafíos depende, en gran medida, de la formación docente. Más allá de la capacitación técnica, la propuesta de Liaw et al. (2020) sugiere la adopción de comités de ética y gestión de riesgos específicamente entrenados para evaluar el impacto ético de las aplicaciones de IA, desde la recopilación hasta la aplicación de los datos.29 Esto incluye la exigencia de algoritmos que garanticen la comprensibilidad de las decisiones tomadas por sistemas inteligentes, especialmente en contextos de alto riesgo como el de la salud.29 Tanto Ng et al. (2023) como Rincón et al. (2025) enfatizan que muchos docentes aún desconocen el funcionamiento de estas tecnologías, lo que limita su aplicación pedagógica.24,27

El desarrollo de políticas institucionales que incentiven la capacitación docente también es señalado como un paso fundamental para la adopción ética y eficaz de la IA en los planes de estudio médicos. Un ejemplo de ello es el programa Faculty AI Literacy de la Universidad de Toronto, que ofrece formación continua para profesores del área de la salud con enfoque en la interpretación crítica y el uso didáctico de herramientas de IA. Bhuyan et al. (2025) complementan esta visión al destacar el papel de la IA generativa en la mejora de la educación médica mediante simulaciones realistas y personalizadas, que pueden adaptarse a las necesidades individuales de los alumnos, siempre y cuando se integren de forma responsable y supervisada.28

En este sentido, la IA tiene un inmenso potencial para transformar la educación médica, pero su integración exige responsabilidad, formación continua y un diálogo interdisciplinario. La adopción de un marco ético aplicado al ciclo de vida de los datos contribuye a la consolidación de prácticas responsables y sostenibles en la aplicación de la IA.29 La integración de estos principios en la formación médica garantiza no solo la excelencia técnica, sino también el fortalecimiento de valores como la autonomía del paciente, la justicia y la no maleficencia, que deben guiar la actuación profesional en salud.29 La propuesta de un currículo estructurado, combinada con la atención a los riesgos de sesgo, privacidad y confiabilidad,27 revela un camino posible para hacer de la IA una aliada en la formación de profesionales competentes y éticos.4,8,20,26

La colaboración entre docentes, desarrolladores, investigadores e instituciones será crucial para enfrentar las barreras y maximizar los beneficios de esta tecnología transformadora. Es imperativo que las políticas públicas y las regulaciones acompañen el ritmo de avance de estas tecnologías, garantizando que su uso en la educación médica se rija por principios éticos y por el compromiso con la excelencia en el cuidado de la salud.3

Curaduría digital como pilar de la educación en salud apoyada en IA

La curaduría digital ha comenzado a fortalecerse como un pilar para afrontar los desafíos éticos y técnicos que surgen de la integración de la IA en la enseñanza médica. Ante cuestiones como el sesgo algorítmico, la desinformación y la fragmentación de datos, la curaduría de la información mediada por IA ofrece mecanismos para asegurar que el conocimiento transmitido sea fiable, actualizado y contextualizado. La adopción de modelos de lenguaje específicos para dominios médicos, como el GPT4DFCI-RAG,31 demuestra cómo las bases de datos meticulosamente curadas —en este caso, con 650 publicaciones en patología digital— reducen drásticamente las "alucinaciones" o "invenciones" y proporcionan respuestas referenciadas. Esto contrasta con el rendimiento de modelos generalistas, como el ChatGPT-4, y subraya la importancia de la especialización y la curaduría de la información médica que alimenta la IA. No obstante, la eficacia de estos modelos está directamente ligada a la calidad y a la continua actualización de los datos. Arora et al. (2021) destacan que la transparencia algorítmica y la mitigación de sesgos son condiciones esenciales para la fiabilidad de las herramientas de IA, lo que, por ende, exige una supervisión humana constante.32 En este sentido, la interoperabilidad de la información, es decir, la capacidad de integrar diferentes sistemas y formatos de datos es, en este sentido, un criterio indispensable para que los estudiantes puedan validar y confiar en la información recibida.31

Ante esta realidad, soluciones tecnológicas como el Personal Health Knowledge Graph (PHKG), presentado por De Zegher et al. (2024), ejemplifican cómo la curaduría automatizada puede transformar datos médicos fragmentados en redes semánticas organizadas. Al integrar información de expedientes, exámenes clínicos y dispositivos wearables, el PHKG mapea conexiones entre síntomas, diagnósticos y tratamientos, y facilita la construcción de casos clínicos ricos, rastreables y adaptables al proceso de enseñanza-aprendizaje. La curaduría, en este contexto, no solo filtra y organiza datos, sino que la estructura de manera inteligible y relevante para la práctica pedagógica. La protección de datos sensibles, a su vez, constituye un eje fundamental de la curaduría digital en entornos educativos.33

En su revisión, Hernández-Rincón et al. (2025) destacan que la inteligencia artificial se ha incorporado en la educación médica mediante sistemas capaces de generar contenido educativo, formular preguntas personalizadas, ofrecer retroalimentación inmediata y apoyar la toma de decisiones clínicas. Estas aplicaciones no solo optimizan el proceso de enseñanza-aprendizaje, sino que también requieren una curaduría digital cuidadosa para garantizar la calidad, precisión y pertinencia de los recursos utilizados en entornos académicos. Además, subrayan la importancia de establecer marcos éticos y regulatorios que acompañen esta integración tecnológica.34

A pesar de sus ventajas, la fragmentación de los datos de salud sigue siendo uno de los principales desafíos para los sistemas basados en IA. En este contexto, la curaduría digital se presenta como una solución capaz de identificar y corregir inconsistencias en grandes volúmenes de datos. El pipeline Search-based Geographic Metadata Curation (SGMC), propuesto por Zhao et al. (2023), promueve la estandarización de metadatos en bancos genómicos, y garantiza cohesión y calidad en la información utilizada por los modelos de IA.35 En el ámbito educativo, tales prácticas tienen un impacto directo en la organización y calidad de los contenidos a los que acceden los estudiantes. Lamurias et al. (2021) demuestran cómo los algoritmos de clasificación pueden automatizar la selección de artículos científicos relevantes, optimizando el tiempo de los docentes y garantizando el acceso a fuentes calificadas.36 Aun así, los autores enfatizan la necesidad de una supervisión humana continua, principio que concuerda con advertencias que resaltan los riesgos de una dependencia excesiva de datos sintéticos y la ausencia de validación crítica.28

Otro aspecto clave en la curaduría digital es la necesidad de adaptar las herramientas de inteligencia artificial a contextos educativos diversos. Hernández-Rincón et al. (2025) evidencian que la implementación efectiva de IA en la educación médica requiere considerar las condiciones locales, incluyendo la infraestructura tecnológica, los recursos institucionales y la formación del profesorado. Subrayan que la flexibilidad, la interoperabilidad y el uso de estándares abiertos son esenciales para que estas tecnologías sean accesibles y pertinentes en distintos entornos académicos.34 La inclusión de gobiernos y organizaciones locales en la implementación de estas tecnologías refuerza la importancia de la sostenibilidad y la equidad en el acceso al conocimiento médico. De esta forma, la curaduría digital, cuando se alía con marcos éticos y se adapta a la realidad regional, no solo responde a los desafíos de la IA (sesgos, desinformación, privacidad), sino que también potencia la construcción de ecosistemas educativos más sólidos, inclusivos y alineados con las necesidades contemporáneas. Soluciones como el GPT4DFCI-RAG, el PHKG, el SGMC y la DHP apuntan a un futuro en el que la curaduría digital aplicada junto con la IA, además de abarcar cuestiones técnicas, también pondrán en relieve problemáticas sobre política y pedagógica que requieren un proceso de curaduría digital revisado por especialistas.

Discusión

Este trabajo aborda exclusivamente el uso de la IA en el ámbito de la enseñanza en medicina, entendida como la formación inicial y continua de médicos, diferenciándola de la educación para la salud dirigida a la población general. Esta revisión integrativa permitió identificar hallazgos relevantes sobre el uso de la IA en la educación médica, y evidenció su potencial transformador en este ámbito. Sus aplicaciones abarcan desde la optimización de procesos diagnósticos hasta el análisis predictivo de datos epidemiológicos, lo que abre nuevas posibilidades para el fortalecimiento de la formación del personal de salud.2,3 No obstante, sus limitaciones, como la incapacidad para el razonamiento fisiopatológico y los riesgos de sesgo algorítmico,1 exigen cautela, especialmente cuando se utiliza de forma aislada. Otra preocupación latente es la posibilidad de que la IA perpetúe sesgos presentes en los datos de entrenamiento, como la discriminación racial o de género, ya que estudios recientes han demostrado que ciertos algoritmos tienden a recomendar con mayor frecuencia la realización de exámenes a pacientes de piel blanca en comparación con aquellos de piel negra, aun cuando presentan síntomas clínicos idénticos.1 Por otro lado, en lo que respecta a aspectos éticos, como la privacidad de los datos y la responsabilidad en las decisiones clínicas automatizadas, se ha señalado la necesidad urgente de establecer una regulación estricta.6

La incorporación de la IA en los programas de estudio en medicina se encuentra aún en una fase incipiente. A pesar del manifiesto interés de los estudiantes por adquirir conocimientos sobre estas tecnologías, la mayoría no recibe una formación formal durante su etapa de pregrado.2 De hecho, un estudio que incluyó a 3018 estudiantes de medicina reveló que apenas el 6% se sentía preparado para explicar los riesgos y beneficios de la IA a sus futuros pacientes.2 Para subsanar estas deficiencias, los expertos recomiendan la inclusión de módulos específicos sobre IA, que abarquen desde los principios fundamentales de la ciencia de datos hasta sus implicaciones éticas y legales.6

Para realizar lo anterior, se recomienda que el enfoque pedagógico sea longitudinal e integre teoría y práctica mediante actividades y aprendizaje basado en la resolución de problemas.7 Así, la IA se comienza a perfilar como una herramienta prometedora para la educación médica, pero su implementación requiere prudencia para armonizar el uso de estas tecnologías con la preservación de las habilidades clínicas tradicionales, garantizando que los futuros médicos sean capaces de validar e interpretar críticamente la información generada por algoritmos.1 A pesar de ello, resulta imperativo el desarrollo de directrices curriculares que preparen a los estudiantes para los desafíos éticos y técnicos que plantea la IA, y aseguren una formación médica acorde con las exigencias del siglo XXI.6,7

Los resultados sugieren que la IA ofrece oportunidades significativas para la educación médica, tales como la personalización del aprendizaje, la retroalimentación inmediata y las simulaciones clínicas, lo que contribuye a la eficacia del proceso formativo y a la equidad en el acceso a la enseñanza. Un ejemplo destacado es el uso de chatbots impulsados por inteligencia artificial como tutores interactivos que pueden generar tarjetas didácticas, simplificar conceptos complejos y presentar escenarios clínicos personalizados para fortalecer el razonamiento diagnóstico.13 Además, la IA generativa ha sido utilizada para crear modelos anatómicos dinámicos e interactivos, lo cual les brinde a los estudiantes experiencias tanto teóricas como prácticas, y les facilite el aprendizaje autónomo a través de recursos adaptativos y basados en evidencia.37

Asimismo, se identificaron retos significativos asociados al uso de la IA, entre los que destacan los sesgos algorítmicos, las preocupaciones sobre la privacidad de los datos y la posible disminución de habilidades humanas esenciales, como la empatía y el pensamiento crítico. Los resultados de esta revisión advierten que los algoritmos pueden reproducir y amplificar sesgos presentes en los datos de entrenamiento, perpetuando formas de discriminación racial o de género. Otro riesgo emergente es la propagación de desinformación, conocida como "infodemia impulsada por IA", derivada de la generación de contenidos falsos o descontextualizados por modelos de lenguaje. Además, se ha cuestionado la fiabilidad de la información producida por estas herramientas, dado que una proporción considerable de las referencias citadas por sistemas como ChatGPT no resulta verificable.

El uso educativo de esta tecnología en los planes de estudio médicos aún se encuentra en una etapa incipiente. Aunque la mayoría de los estudiantes de medicina manifiestan interés por adquirir conocimientos sobre esta tecnología, pocos reciben formación formal durante su trayectoria académica. Para subsanar estas carencias, se recomienda incluir módulos específicos que aborden desde los fundamentos de la ciencia de datos hasta sus implicaciones éticas y legales. Del mismo modo, la capacitación docente resulta crucial, ya que muchos profesores aún carecen del conocimiento necesario para integrar estas tecnologías de forma crítica y pedagógicamente adecuada.

A pesar del interés manifestado por los estudiantes y del potencial transformador de la IA en la educación en medicina, existen barreras institucionales que dificultan su integración efectiva en los planes de estudio. Entre las más relevantes se encuentran la resistencia al cambio por parte del profesorado, la falta de políticas claras sobre el uso ético y pedagógico de estas tecnologías, y la escasa inversión en infraestructura digital educativa. Estas limitaciones generan una brecha entre la disponibilidad de herramientas basadas en IA y su aplicación real en las aulas, lo que refuerza la necesidad de diseñar estrategias institucionales que promuevan la alfabetización digital docente, el desarrollo de lineamientos normativos y la actualización permanente de contenidos curriculares en sintonía con los avances tecnológicos.6,7

Los hallazgos también subrayan la importancia de equilibrar la innovación tecnológica con la preservación de los valores fundamentales de la medicina. La implementación de la IA en la educación médica requiere de directrices éticas y pedagógicas sólidas, así como de la capacitación continua del profesorado, a fin de asegurar que estas tecnologías actúen como un complemento y no como un reemplazo de las prácticas formativas tradicionales. En este contexto, la curaduría digital se perfila como un pilar fundamental para garantizar la confiabilidad, actualización y contextualización del conocimiento mediado por IA.

Entonces, la curaduría digital no solo implica seleccionar contenidos pertinentes, sino también asegurar su interoperabilidad con las plataformas educativas institucionales, garantizando una integración fluida en entornos virtuales de aprendizaje. Esta dimensión técnica cobra especial relevancia cuando se utilizan modelos de IA generativa que requieren conexión con bases de datos clínicas, bibliotecas digitales o sistemas de gestión académica. Asimismo, la validación rigurosa de las fuentes utilizadas en la generación de contenidos es indispensable para evitar la diseminación de información errónea o desactualizada. La combinación de interoperabilidad, trazabilidad y evaluación crítica del material mediado por IA fortalece la confianza del profesorado y el estudiantado, y posiciona a la curaduría digital como un componente esencial en la adopción ética y efectiva de estas herramientas.16,37

Soluciones emergentes, como los modelos de lenguaje especializados en dominios médicos y arquitecturas como Federated Learning, demuestran el potencial de la curaduría digital para mitigar sesgos y proteger la privacidad de los datos sensibles. Estos hallazgos evidencian que la IA, incluido ChatGPT, posee un potencial transformador para la educación médica, al favorecer la personalización del aprendizaje,37 la retroalimentación inmediata y el desarrollo de simulaciones clínicas. No obstante, su adopción exige un enfoque crítico, ético y supervisado para reducir riesgos asociados, como los sesgos algorítmicos, la desinformación y las vulneraciones a la privacidad.27

En este panorama, la alfabetización informacional y digital emerge como una competencia transversal indispensable para el uso crítico de herramientas basadas en inteligencia artificial. La capacidad de los estudiantes y docentes para identificar fuentes confiables, interpretar datos generados por algoritmos y reconocer sesgos inherentes en los modelos se vuelve crucial para evitar el uso acrítico de estas tecnologías. Esta competencia permite no solo mitigar riesgos como la desinformación o la reproducción de prejuicios algorítmicos, sino también maximizar el potencial educativo de la IA, al convertir a los usuarios en agentes activos que interactúan con los sistemas de manera reflexiva y ética.27

El éxito de la integración de la IA en la formación médica también dependerá de la formulación de políticas claras, la actualización de los planes de estudio y la capacitación docente. Estas acciones deben orientarse a lograr un equilibrio entre el avance tecnológico y la preservación de las habilidades humanas y los valores fundamentales de la práctica médica. La interpretación de los hallazgos de esta revisión pone de relieve la complejidad inherente a dicha integración en el ámbito educativo.

La capacidad de herramientas como ChatGPT para simular diálogos clínicos complejos y proporcionar respuestas personalizadas, así como su rendimiento comparable al de estudiantes en exámenes como el USMLE, evidencian un notable potencial para enriquecer el razonamiento clínico y la toma de decisiones. No obstante, la presencia de "alucinaciones", invenciones o justificaciones erróneas, junto con la necesidad de revisión especializada debido a sesgos en los datos de entrenamiento, subraya la importancia de la supervisión humana y del análisis crítico de la información generada por estos sistemas. De ahí que se reafirme la recomendación de utilizar la IA como un complemento, y no como un sustituto, de las prácticas pedagógicas tradicionales y de la interacción humana significativa.

Las implicaciones teóricas derivadas sugieren una redefinición del rol del educador, quien pasa a desempeñar el papel de mediador crítico en el uso de herramientas de IA, y garantiza que su aplicación respalde una formación integral y ética de los futuros profesionales de la salud. En este sentido, la propuesta de Saroha (2025) y Mondal (2025) sobre una matriz integrada para el uso ético de la IA en la educación médica representa una contribución valiosa, al incorporar competencias digitales, gobernanza de datos, cumplimiento normativo (compliance) y principios de transparencia, todos ellos esenciales en un entorno educativo cada vez más digitalizado.10,16

Además, la discusión sobre la protección de datos sensibles y la aplicación de tecnologías como la criptografía homomórfica y la computación multipartita segura subraya la urgencia de establecer políticas sólidas de gobernanza de datos. Asimismo, se destaca la importancia de promover la concientización entre los usuarios respecto a los riesgos y beneficios del uso de plataformas de IA en entornos educativos.

Entre las principales limitaciones de esta revisión se encuentra el sesgo de selección, ya que solo se consideraron artículos de acceso abierto. Además, la vertiginosa evolución del campo de la IA implica que algunos avances recientes podrían no haber sido plenamente capturados. La heterogeneidad de los estudios revisados, aunque enriquecedora, dificulta la estandarización de conclusiones y la comparación directa de resultados.

Como líneas futuras de investigación, se recomienda profundizar en estudios de caso que analicen la implementación práctica de la IA en los planes de estudio médicos, con el objetivo de evaluar su impacto a largo plazo en el desarrollo de competencias clínicas. Asimismo, se propone el diseño de marcos específicos para valorar la calidad ética, pedagógica y contextualizada de las herramientas basadas en IA utilizadas en la educación médica.

La colaboración interdisciplinaria entre docentes, desarrolladores e investigadores será clave para superar las barreras existentes y maximizar los beneficios de esta tecnología transformadora. Para ello, resulta imprescindible que las políticas públicas y las regulaciones acompañen el ritmo de los avances tecnológicos y guíen el uso de la IA en la formación médica bajo principios éticos y con un firme compromiso hacia la excelencia en el cuidado humano.

Finalmente, la integración de la IA en la educación médica también plantea la necesidad de repensar los sistemas de evaluación del aprendizaje. Herramientas como los análisis automatizados de desempeño, la retroalimentación basada en IA o las rúbricas digitales adaptativas ofrecen oportunidades para una evaluación más personalizada y continua. No obstante, su uso requiere del juicio experto del docente para contextualizar los resultados, evitar interpretaciones erróneas y garantizar la equidad en los procesos evaluativos. En este sentido, el educador no solo debe apropiarse de las tecnologías, sino asumir un papel activo como mediador crítico, capaz de traducir los datos generados por la IA en decisiones pedagógicas que respeten la complejidad del aprendizaje humano.10,16

Conclusiones

Este estudio subraya el papel emergente de la inteligencia artificial como catalizador de transformación pedagógica en la educación médica. La evidencia revisada muestra que estas tecnologías están reconfigurando los enfoques tradicionales de enseñanza al permitir la personalización del aprendizaje, la retroalimentación automatizada y la simulación interactiva de escenarios clínicos. Si bien se reconocen aportes significativos, como la ampliación del acceso equitativo y el fortalecimiento de competencias diagnósticas, también se identifican desafíos críticos, entre ellos los sesgos algorítmicos, las amenazas a la privacidad de los datos y el posible desplazamiento de habilidades humanas esenciales. Esta revisión concluye que la integración de la IA en la formación médica debe realizarse de forma crítica, ética y bajo supervisión humana, acompañada de directrices normativas, actualización permanente de los planes de estudio y capacitación docente especializada. Como línea futura de investigación, se propone el análisis de experiencias prácticas y el desarrollo de marcos de evaluación que permitan valorar la calidad pedagógica, contextual y ética de estas herramientas. En suma, la inteligencia artificial representa una oportunidad valiosa para enriquecer la educación médica, siempre que su implementación complemente y no sustituya los principios humanistas que sustentan la práctica médica.

Anexos

Anexo 1. Relación entre documentos y ejes temáticos.

IA: inteligencia artificial; EHR: electronic health records: registros médicos electrónicos; IMIA: Asociación Internacional de Informática Médica; FAIR: findable, accessible, interoperable, reusable: localizable, accesible interoperable, reutilizable

Fuente: elaboración propia

Notas

*

los autores han completado y enviado la forma traducida al español de la declaración de conflictos potenciales de interés del Comité Internacional de Editores de Revistas Médicas, y no fue reportado alguno que tuviera relación con este artículo.

Referencias

  • 1.Furfaro D, Celi LA, Schwartzstein RM. Artificial Intelligence in Medical Education: A Long Way to Go. Chest. 2024;165(4):771–774. doi: 10.1016/j.chest.2023.11.028. [DOI] [PubMed] [Google Scholar]
  • 2.Civaner MM, Uncu Y, Bulut F, et al. Artificial intelligence in medical education: a cross-sectional needs assessment. BMC Med Educ. 2022;22(1):772. doi: 10.1186/s12909-022-03852-3. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 3.De Angelis L, Baglivo F, Arzilli G, et al. ChatGPT and the rise of large language models: the new AI-driven infodemic threat in public health. Front Public Health. 2023;11:1166120. doi: 10.3389/fpubh.2023.1166120. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 4.Jackson P, Ponath Sukumaran G, Babu C, et al. Artificial intelligence in medical education - perception among medical students. BMC Med Educ. 2024;24(1):804. doi: 10.1186/s12909-024-05760-0. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 5.Gordon M, Daniel M, Ajiboye A, et al. A scoping review of artificial intelligence in medical education: BEME Guide No. 84. Med Teach. 2024;46(4):446–470. doi: 10.1080/0142159X.2024.2314198. [DOI] [PubMed] [Google Scholar]
  • 6.Crotty E, Singh A, Neligan N, et al. Artificial intelligence in medical imaging education: Recommendations for undergraduate curriculum development. Radiography (Lond) 2024;30(Suppl 2):67–73. doi: 10.1016/j.radi.2024.10.008. [DOI] [PubMed] [Google Scholar]
  • 7.Çalışkan SA, Demir K, Karaca O. Artificial intelligence in medical education curriculum: An e-Delphi study for competencies. PLoS One. 2022;17(7):e0271872. doi: 10.1371/journal.pone.0271872. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 8.Azer SA, Guerrero APS. The challenges imposed by artificial intelligence: are we ready in medical education? BMC Med Educ. 2023;23(1):680. doi: 10.1186/s12909-023-04660-z. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 9.Shi X, Yin D, Bai Y, et al. A Bibliographic Dataset of Health Artificial Intelligence Research. Health Data Sci. 2024;4:0125. doi: 10.34133/hds.0125. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 10.Saroha S. Artificial Intelligence in Medical Education: Promise, Pitfalls, and Practical Pathways. Adv Med Educ Pract. 2025;16:1039–1046. doi: 10.2147/AMEP.S523255. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 11.Moon S, Carlson LA, Moser ED, et al. Identifying Information Gaps in Electronic Health Records by Using Natural Language Processing: Gynecologic Surgery History Identification. J Med Internet Res. 2022;24(1):e29015. doi: 10.2196/29015. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 12.Stretton B, Kovoor J, Arnold M, et al. ChatGPT-Based Learning: Generative Artificial Intelligence in Medical Education. Med Sci Educ. 2023;34(1):215–217. doi: 10.1007/s40670-023-01934-5. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 13.Ghorashi N, Ismail A, Ghosh P, et al. AI-powered chatbots in medical education: potential applications and implications. Cureus. 2023;15(8):e43271. doi: 10.7759/cureus.43271. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 14.Boscardin CK, Gin B, Golde PB, et al. ChatGPT and Generative Artificial Intelligence for Medical Education: Potential Impact and Opportunity. Acad Med. 2024;99(1):22–27. doi: 10.1097/ACM.0000000000005439. [DOI] [PubMed] [Google Scholar]
  • 15.Knopp MI, Warm EJ, Weber D, et al. AI-Enabled Medical Education: Threads of Change, Promising Futures, and Risky Realities Across Four Potential Future Worlds. JMIR Med Educ. 2023;9:e50373. doi: 10.2196/50373. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 16.Mondal H. Ethical engagement with artificial intelligence in medical education. Adv Physiol Educ. 2025;49(1):163–165. doi: 10.1152/advan.00188.2024. [DOI] [PubMed] [Google Scholar]
  • 17.Grabb D. ChatGPT in Medical Education: a Paradigm Shift or a Dangerous Tool? Acad Psychiatry. 2023;47(4):439–440. doi: 10.1007/s40596-023-01791-9. [DOI] [PubMed] [Google Scholar]
  • 18.Xu Y, Jiang Z, Ting DSW, et al. Medical education and physician training in the era of artificial intelligence. Singapore Med J. 2024;65(3):159–166. doi: 10.4103/singaporemedj.SMJ-2023-203. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 19.Preiksaitis C, Rose C. Opportunities, Challenges, and Future Directions of Generative Artificial Intelligence in Medical Education: Scoping Review. JMIR Med Educ. 2023;9:e48785. doi: 10.2196/48785. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 20.Gilson A, Safranek CW, Huang T, et al. Correction: How Does ChatGPT Perform on the United States Medical Licensing Examination (USMLE)? The Implications of Large Language Models for Medical Education and Knowledge Assessment. JMIR Med Educ. 2024;10:e57594. doi: 10.2196/57594. Erratum for: JMIR Med Educ. 2023;9:e45312. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 21.Khan RA, Jawaid M, Khan AR, et al. ChatGPT - Reshaping medical education and clinical management. Pak J Med Sci. 2023;39(2):605–607. doi: 10.12669/pjms.39.2.7653. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 22.Peacock J, Austin A, Shapiro M, et al. Accelerating medical education with ChatGPT: an implementation guide. MedEdPublish. 2023;13:64. doi: 10.12688/mep.19732.2. Journal established in 2016. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 23.Kıyak YS, Emekli E. ChatGPT prompts for generating multiple-choice questions in medical education and evidence on their validity: a literature review. Postgrad Med J. 2024;100(1189):858–865. doi: 10.1093/postmj/qgae065. [DOI] [PubMed] [Google Scholar]
  • 24.Rincón EHH, Jimenez D, Aguilar LAC, et al. Mapping the use of artificial intelligence in medical education: a scoping review. BMC Med Educ. 2025;25(1):526. doi: 10.1186/s12909-025-07089-8. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 25.Franco D'Souza R, Mathew M, Mishra V, et al. Twelve tips for addressing ethical concerns in the implementation of artificial intelligence in medical education. Med Educ Online. 2024;29(1):2330250. doi: 10.1080/10872981.2024.2330250. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 26.Moritz S, Romeike B, Stosch C, et al. Generative AI (gAI) in medical education: Chat-GPT and co. GMS J Med Educ. 2023;40(4):Doc54. doi: 10.3205/zma001636. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 27.Ng FYC, Thirunavukarasu AJ, Cheng H, et al. Artificial intelligence education: An evidence-based medicine approach for consumers, translators, and developers. Cell Rep Med. 2023;4(10):101230. doi: 10.1016/j.xcrm.2023.101230. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 28.Bhuyan SS, Sateesh V, Mukul N, et al. Generative Artificial Intelligence Use in Healthcare: Opportunities for Clinical Excellence and Administrative Efficiency. J Med Syst. 2025;49(1):10. doi: 10.1007/s10916-024-02136-1. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 29.Liaw ST, Liyanage H, Kuziemsky C, et al. Ethical Use of Electronic Health Record Data and Artificial Intelligence: Recommendations of the Primary Care Informatics Working Group of the International Medical Informatics Association. Yearb Med Inform. 2020;29(1):51–57. doi: 10.1055/s-0040-1701980. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 30.Jeyaraman M, Balaji S, Jeyaraman N, et al. Unraveling the Ethical Enigma: Artificial Intelligence in Healthcare. Cureus. 2023;15(8):e43262. doi: 10.7759/cureus.43262. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 31.Omar M, Ullanat V, Loda M, et al. ChatGPT for digital pathology research. Lancet Digit Health. 2024;6(8):e595–e600. doi: 10.1016/S2589-7500(24)00114-6. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 32.Arora G, Joshi J, Mandal RS, et al. Artificial Intelligence in Surveillance, Diagnosis, Drug Discovery and Vaccine Development against COVID-19. Pathogens. 2021;10(8):1048. doi: 10.3390/pathogens10081048. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 33.De Zegher I, Norak K, Steiger D, et al. Artificial intelligence based data curation: enabling a patient-centric European health data space. Front Med (Lausanne) 2024;11:1365501. doi: 10.3389/fmed.2024.1365501. Erratum in: Front Med (Lausanne). 2024;11:1455319. doi: 10.3389/fmed.2024.1455319. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 34.Hernández-Rincón E, Jiménez D, Chavarro LA, et al. Mapping the use of artificial intelligence in medical education: a scoping review. BMC Med Educ. 2025;25:526. doi: 10.1186/s12909-025-07089-8. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 35.Zhao K, Farrell K, Mashiku M, et al. A search-based geographic metadata curation pipeline to refine sequencing institution information and support public health. Front Public Health. 2023;11:1254976. doi: 10.3389/fpubh.2023.1254976. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 36.Lamurias A, Jesus S, Neveu V, et al. Information Retrieval Using Machine Learning for Biomarker Curation in the Exposome-Explorer. Front Res Metr Anal. 2021;6:689264. doi: 10.3389/frma.2021.689264. [DOI] [PMC free article] [PubMed] [Google Scholar]
  • 37.Domrös-Zoungrana D, Rajaeean N, Boie S, et al. Medical Education: Considerations for a Successful Integration of Learning with and Learning about AI. J Med Educ Curric Dev. 2024;11:23821205241284719. doi: 10.1177/23821205241284719. [DOI] [PMC free article] [PubMed] [Google Scholar]

Associated Data

This section collects any data citations, data availability statements, or supplementary materials included in this article.

Supplementary Materials

Anexo 1. Relación entre documentos y ejes temáticos.

IA: inteligencia artificial; EHR: electronic health records: registros médicos electrónicos; IMIA: Asociación Internacional de Informática Médica; FAIR: findable, accessible, interoperable, reusable: localizable, accesible interoperable, reutilizable

Fuente: elaboración propia


Articles from Revista Médica del Instituto Mexicano del Seguro Social are provided here courtesy of Instituto Mexicano del Seguro Social

RESOURCES