Skip to main content
Colombia Médica : CM logoLink to Colombia Médica : CM
editorial
. 2023 Sep 30;54(3):e1015868. doi: 10.25100/cm.v54i3.5868
View full-text in Spanish

Chatbots, generative AI, and scholarly manuscripts: WAME recommendations on chatbots and generative artificial intelligence in relation to scholarly publications

Recomendaciones de WAME sobre “chatbots” e inteligencia artificial generativa en relación con las publicaciones académicas

Chris Zielinski 1,, Margaret A Winker 2, Rakesh Aggarwal 3, Lorraine E Ferris 4, Markus Heinemann 5, Jose Florencio Lapeña Jr 6, Sanjay A Pai 7, Edsel Ing 8, Leslie Citrome 9, Murad Alam 10, Michael Voight 11, Farrokh Habibzadeh 12
PMCID: PMC10712422  PMID: 38089825

Abstract

This statement revises our earlier “WAME Recommendations on ChatGPT and Chatbots in Relation to Scholarly Publications” (January 20, 2023). The revision reflects the proliferation of chatbots and their expanding use in scholarly publishing over the last few months, as well as emerging concerns regarding lack of authenticity of content when using chatbots. These recommendations are intended to inform editors and help them develop policies for the use of chatbots in papers published in their journals. They aim to help authors and reviewers understand how best to attribute the use of chatbots in their work and to address the need for all journal editors to have access to manuscript screening tools. In this rapidly evolving field, we will continue to modify these recommendations as the software and its applications develop.

Keywords: ChatGPT, chatbots, scientific manuscript, wame revised recommendation, scholarly communication, artificial intelligence, plagiarism, authorship scientific misconduct, deep learning, disinformation, confidentiality

Introduction

This statement revises our earlier “WAME Recommendations on ChatGPT and Chatbots in Relation to Scholarly Publications” (January 20, 2023). The revision reflects the proliferation of chatbots and their expanding use in scholarly publishing over the last few months, as well as emerging concerns regarding lack of authenticity of content when using chatbots. These Recommendations are intended to inform editors and help them develop policies for the use of chatbots in papers published in their journals. They aim to help authors and reviewers understand how best to attribute the use of chatbots in their work, and to address the need for all journal editors to have access to manuscript screening tools. In this rapidly evolving field, we will continue to modify these recommendations as the software and its applications develop.

A chatbot is a tool “[d]riven by [artificial intelligence], automated rules, natural-language processing (NLP), and machine learning (ML)…[to] process data to deliver responses to requests of all kinds” 1 . Artificial intelligence (AI) is “the ability of a digital computer or computer-controlled robot to perform tasks commonly associated with intelligent beings” 2 .

“Generative modeling is an artificial intelligence technique that generates synthetic artifacts by analyzing training examples; learning their patterns and distribution; and then creating realistic facsimiles. Generative AI (GAI) uses generative modeling and advances in deep learning (DL) to produce diverse content at scale by utilizing existing media such as text, graphics, audio, and video” 3 , 4 .

Chatbots are activated by a plain-language instruction, or “prompt,” provided by the user. They generate responses using statistical and probability-based language models 5 . This output has some characteristic properties. It is usually linguistically accurate and fluent but, to date, it is often compromised in various ways. For example, chatbot output currently carries the risk of including biases, distortions, irrelevancies, misrepresentations, and plagiarism - many of which are caused by the algorithms governing its generation and heavily dependent on the contents of the materials used in its training. Consequently, there are concerns about the effects of chatbots on knowledge creation and dissemination - including their potential to spread and amplify mis- and disinformation 6 - and their broader impact on jobs and the economy, as well as the health of individuals and populations. New legal issues have also arisen in connection with chatbots and generative AI 7 .

Chatbots retain the information supplied to them, including content and prompts, and may use this information in future responses 8 . Therefore, scholarly content that is generated or edited using AI would be retained and as a result, could potentially appear in future responses, further increasing the risk of inadvertent plagiarism on the part of the user and any future users of the technology. Anyone who needs to maintain confidentiality of a document, including authors, editors, and reviewers, should be aware of this issue before considering using chatbots to edit or generate work 9 .

Chatbots and their applications illustrate the powerful possibilities of generative AI, as well as the risks. These Recommendations seek to suggest a workable approach to valid concerns about the use of chatbots in scholarly publishing.

A note on changes introduced since the previous WAME Recommendations

  • A new recommendation (#4) has been added to the four original principal recommendations: 1) Only humans can be authors; 2) Authors should acknowledge the sources of their materials; 3) Authors must take public responsibility for their work; 4) Editors and reviewers should specify, to authors and each other, any use of chatbots in evaluation of the manuscript and generation of reviews and correspondence; and 5) Editors need appropriate digital tools to deal with the effects of chatbots on publishing.

  • In addition, this revision acknowledges that chatbots are used to perform different functions in scholarly publications. Currently, individuals in scholarly publishing may use chatbots for: 1) simple word-processing tasks (analogous to, and an extension of, word-processing and grammar-checking software), 2) the generation of ideas and text, and 3) substantive research. The Recommendations have been tailored for application to these different uses.

WAME recommendations on chatbots and generative artificial intelligence in relation to scholarly publication

WAME Recommendation 1

Chatbots cannot be authors. Journals have begun to publish articles in which chatbots such as Bard, Bing and ChatGPT have been used, with some journals listing chatbots as co-authors. The legal status of an author differs from country to country but under most jurisdictions, an author must be a legal person. Chatbots do not meet the International Committee of Medical Journal Editors (ICMJE) authorship criteria, particularly that of being able to give “final approval of the version to be published” and “to be accountable for all aspects of the work in ensuring that questions related to the accuracy or integrity of any part of the work are appropriately investigated and resolved” 10 . No AI tool can “understand” a conflict-of-interest statement and does not have the legal standing to sign a statement. Chatbots have no affiliation independent of their developers. Since authors submitting a manuscript must ensure that all those named as authors meet the authorship criteria, chatbots cannot be included as authors.

WAME Recommendation 2

Authors should be transparent when chatbots are used and provide information about how they were used. The extent and type of use of chatbots in journal publications should be indicated. This is consistent with the ICMJE recommendation of acknowledging writing assistance 11 and providing in the Methods detailed information about how the study was conducted and the results generated 12 .

WAME Recommendations 2.1

Authors submitting a paper in which a chatbot/AI was used to draft new text should note such use in the acknowledgment; all prompts used to generate new text, or to convert text or text prompts into tables or illustrations, should be specified.

WAME Recommendation 2.2

When an AI tool such as a chatbot is used to carry out or generate analytical work, help report results ( e.g. , generating tables or figures), or write computer codes, this should be stated in the body of the paper, in both the Abstract and the Methods section. In the interests of enabling scientific scrutiny, including replication and identifying falsification, the full prompt used to generate the research results, the time and date of query, and the AI tool used and its version, should be provided.

WAME Recommendation 3

Authors are responsible for material provided by a chatbot in their paper (including the accuracy of what is presented and the absence of plagiarism) and for appropriate attribution of all sources (including original sources for material generated by the chatbot). Authors of articles written with the help of a chatbot are responsible for the material generated by the chatbot, including its accuracy. Noting that plagiarism is “the practice of taking someone else's work or ideas and passing them off as one's own” 13 , not just the verbatim repetition of previously published text. It is the author’s responsibility to ensure that the content reflects the author's data and ideas and is not plagiarism, fabrication, or falsification. Otherwise, it is potentially scientific misconduct to offer such material for publication, irrespective of how it was written. Similarly, authors must ensure that all quoted material is appropriately attributed, including full citations, and that the cited sources support the chatbot’s statements. Since a chatbot may be designed to omit sources that oppose viewpoints expressed in its output, it is the authors’ responsibility to find, review and include such counterviews in their articles. (Of course, such biases are also found in human authors.) Authors should identify the chatbot used and the specific prompt (query statement) used with the chatbot. They should specify what they have done to mitigate the risk of plagiarism, provide a balanced view, and ensure the accuracy of all their references.

WAME Recommendation 4

Editors and peer reviewers should specify, to authors and each other, any use of chatbots in the evaluation of the manuscript and generation of reviews and correspondence. If they use chatbots in their communications with authors and each other, they should explain how they were used. Editors and reviewers are responsible for any content and citations generated by a chatbot. They should be aware that chatbots retain the prompts fed to them, including manuscript content, and supplying an author's manuscript to a chatbot breaches confidentiality of the submitted manuscript.

WAME Recommendation 5

Editors need appropriate tools to help them detect content generated or altered by AI. Such tools should be made available to editors regardless of ability to pay for them, for the good of science and the public, and to help ensure the integrity of healthcare information and reducing the risk of adverse health outcomes . Many medical journal editors use manuscript evaluation approaches that were not designed to deal with AI innovations and industries, including manipulated plagiarized text and images and papermill-generated documents. They have already been at a disadvantage when trying to differentiate the legitimate from the fabricated, and chatbots take this challenge to a new level. Editors need access to tools that will help them evaluate content efficiently and accurately. This is of particular importance to editors of medical journals where the adverse consequences of misinformation include potential harms to people.

Notes:

Disclaimer: This Policy Statement is being republished from: Zielinski C, Winker MA, Aggarwal R, Ferris LE, Heinemann M, Lapeña JF, Pai SA, Ing E, Citrome L, Alam M, Voight M, Habibzadeh F, for the WAME Board. Chatbots, Generative AI, and Scholarly Manuscripts. WAME Recommendations on Chatbots and Generative Artificial Intelligence in Relation to Scholarly Publications. WAME. May 31, 2023. Available from: https://wame.org/page3.php?id=106

Copyright: © 2023 Chris Zielinski, Margaret A. Winker, Rakesh Aggarwal, Lorraine E. Ferris, Markus Heinemann, Jose Florencio Lapeña, Sanjay A. Pai, Edsel Ing,Leslie Citrome, Murad Alam, Michael Voight, Farrokh Habibzadeh, on behalf of the WAME Board

References

Colomb Med (Cali). 2023 Sep 30;54(3):e1015868. [Article in Spanish]

Recomendaciones de WAME sobre “chatbots” e inteligencia artificial generativa en relación con las publicaciones académicas

Introducción

Esta declaración revisa nuestras anteriores "Recomendaciones de WAME sobre ChatGPT y “chatbots” en relación con las publicaciones académicas" (20 de enero de 2023). La revisión refleja la proliferación de “chatbots” y su creciente uso en las publicaciones académicas en los últimos meses, así como las preocupaciones emergentes con respecto a la falta de autenticidad del contenido cuando se utilizan “chatbots”. Estas Recomendaciones pretenden informar a los editores y ayudarles a desarrollar políticas para el uso de “chatbots” en los artículos publicados en sus revistas. Su objetivo es ayudar a los autores y revisores a entender la mejor manera de atribuir el uso de “chatbots” en su trabajo, y abordar la necesidad de que todos los editores de revistas tengan acceso a herramientas de selección de manuscritos. En este campo en rápida evolución, seguiremos modificando estas recomendaciones a medida que se desarrollen el software y sus aplicaciones.

Un chatbot es una herramienta “… dirigida por inteligencia artificial, reglas automatizadas, procesamiento del lenguaje natural (NLP, por su sigla en inglés “natural-language processing”) y aprendizaje automático (ML, por sus sigla en ingles de “Machine-learning”) para procesar datos y ofrecer respuestas a solicitudes de todo tipo" 1. La inteligencia artificial (IA) es "la capacidad de un ordenador digital o de un robot controlado por ordenador para realizar tareas comúnmente asociadas a seres inteligentes" 2.

"El modelado generativo es una técnica de inteligencia artificial que genera objetos sintéticos analizando ejemplos de entrenamiento; aprendiendo sus patrones y distribución; y luego creando réplicas realistas. La IA Generativa (GAI) utiliza el modelado generativo y los avances en el aprendizaje profundo (DL, por sus siglas en ingles “deep-learning”) para producir contenidos diversos a escala utilizando medios existentes como texto, gráficos, audio y vídeo" 3,4.

Los “chatbots” se activan mediante una instrucción en lenguaje llano, o "prompt", proporcionada por el usuario. Generan respuestas mediante modelos lingüísticos estadísticos y probabilísticos 5. Este resultado tiene algunas propiedades características. Suele ser lingüísticamente preciso y fluido; pero, hasta la fecha, suele estar comprometido de diversas maneras. Por ejemplo, los resultados de los “chatbots” corren el riesgo de incluir sesgos, distorsiones, irrelevancias, tergiversaciones y plagios, muchos de ellos causados por los algoritmos que rigen su generación y que dependen en gran medida del contenido de los materiales utilizados en su entrenamiento. En consecuencia, preocupan los efectos de los “chatbots” en la creación y difusión de conocimientos -incluido su potencial para difundir y amplificar la información errónea y la desinformación 6- y su impacto más amplio en el empleo y la economía, así como en la salud de las personas y las poblaciones. También han surgido nuevas cuestiones jurídicas en relación con los “chatbots” y la IA generativa 7.

Los “chatbots” retienen la información que se les suministra, incluido el contenido y las instrucciones, y pueden utilizar esta información en futuras respuestas 8. Por lo tanto, el contenido académico que se genere o edite utilizando IA se conservaría y, como resultado, podría aparecer en futuras respuestas, aumentando aún más el riesgo de plagio involuntario por parte del usuario y de cualquier futuro usuario de la tecnología. Cualquiera que necesite mantener la confidencialidad de un documento, incluidos autores, editores y revisores, debe ser consciente de este problema antes de considerar el uso de “chatbots” para editar o generar trabajo 9.

Los “chatbots” y sus aplicaciones ilustran las poderosas posibilidades de la IA generativa, así como sus riesgos. Estas Recomendaciones pretenden sugerir un enfoque viable a las preocupaciones válidas sobre el uso de “chatbots” en la publicación académica.

Nota sobre los cambios introducidos desde las anteriores Recomendaciones de WAME

Se ha añadido una nueva recomendación (#4) a las cuatro recomendaciones principales originales: 1) Sólo los seres humanos pueden ser autores; 2) Los autores deben reconocer las fuentes de sus materiales; 3) Los autores deben asumir la responsabilidad pública de su trabajo; 4) Los editores y revisores deben especificar, a los autores y entre sí, cualquier uso de “chatbots” en la evaluación del manuscrito y la generación de revisiones y correspondencia; y 5) Los editores necesitan herramientas digitales adecuadas para hacer frente a los efectos de los “chatbots” en la publicación.

Además, esta revisión reconoce que los “chatbots” se utilizan para realizar diferentes funciones en las publicaciones académicas. En la actualidad, las personas que trabajan en publicaciones académicas pueden utilizar “chatbots” para: 1) tareas simples de procesamiento de textos (análogas a, y una extensión de, procesamiento de textos y software de corrección gramatical), 2) la generación de ideas y texto, y 3) la investigación sustantiva. Las Recomendaciones se han adaptado para su aplicación a estos distintos usos.

Recomendaciones de WAME sobre “chatbots” e Inteligencia Artificial Generativa en relación con la publicación académica

Recomendación 1 de WAME

Los “chatbots” no pueden ser autores. Las revistas han empezado a publicar artículos en los que se han utilizado “chatbots” como Bard, Bing y ChatGPT, y algunas revistas incluyen a los “chatbots” como coautores. El estatus legal de un autor difiere de un país a otro, pero en la mayoría de las jurisdicciones, un autor debe ser una persona jurídica. Los “chatbots” no cumplen los criterios de autoría del Comité Internacional de Editores de Revistas Médicas (ICMJE), en particular el de poder dar "la aprobación final de la versión que se publicará" y "ser responsable de todos los aspectos del trabajo para garantizar que las cuestiones relacionadas con la exactitud o integridad de cualquier parte del trabajo se investiguen y resuelvan adecuadamente" 10. Ninguna herramienta de IA puede "entender" una declaración de conflicto de intereses, y no tiene capacidad legal para firmar una declaración. Los “chatbots” no tienen ninguna afiliación independiente de sus desarrolladores. Dado que los autores que presentan un manuscrito deben asegurarse de que todos los nombrados como autores cumplen los criterios de autoría, los “chatbots” no pueden incluirse como autores.

Recomendación 2 de WAME

Los autores deben ser transparentes cuando se utilizan “chatbots” y proporcionar información sobre cómo se utilizaron. Se debe indicar el alcance y el tipo de uso de “chatbots” en las publicaciones de revistas. Esto es coherente con la recomendación del ICMJE de reconocer la ayuda en la redacción 11 y proporcionar en los Métodos información detallada sobre cómo se llevó a cabo el estudio y los resultados generados 12.

Recomendaciones de WAME 2.1

Los autores que envíen un artículo en el que se haya utilizado un “chatbot”/AI para redactar un nuevo texto deben hacer constar dicho uso en el agradecimiento; deben especificarse todas las indicaciones utilizadas para generar un nuevo texto, o para convertir texto o indicaciones de texto en tablas o ilustraciones.

Recomendación 2.2 de WAME

Cuando se utilice una herramienta de IA, como un “chatbot”, para realizar o generar trabajo analítico, ayudar a informar de los resultados (por ejemplo, generando tablas o figuras) o escribir códigos informáticos, esto debe indicarse en el cuerpo del artículo, tanto en el resumen como en la sección de métodos. En aras de permitir el escrutinio científico, incluyendo la replicación y la identificación de falsificaciones, se debe proporcionar la secuencia de comandos completa utilizada para generar los resultados de la investigación, la hora y la fecha de la consulta, y la herramienta de IA utilizada y su versión.

Recomendación 3 de WAME

Los autores son responsables del material proporcionado por un “chatbot” en su artículo (incluida la exactitud de lo que se presenta y la ausencia de plagio) y de la atribución adecuada de todas las fuentes (incluidas las fuentes originales del material generado por el “chatbot”). Los autores de artículos escritos con la ayuda de un chatbot” son responsables del material generado por el chatbot” , incluida su exactitud. Hay que tener en cuenta que el plagio es "la práctica de tomar el trabajo o las ideas de otra persona y hacerlas pasar por propias" 13, y no sólo la repetición literal de un texto previamente publicado. Es responsabilidad del autor asegurarse de que el contenido refleja sus datos e ideas y no es plagio, fabricación o falsificación. De lo contrario, ofrecer dicho material para su publicación, independientemente de cómo se haya escrito, puede constituir una falta de ética científica. Del mismo modo, los autores deben asegurarse de que todo el material citado se atribuye adecuadamente, incluyendo citas completas, y que las fuentes citadas apoyan las declaraciones del “chatbot”. Dado que un “chatbot” puede estar diseñado para omitir fuentes que se opongan a los puntos de vista expresados en sus resultados, es responsabilidad de los autores encontrar, revisar e incluir tales puntos de vista contrarios en sus artículos. (Los autores deben identificar el “chatbot” utilizado y la pregunta específica (enunciado de la consulta) utilizada con el “chatbot”. Deben especificar lo que han hecho para mitigar el riesgo de plagio, proporcionar una visión equilibrada y garantizar la exactitud de todas sus referencias.

Recomendación 4 de WAME

Los editores y revisores deben especificar, a los autores y entre sí, cualquier uso de “chatbots” en la evaluación del manuscrito y la generación de revisiones y correspondencia. Si utilizan “chatbots” en sus comunicaciones con los autores y entre sí, deben explicar cómo se utilizaron. Los editores y revisores son responsables de cualquier contenido y cita generados por un “chatbot”. Deben ser conscientes de que los “chatbots” retienen las instrucciones que se les envían, incluido el contenido del manuscrito, y que proporcionar el manuscrito de un autor a un “chatbot” viola la confidencialidad del manuscrito enviado.

Recomendación 5 de WAME

Los editores necesitan herramientas adecuadas que les ayuden a detectar contenidos generados o alterados por IA. Tales herramientas deben ponerse a disposición de los editores, independientemente de su capacidad para pagarlas, por el bien de la ciencia y del público, y para ayudar a garantizar la integridad de la información sanitaria y reducir el riesgo de resultados adversos para la salud. Muchos editores de revistas médicas utilizan enfoques de evaluación de manuscritos que no fueron diseñados para hacer frente a las innovaciones y las industrias de la IA, incluidos los textos e imágenes plagiados manipulados y los documentos generados en papel. Ya han estado en desventaja al tratar de diferenciar lo legítimo de lo fabricado, y los “chatbots” llevan este desafío a un nuevo nivel. Los redactores necesitan acceder a herramientas que les ayuden a evaluar los contenidos con eficacia y precisión. Esto es especialmente importante para los editores de revistas médicas, donde las consecuencias adversas de la desinformación incluyen daños potenciales a las personas.

Notas:

Aviso legal: Esta declaración se publica a partir de: Zielinski C, Winker MA, Aggarwal R, Ferris LE, Heinemann M, Lapeña JF, Pai SA, Ing E, Citrome L, Alam M, Voight M, Habibzadeh F, for the WAME Board. Chatbots, Generative AI, and Scholarly Manuscripts. WAME Recommendations on Chatbots and Generative Artificial Intelligence in Relation to Scholarly Publications. WAME. May 31, 2023. Available from: https://wame.org/page3.php?id=106

Derecho de autor: © 2023 Chris Zielinski, Margaret A. Winker, Rakesh Aggarwal, Lorraine E. Ferris, Markus Heinemann, Jose Florencio Lapeña, Sanjay A. Pai, Edsel Ing,Leslie Citrome, Murad Alam, Michael Voight, Farrokh Habibzadeh, on behalf of the WAME Board


Articles from Colombia Médica : CM are provided here courtesy of Universidad del Valle

RESOURCES