Políticas sobre el uso de herramienta de Inteligencia Artificial (IA) en la Revista Española de Casos Clínicos en Medicina Interna (RECCMI) de la Sociedad Española de Medicina Interna (SEMI)
Automatización versus Inteligencia Artificial (IA).
Este proceso por su propia esencia es absolutamente dinámico y sujeto a los cambios que el tiempo y el consiguiente desarrollo de nuevas tecnologías van a introducir en su mantenimiento y evolución.
La inteligencia artificial (IA) es “la capacidad de un ordenador digital o de un robot controlado por ordenador para realizar tareas comúnmente asociadas a seres inteligentes”. La IA Generativa (GAI) utiliza el modelado generativo y los avances en el aprendizaje profundo (DL, por sus siglas en ingles “deep-learning”) para producir contenidos diversos a escala utilizando medios existentes como texto, gráficos, audio y vídeo”.
Los resultados de los “chatbots” corren el riesgo de incluir sesgos, distorsiones, irrelevancias, tergiversaciones y plagios, muchos de ellos causados por los algoritmos que rigen su generación y que dependen en gran medida del contenido de los materiales utilizados en su entrenamiento, incluido su potencial para difundir y amplificar la información errónea y la desinformación.
Los “chatbots” retienen la información que se les suministra, por lo que ésta podría aparecer en futuras respuestas, por lo que cualquiera que necesite mantener la confidencialidad de un documento, incluidos autores, editores y revisores, debe ser consciente de este problema antes de considerar el uso de “chatbots” para editar o generar trabajo.
Si bien hemos de añadir un matíz diferenciador entre los originales sujetos a la composición de material y métodos y resultados, con complejos análisis estadísticos que requieren aproximaciones sofisticadas y tratamientos editoriales para autores, revisores y editores diferentes y los casos clínicos de estructuras generalmente más simples.
Existe una clara distinción entre automatización e Inteligencia Artificial (IA). La automatización se refiere al software basado en reglas. La IA consiste en diseñar sistemas inteligentes, máquinas y software que puedan imitar la inteligencia y el comportamiento humanos.
Incluimos en nuestro análisis el procesamiento del lenguaje natural (PLN) y el aprendizaje automático (AA) que incluye tareas como la extracción de palabras clave y la clasificación de temas para identificar patrones y realizar predicciones. La IA puede usar sistemas para predecir qué revista se ajusta mejor al alcance de un manuscrito y analizar resultados de detección de superposición de texto, proporcionados por software como iThenticate.
La automatización en la publicación se ha utilizado durante décadas para garantizar que los manuscritos puedan ser revisados por pares con mayor rapidez, sin la intervención humana en cada etapa del proceso.
Las herramientas de IA y automatización que se están desarrollando tienen el poder de contribuir a la velocidad y precisión de la revisión por pares. El software creado para detectar la superposición de texto proporciona un nivel de evaluación, mediante la verificación cruzada de millones de documentos, que un cerebro humano no podría lograr. Las posibilidades de la IA para el reconocimiento de patrones permiten detectar cárteles de citas, manipulación de imágenes3, el corte de salami y las características de las fábricas de papel4, todas ellas prácticas poco éticas problemáticas en la publicación que son difíciles de identificar. La tecnología más reciente puede evaluar, sin necesidad de intervención humana, si un manuscrito cumple con los estándares de calidad en cuanto a idioma, formato según los estándares de la revista, presentación de figuras y uso de citas.
Los aspectos clave el avance de la IA se pueden clasificar en tres grupos principales:
- Rendición de cuentas (no discriminatoria y justa)
- Responsabilidad (agencia humana y supervisión)
- Transparencia (solidez técnica y gobernanza de datos)
Las recomendaciones del Committee on Publication Ethics (COPE) a partir de los dilemas éticos planteados incluyen los siguientes aspectos:
- La decisión involucre directamente a un editor. La decisión no puede tomarse únicamente con una herramienta de IA.
- La supervisión humana es clave. En última instancia, la editorial sigue siendo responsable de las decisiones editoriales.
- La automatización impulsada por IA, es aceptable e incluso esperada en muchos casos, siempre que el resultado no implique una decisión de la propia IA sobre la aceptación o el rechazo de un manuscrito.
- Las evaluaciones de mala conducta e integridad de la investigación que den lugar a la expresión de inquietudes, retractaciones o al contacto con las instituciones de los investigadores tampoco deben depender únicamente de la toma de decisiones de la IA.
- Las editoriales deben ser transparentes sobre todo el proceso. Toda automatización impulsada por IA debe presentarse claramente a los participantes relevantes del proceso de revisión por pares (autores, revisores o editores y lectores).
- Los autores deben ser conscientes de que, independientemente de si la decisión fue tomada por IA o por un editor humano, la revista y la editorial son responsables de la decisión editorial.
Las recomendaciones de la Sociedad Mundial de Editores Médicos (World Association of Medical Editors, WAME) de 2023 se resumen del siguiente modo:
- Sólo los seres humanos pueden ser autores, los “chatbots” no pueden ser autores.
- Los autores deben ser transparentes cuando se utilizan “chatbots” y proporcionar información sobre cómo se utilizaron:
Los autores que envíen un artículo en el que se haya utilizado un “chatbot”/AI para redactar un nuevo texto deben hacer constar dicho uso en el agradecimiento; deben especificarse todas las indicaciones utilizadas para generar un nuevo texto, o para convertir texto o indicaciones de texto en tablas o ilustraciones. Cuando se utilice una herramienta de IA, como un “chatbot”, para realizar o generar trabajo analítico, ayudar a informar de los resultados (por ejemplo, generando tablas o figuras) o escribir códigos informáticos, esto debe indicarse en el cuerpo del artículo, tanto en el resumen como en la sección de métodos. En aras de permitir el escrutinio científico, incluyendo la replicación y la identificación de falsificaciones, se debe proporcionar la secuencia de comandos completa utilizada para generar los resultados de la investigación, la hora y la fecha de la consulta, y la herramienta de IA utilizada y su versión. - Los autores deben asumir la responsabilidad pública de su trabajo:
Los autores son responsables del material proporcionado por un “chatbot” en su artículo (incluida la exactitud de lo que se presenta y la ausencia de plagio) y de la atribución adecuada de todas las fuentes (incluidas las fuentes originales del material generado por el “chatbot”) y deben identificar el “chatbot” utilizado. - Los editores y revisores deben especificar, a los autores y entre sí, cualquier uso de “chatbots” en la evaluación del manuscrito y la generación de revisiones y correspondencia.
- Los editores necesitan herramientas digitales adecuadas para hacer frente a los efectos de los “chatbots” en la publicación:
Los editores necesitan herramientas adecuadas que les ayuden a detectar contenidos generados o alterados por IA. Tales herramientas deben ponerse a disposición de los editores, independientemente de su capacidad para pagarlas, por el bien de la ciencia y del público, y para ayudar a garantizar la integridad de la información sanitaria y reducir el riesgo de resultados adversos para la salud.
NORMAS GENERALES:
RECCMI analizará todos los manuscritos recibidos con objeto de evaluar el porcentaje de posible realización de los mismos con la intervención de herramientas de Inteligencia Artificial generativa.
Teniendo en cuenta estas premisas y las actuales tendencias desde RECCMI indicamos las siguientes normas para nuestros autores y revisores cuando se utilicen tecnologías de IA tradicionales y generativas para crear, revisar, corregir o editar el contenido de un manuscrito, los autores deben indicar en la sección de Agradecimientos lo siguiente:
- Nombre de la plataforma, programa o herramienta de software de IA.
- Números de versión y extensión.
- Fabricante.
- Fecha(s) de uso.
- Una breve descripción de cómo se utilizó la IA y en qué partes del manuscrito o contenido.
- Confirmación de que el autor se responsabiliza de la integridad del contenido generado.
Estas normas no se aplican a las herramientas básicas para la revisión gramatical, ortográfica, de referencias y similares. IA utilizada en la investigación ni Large Language Models (LLM) o procesamiento del lenguaje natural (PLN).
Nota (diciembre.2025):Exponemos las consideraciones generales actuales de RECCMI sobre estos aspectos; no obstante, permanecemos atentos a cuantas recomendaciones y modificaciones que se vayan presentando en el International Commitee of Medical Journals Editors (ICMJE) y el Committee on Publication Ethics (COPE) así como en los Congresos Internacionales sobre Revisión por Pares y Publicaciones Científicas.