En tiempos recientes, las herramientas de inteligencia artificial (IA) han experimentado un incremento notable en su relevancia dentro del ámbito académico. ChatGPT, Gemini, Claude y otras plataformas de lenguaje natural han pasado a formar parte de las prácticas cotidianas de muchos investigadores y autores, especialmente en tareas relacionadas con la redacción, corrección e incluso, generación de artículos científicos. No obstante, este avance tecnológico plantea interrogantes fundamentales en lo que respecta a la ética e integridad de la investigación y publicación científica: ¿puede la IA ser considerada autora de un artículo científico? ¿Debe ser citada? ¿Y qué obligaciones tenemos los autores que utilizamos estas herramientas?
Este debate no debe ser subestimado. En el ámbito de la publicación académica, se están redibujando las líneas que separan la asistencia tecnológica legítima de la responsabilidad ética. Con el propósito de orientar a la comunidad científica, diversas organizaciones han establecido posiciones claras que todo autor, editor y revisor debe conocer.
La inteligencia artificial no puede ser autora
Es imperativo clarificar que la inteligencia artificial no puede ser considerada como autora de ningún trabajo académico. El Comité de Ética en Publicaciones (COPE, por sus siglas en inglés) establece en su declaración sobre “Authorship and AI Tools”1 que la autoría conlleva responsabilidad legal, ética e intelectual, atributos que la IA, por su propia naturaleza, no posee.
Asimismo, la World Association of Medical Editors (WAME)2 sostiene que los chatbots como ChatGPT no cumplen con los criterios de autoría establecidos por el International Committee of Medical Journal Editors (ICMJE). De acuerdo con estas directrices, únicamente los individuos humanos pueden ser considerados autores, ya que deben ser capaces de asumir públicamente la responsabilidad por el contenido de la publicación.
Por su parte, la revista JAMA3 enfatiza que ninguna herramienta de IA está capacitada para firmar manuscritos, enviar correcciones, responder a los revisores ni validar datos. Por lo tanto, la autoría se presenta como una condición estrictamente humana.
Declarar el uso de la inteligencia artificial: un deber ético
La imposibilidad de la IA de ser autora no conlleva la exclusión de su utilización en el ámbito del proceso de escritura científica. Ciertamente, numerosas herramientas fundamentadas en la inteligencia artificial pueden resultar de gran utilidad a la hora de reformular textos, revisar la gramática, generar estructuras iniciales o incluso proponer títulos. No obstante, el empleo de dichas plataformas ha de realizarse bajo un enfoque de transparencia.
La guía de COPE recomienda que cualquier uso significativo de herramientas de inteligencia artificial sea indicado en el artículo, ya sea en los métodos, en una nota a pie de página o en los agradecimientos, especificando cuál fue la herramienta utilizada, con qué propósito y en qué etapa del trabajo. Esta declaración no supone una cesión de autoría, sino una práctica de honestidad editorial.
Por ejemplo, si un autor ha recurrido a la inteligencia artificial para generar ideas preliminares de organización del contenido, debe indicarlo claramente. Del mismo modo, si ha empleado la inteligencia artificial para redactar un resumen preliminar, debe señalarlo adecuadamente. El propósito de esta medida es evitar ambigüedades, proteger la integridad de los procesos editoriales y reforzar la confianza en los textos académicos publicados.
La responsabilidad sigue siendo humana
Un aspecto fundamental que se debe tener en cuenta en el presente debate es la responsabilidad intelectual. Cuando un autor decide emplear una herramienta de inteligencia artificial, debe tener presente que todo el contenido generado o editado con su asistencia recae bajo su responsabilidad directa. Este proceso implica la verificación meticulosa de los datos, la confirmación de la originalidad de las obras y la corrección de cualquier imprecisiones. Además, es fundamental asegurar la exactitud y legitimidad de la información difundida.
Al igual que ocurre con cualquier otra herramienta técnica o colaborador no autor, la inteligencia artificial puede brindar apoyo, pero no reemplazar el juicio académico ni la autoría intelectual. Es responsabilidad del autor humano detectar y corregir los errores generados por estas plataformas, que ocasionalmente generan referencias imprecisas o inventadas, antes de presentar el artículo a una revista.
WAME subraya el deber de los autores de asumir sus responsabilidades, incluso ante situaciones donde el contenido ha sido generado por inteligencia artificial. El uso de estas herramientas sin una supervisión crítica se equipara con la publicación de un trabajo sin una revisión adecuada, lo cual va en contra de las buenas prácticas científicas.
¿Y si la revista no permite el uso de la inteligencia artificial?
En la actualidad, un número considerable de revistas científicas están implementando sus propias políticas respecto al uso de la inteligencia artificial. Algunas plataformas no admiten ningún tipo de contenido generado por inteligencia artificial, mientras que otras lo aceptan bajo ciertas condiciones, siempre y cuando esté explícitamente declarado.
Por lo tanto, antes de presentar un artículo para su consideración en una revista, es imperativo examinar minuciosamente las políticas editoriales específicas. Ha de tenerse en cuenta que el incumplimiento de estas directrices puede acarrear el rechazo del manuscrito o, en caso de considerarse una falta de ética académica, derivar en problemas de mayor gravedad.
Tal y como sucede en otros aspectos de las publicaciones científicas, tales como el conflicto de intereses o la originalidad en el contenido, es crucial aplicar estrategias que garanticen la honestidad editorial.
¿Y, cómo citar a la inteligencia artificial en un artículo científico?
Otra interrogante común entre los autores es si es necesario citar la inteligencia artificial. En este caso, se ha llegado a un consenso: se recomienda mencionar a la IA como herramienta, no como autor. Esta mención se asemejaría a la forma en que se citara a un software estadístico.
Sería aconsejable incluir una nota breve que especifique qué herramienta se utilizó, la versión empleada y el propósito para el que se destinó. A modo ilustrativo, se podría mencionar: «Se empleó ChatGPT (versión X) como herramienta de apoyo para la estructuración inicial del borrador». Este tipo de mención aporta claridad y evita malentendidos.
Reflexión final
El uso de la inteligencia artificial en la redacción académica no constituye, en sí mismo, una práctica desacertada. Sin embargo, cuando se utiliza de manera adecuada, puede convertirse en una herramienta valiosa para mejorar la eficiencia, la claridad y la calidad de los manuscritos científicos. No obstante, la responsabilidad del autor como responsable, verificador y garante de la integridad académica es irrenunciable.
Es imprescindible que el ámbito científico se base en la transparencia, la ética y el rigor. Las herramientas tecnológicas experimentan cambios ascelerados, pero los principios permanecen inalterables. La adopción de prácticas claras, la declaración del uso de inteligencia artificial y la asunción de la plena responsabilidad del contenido siguen siendo la base de una publicación científica íntegra y confiable.
Referencias
1 COPE Council. COPE position – Authorship and AI – English. https://doi.org/10.24318/cCVRZBms
2 Zielinski, C., Winker, M. A., Aggarwal, R., Ferris, L. E., Heinemann, M., Lapeña Jr, J. F., … & Habibzadeh, F. (2023). Chatbots, generative AI, and scholarly manuscripts: WAME recommendations on chatbots and generative artificial intelligence in relation to scholarly publications. Colombia Médica, 54(3), e1015868. http://doi.org/10.25100/cm.v54i3.5868
3 Flanagin A, Bibbins-Domingo K, Berkwits M, Christiansen SL. Nonhuman “Authors” and Implications for the Integrity of Scientific Publication and Medical Knowledge. JAMA. 2023;329(8):637–639. doi:10.1001/jama.2023.1344



