El artículo de Bobier et Al. (2025) recientemente publicado en BMC Medical Ethics reflexiona sobre los desafíos éticos para la publicación académica. El estudio muestra que existe una inconsistencia considerable en la adopción y claridad de las políticas de IA entre las revistas de bioética y humanidades de la salud. Los autores indican que aunque existe un consenso general sobre ciertos aspectos (como la no autoría de la IA), hay una divergencia notable en la permisividad del uso de la IA asistida y la necesidad de su divulgación. Concluyen que esta falta de estandarización crea confusión para los autores y plantea preocupaciones sobre la integridad académica.
Los principales temas tratados en el artículo son:
- Inconsistencia Generalizada en las Políticas de IA:
De las 50 revistas analizadas, solo 8 (16%) tenían una política de IA clara, mientras que 27 (54%) estaban publicadas por un editor con una política de IA identificable. El 15 (30%) restante no tenía una política públicamente disponible a nivel de revista o de editor. Los autores indican que esta falta de claridad genera confusión: «Para los autores que pueden usar la IA para ayudar en el proceso de escritura, la falta de una guía clara sobre la IA puede ser confusa y frustrante.»
- Consenso sobre la No Autoría de la IA y Responsabilidad del Autor:
Existe un amplio acuerdo en que la IA no cumple los estándares de autoría y, por lo tanto, no puede ser listada como coautor. Esto se alinea con las directrices del Comité Internacional de Editores de Revistas Médicas (ICMJE).
- Divergencia en la Permisividad del Uso de IA y la Obligatoriedad de la Divulgación:
Los autores mencionan una dicotomía entre la prohibición explícita vs. la permisividad: cinco (10%) de las 8 revistas con una política clara de IA prohíben explícitamente el texto generado por IA en los envíos (principalmente revistas de bioética). Sin embargo, las 27 (54%) políticas de IA de las que tienen las revistas de bioética y humanidades médicas son, en su mayoría, favorables a considerar manuscritos asistidos por IA.
- Necesidad de Divulgación: existe consenso en que los autores deben declarar el uso de IA reconocerlo en el manuscrito. Sin embargo, hay desacuerdo sobre si cada uso de IA requiere divulgación. Por ejemplo, los autores señalan que Springer Nature sugiere que la «edición de copias» asistida por IA «no necesita ser declarada,» mientras que Cambridge University Press y John Hopkins University Press exigen que «el uso de la IA debe ser declarado y claramente explicado.»
- Racionalidad detrás de las prohibiciones y desafíos de Implementación:
Algunas revistas que prohíben la IA no explican su justificación. Una revista prohíbe el texto generado por IA alegando que constituye plagio, una postura que los autores consideran «debatible» porque sostienen que la IA “no posee personalidad”.
Las razones potenciales para prohibir el uso de IA en las revistas incluyen: «la importancia de generar investigación original”, la preocupación de que el “ uso de IA fomenta la descalificación” del contenido, y los peligros del “riesgo epistémico.»
Los autores sostienen que a pesar de las políticas, la implementación es desafiante debido a la dificultad de determinar el contenido generado por IA aunque sostienen que «es mejor tener una política clara que no tenerla, y los editores son conscientes de esta necesidad.»
- Tensión entre Políticas de Revistas y Editores:
Se observa una «tensión curiosa», en palabras de los autores, donde, por ejemplo, editores de revistas que prohíben explícitamente la asistencia de IA firman declaraciones sobre el uso responsable de la IA. Asimismo, incluso en estas revistas de prohibición total también se encuentra indicado en las directrices de envío para autores que » se requiere que el uso de IA sea divulgado tanto en las cartas de presentación a los editores como en la sección de Métodos o Agradecimientos de los manuscritos’, lo que sugiere, indican los autores, que habría cierta permisividad para una recepción a los manuscritos asistidos por IA a nivel de editorial.
Esto deja del lado de los autores la necesidad de leer atentamente las directrices de envío de cada revista para discernir la posible política de IA.
¿Qué implican los hallazgos de este estudio?
El artículo de Bobier et Al (2025) muestra una falta de políticas claras y estandarizadas sobre el uso y asistencia de la IA en la producción de artículos científicos. Según ellos, esta situación confunde a los autores y puede llevar a la inconsistencia en las decisiones editoriales.
Por un lado, Bobier et Al. sostienen que las revistas de prohibición total de la IA articulen una justificación clara y ética para sus políticas y muestren concordancia entre política editorial y directrices para los autores. Sostienen que La IA-asistencia “está aquí para quedarse”, por lo que las revistas deben desarrollar pautas claras.
El estudio concluye que «el momento es oportuno para que las sociedades profesionales y académicas formen un grupo de expertos encargado de desarrollar directrices de consenso sobre el uso de la IA dentro de las publicaciones de bioética y humanidades de la salud.
Limitaciones del estudio
Los hallazgos se limitan a las revistas específicas incluidas (de editoriales del Norte Global), que pueden no representar la totalidad del campo. La ausencia de políticas editoriales públicas no excluye prácticas informales o directrices internas. Aún más, no se examinó hasta qué punto los editores de las revistas adhieren a las políticas de IA, lo que podría influir en la implementación de diversas prácticas informales.
Fuente
Fecha: 3 de Julio de 2025
Reseña del artículo «Artificial intelligence policies in bioethics and health humanities: a comparative analysis of publishers and journals». Fuente: Bobier, C., Rodger, D. & Hurst, D. (2025) BMC Medical Ethics, 26, 79.https://bmcmedethics.biomedcentral.com/articles/10.1186/s12910-025-01239-9