Imagen: generada con Grok
Este texto es distribuido en acceso abierto según los términos de la Licencia Creative Commons Atribución–NoComercial 4.0 y ha sido republicado en JT con el permiso expreso de su autora/Fuente original: Revista Anales de la Academia de Ciencias, An Acad Cienc Cuba. 2024;14(4):e2870
Por Lila Castellanos Serra 1,2 * https://orcid.org/0000-0002-1034-4937 1 Instituto Finlay de Vacunas. La Habana, Cuba, 2 Academia de Ciencias de Cuba. La Habana, Cuba. * Autor para la correspondencia: lilacastellanos@infomed.sld.cu
Ignorance is not the passive absence of information but a constructed mix of data, gaps in data, data about irrelevant things, unrealistic expectations, fragmented knowledge, rigid categories and false dichotomies.
Richard Levins, “When science fails us”. International Socialism 2:72, 1996
En diciembre 2024 concluye el primer cuarto de siglo de este nuevo milenio y es un buen momento para reflexionar sobre qué nos ha dejado en cuanto a la ciencia. Sin embargo, no podría ocuparme de un tema tan amplio, a no ser que lo acotara a mi campo de trabajo, la proteómica, y en ese caso carecería de interés para una audiencia de tan diversos perfiles profesionales. Me limitaré entonces a compartir mis preocupaciones sobre uno de los grandes problemas que se estrenaron con el nuevo siglo: los retos que las tecnologías de la información y las comunicaciones (TIC) y, más recientemente, la inteligencia artificial ha traído a la comunicación de la ciencia y, en general, del conocimiento, y qué podemos hacer como docentes, tutores y académicos para recibir sus beneficios y minimizar sus daños.
Pasaré por alto comentar las ventajas de las TIC y me referiré a algunos aspectos relacionados con la confiabilidad de la información publicada en medios especializados para consumo (esencialmente) de los profesionales.
La ética en la comunicación del conocimiento y el uso de la inteligencia artificial.
Prefiero hablar de comunicación del conocimiento y no de comunicación de la ciencia porque el primer término es más abarcador. El asunto a tratar atraviesa transversalmente todos los campos de la creación, desde la composición e interpretación musical hasta el diagnóstico médico, desde la física y el derecho hasta la poesía y la ingeniería agronómica. Aquí me centraré solo en los aspectos de la comunicación del conocimiento a través de las publicaciones especializadas y las implicaciones de carácter ético asociadas a la introducción de la inteligencia artificial (IA).
Antes de comenzar, una alerta: los problemas aquí mencionados asociados a la IA no deben esgrimirse como justificación de su limitado uso. Hay que utilizarla y enseñar a utilizarla éticamente. “El desarrollo de la IA es un componente clave de la transformación digital y un tema estratégico para el desarrollo del país. Su desarrollo no debe depender de los avances de la economía del país; por el contrario, debe considerarse como una vía para contribuir al desarrollo económico.” (1) comentaba el Editorial del primer número de Anales de la Academia de Ciencias de Cuba, (en lo adelante Anales) del pasado año.
Los principios éticos en las publicaciones han sido objeto de amplia revisión. Un excelente texto al respecto es el trabajo de Miguel Roig publicado en 2003 y actualizado en 2006 y 2015, con un inventario crítico de malas prácticas (plagio, falsificación, fabricación y manipulación de datos, de figuras y de referencias, problemas de autoría y violaciones de derechos de autor) y la falta de rigor (métodos inadecuados o inadecuadamente ejecutados, conclusiones no sustentadas por los datos). (2) Es de notar que el asunto abordado por Roig se refiere a la ética del acto de comunicar el conocimiento y no trata los aspectos éticos de su contenido (el diseño, la ejecución y el análisis de la investigación que lo genera). Esos contenidos varían de un campo a otro de la ciencia y son analizados en documentos específicos.
Con el uso público de herramientas de IA (ver recuadro 1 para definiciones de términos) desde finales de 2022 (ChatGPT versión 3.5 de OpenAI pasó a ser de uso público el 30 de noviembre de 2022) han aparecido nuevas prácticas no éticas. Estas se unen a otras popularizadas desde la década de 1990, por ejemplo, las formas aberrantes de publicación cuyo propósito no es difundir nuevo conocimiento, sino el enriquecimiento ilícito (las revistas falsas, predatory journals) o los artículos falsos producidos por fábricas de artículos (paper mills).
Recuadro 1: Términos de uso frecuente en inteligencia artificial
Artificial Intelligence (AI) | Simulación de inteligencia humana en máquinas programadas para pensar” y aprender como los humanos. |
ChatGPT | Interfaz de charla (“chat”) construida sobre un “large language model, LLM” (ver) entrenado con una enorme cantidad de datos y que realiza una amplia gama de tareas con lenguaje natural. Ejemplo: ChatGPT3.5, ChatGPT 4.0 |
Chatbot | (chat: charla, bot: robot, automata). Una interfaz fácil de usar que permite hacer preguntas y recibir respuestas. |
Deep Learning | Aprendizaje profundo. Utiliza redes neuronales con múltiples capas. |
Generative artificial intelligence (Generative AI or GenAI) | Rama de la IA centrada en la creación de nuevos contenidos, como texto, imágenes, audio y vídeos, y el análisis de datos a partir de las peticiones de los usuarios (“prompts”). Utiliza modelos avanzados para aprender patrones a partir de datos (textos, imágenes, audios, videos) y generar resultados que se parezcan a estos datos. Por ejemplo, pueden crear un cuento original en el estilo de un autor a partir del análisis de sus cuentos ya publicados. |
Generative pretrained transformer (GPT): | Los transformadores (ver) generativos pre-entrenados (GPT) son redes neuronales artificiales entrenados en grandes conjuntos de textos que generan contenidos novedosos. A partir de miles de millones de palabras deduce las regularidades de un idioma, en vocabulario, gramática y sintaxis. Gracias a este entrenamiento, GPT puede generar nuevo texto. |
Hallucination | La alucinación es una situación en la que un sistema de IA genera resultados sin sentido o incorrectos. Ocurre cuando el sistema no está seguro del contexto, se basa inadecuadamente en sus datos de entrenamiento o no “comprende” la pregunta formulada. |
Large Language Model (LLM) | Modelos lingüísticos de gran tamaño. Un tipo de modelo de aprendizaje profundo (“deep learning”) entrenado en un gran conjunto de datos para realizar tareas de comprensión y generación de lenguaje natural. Existen muchos LLM (por ejemplo, GPT-4). Varían en tamaño (número de parámetros que se pueden ajustar), en el tipo de tareas y en el tipo de entrenamiento. |
Machine Learning (ML) | Subcampo de la IA. Desarrolla algoritmos que permiten a las máquinas “aprender” mediante la identificación de patrones a partir de un gran volumen de datos. |
Natural Language Processing (NLP) | Subcampo de la IA que consiste en programar ordenadores para procesar grandes volúmenes de datos lingüísticos, transformar un texto en una estructura estandarizada de datos y suministrar finalmente un nuevo texto. |
Neural Network | Modelo de aprendizaje automático (“machine learning”) inspirado en el cerebro humano y compuesto por capas de nodos o «neuronas» interconectadas. |
OpenAI | La organización que desarrolló ChatGPT. En términos más generales, empresa de investigación cuyo objetivo es desarrollar la IA. |
Prompt | Un texto en lenguaje natural que describe la tarea que debe realizar un modelo de IA generativa, es suministrado por el usuario y da lugar a salidas o respuestas significativas. Es la entrada con la que operan los LLM (ver). De su calidad depende en gran medida la calidad de las respuestas. |
Transformer | Arquitectura de red neuronal que ha revolucionado la forma en que se procesa y genera el lenguaje, especialmente eficaces en tareas que implican secuencias, como la traducción de frases o la generación de texto. Ampliamente utilizados en el procesamiento del lenguaje natural (NLP), incluyendo la traducción automática, el resumen de textos, la respuesta a preguntas y la determinación del tono emocional de una serie de palabras. |
En este Editorial IA se refiere específicamente a generative AI (el subconjunto de inteligencia artificial que genera contenido, incluidos textos e imágenes, mediante el uso del procesamiento del lenguaje natural, natural language processing) (recuadro 1). (3) Estas herramientas son muy útiles en la elaboración de documentos, sin embargo, se encuentran en el origen de nuevas malas prácticas en la comunicación del conocimiento. Las prácticas no éticas en el uso de IA pueden socavar la integridad y la credibilidad de la ciencia. El recuadro 2 resume algunas de ellas. (3,4).
Recuadro 2: Algunas violaciones éticas introducidas por el uso de IA en la preparación y evaluación de manuscritos
No declaración del uso de IA |
Uso de IA en la preparación o la redacción del texto sin verificación por los autores |
Generación de información falsa o adulterada que incluye fabricación o modificación de datos, de imágenes y de gráficos |
Plagio |
Violaciones de derechos de autor (por ejemplo, reproducción de figuras sin autorización de autores o de sus casas editoras) |
Sesgo algorítmico (los sistemas de IA aprenden de publicaciones precedentes; en la selección de estas fuentes puede haber elementos de sesgo que se propagarían a nuevas publicaciones y contribuirían a su perpetuación) |
Falta de transparencia en el funcionamiento de la herramienta de IA (ocurre cuando la forma en que opera la herramienta no es pública, por ejemplo, cómo se ha entrenado y validado |
Disminución de la calidad de la revisión por pares (las recomendaciones derivadas del uso de IA en la evaluación de manuscritos pueden influir en las opiniones de los revisores, limitar el rico intercambio conceptual entre autores y revisores que tanto enriquece el manuscrito, llevar a decisiones injustificadas y finalmente, a un declive en la calidad de la investigación publicada) |
Decisiones editoriales sin intervención de evaluadores humanos |
Publicación de artículos elaborados por IA en revistas falsas o de cuestionable calidad que no realizan un escrutinio cuidadoso del posible uso ilegítimo de IA en la preparación de los trabajos. |
Estos problemas se suman a los ya existentes, que venían erosionando el sistema de comunicación de la ciencia a través de las publicaciones, y que se relacionan con la política de publicar o perecer, la evaluación profesional sobre la base de indicadores de impacto de las revistas o de las frecuencias de citación (por ejemplo, el índice H), las variantes de arbitraje, la transparencia en los resultados de las investigaciones (Open Science) y los cuestionados aspectos económicos ligados a las grandes casas editoras que conforman la industria de la publicación científica.
En particular preocupa el incremento del plagio con el uso de herramientas de IA. (5) Los modelos lingüísticos de gran tamaño (LLM) (ver recuadro 1) se entrenan a través de textos recogidos en las bases de datos, que incluyen los artículos científicos —entre muchos otros textos—, a partir de los cuales generan nuevos textos. Esas fuentes no serían referenciadas y la magnitud de su uso no se conocería y no podría ser evaluada. La IA también puede utilizarse para modificar y enmascarar un texto deliberadamente plagiado y esta acción es difícil de detectar. (5)
En las instrucciones de muchas revistas se informa sobre el uso de IA en la preparación de manuscritos. Sin embargo, en un estudio bibliométrico realizado en 2023 se concluyó que aún muchas casas editoras y revistas no han incluido especificaciones al respecto. (5) De las cien casas editoras más importantes del mundo, que de conjunto publican 28 060 revistas, en octubre 2023 solo 24 por ciento incluían estas indicaciones. Las cifras son mejores (87 por ciento) entre las 100 revistas con más altos índice H en Scimago.
Las asociaciones internacionales de editores y las instituciones nacionales de ciencia y tecnología han dedicado esfuerzos a combatir las malas prácticas en la comunicación de la ciencia y recientemente se han pronunciado sobre el uso de herramientas de IA. Entre ellas están Committee on Publication Ethics (COPE), asociación fundada en 1997 por un grupo de editores de revistas de ciencias médicas y extendido posteriormente a todas las ramas de las ciencias; Council of Science Editors (CSE), que también cubre todas las ramas; y las asociaciones específicas de una rama de la actividad editorial, por ejemplo, en las ciencias biomédicas: International Committee of Medical Journal Editors (ICMJE) y World Association of Medical Editors (WAME). Si bien ya existe consenso en cuanto a que las tecnologías asistidas por IA no pueden figurar como autores o coautores, aún no se ha llegado a un consenso internacional sobre cuáles prácticas son aceptables y la forma en que estas deben reconocerse en las publicaciones.
Las revistas del grupo Science establecen que los autores que utilicen tecnologías asistidas por IA como componentes de su investigación o como ayuda en la redacción deben indicar la herramienta de IA, su versión y cuál ha sido su uso, en la carta de presentación, en la sección de métodos y, para mi sorpresa, en la sección de agradecimientos. (7) Llama la atención que la mayoría de las revistas que han incluido instrucciones sobre uso de IA aclaren que las herramientas no pueden incluirse entre los agradecimientos, dado que solo es posible agradecer a personas o entidades reales, que además deben autorizar formalmente ser mencionadas. Ciertamente aún estamos lejos de un consenso sobre tales cuestiones.
El grupo editor Nature coincide en que el uso de herramientas de IA debe documentarse en la sección de métodos y precisa que no es necesario declarar su uso si este se limita a tareas de edición (la mejora de textos generados por humanos en cuanto a legibilidad y estilo, y corrección de errores gramaticales, ortográficos, de puntuación y de tono). No se admiten mejoras asistidas por IA que incluyan la creación autónoma de contenidos. (8)
Dada la dinámica del desarrollo de la IA, las normas cambian y deben verificarse periódicamente. La dinámica de cambios se refleja en las recomendaciones elaboradas por organismos internacionales. Por ejemplo, ICMJE modificó en mayo de 2023 sus recomendaciones. Ahora especifican cómo informar el uso de herramientas de IA. Sin embargo, no consideran el aspecto más importante del asunto: cuáles acciones con la ayuda de IA son lícitas y cuáles no se aceptan. (9)
En las guías elaboradas por WAME, dos aspectos llaman mi atención: “Los editores necesitan herramientas adecuadas que les ayuden a detectar contenidos generados o alterados por IA y estas herramientas deben estar disponibles independientemente de su capacidad de pago” (…). “Facilitar su uso mediante su incorporación a programas de publicación de código abierto, como el Open Journal Systems del Public Knowledge Project, y la formación sobre el uso y la interpretación de los resultados harían del escrutinio automático de manuscritos una realidad para muchos editores”. (10) El primero aboga por el libre acceso a las herramientas, y es positivo. El segundo considera el escrutinio automático de los manuscritos, y explícitamente incluye su uso en la interpretación de los resultados. Me referiré más adelante a esta cuestión.
Otro documento que contiene elementos interesantes es la instrucción a autores de la revista ACL (Association for Computational Linguistics), de la organización internacional líder en lingüística computacional y en el procesamiento del lenguaje natural. El documento profundiza en los usos lícitos de la IA y en qué casos no es necesario que los autores los informen. (11)
SciELO, que incluye Anales en su base de revistas, ha establecido las indicaciones para autores, revisores y editores sobre el uso de IA que deben seguir las publicaciones indizadas allí. (12) Los autores pueden utilizar herramientas y recursos de IA que les ayuden en la preparación, revisión y traducción de sus trabajos. En el resumen y en la sección de métodos los autores deben informar cualquier uso o contenido generado por una aplicación de IA. Todo el material citado generado por IA debe estar debidamente atribuido. Debe verificarse que las fuentes citadas respalden las afirmaciones realizadas por la herramienta de IA. (12)
COPE establece la responsabilidad de los autores por el contenido de los manuscritos, incluso de las partes producidas con el uso de IA. (13) La formulación da por hecho que los autores harán uso de esas herramientas de una forma u otra y en eso coincide con otros Consejos Editoriales, que consideran inevitable su uso y, en consecuencia, que su prohibición no es realista.
A inicios de 2024 COPE organizó un encuentro divulgativo sobre el empleo de IA en la publicación científica y su detección mediante herramientas también de IA. (14) En la labor editorial y en la revisión de manuscritos se utilizan las herramientas de detección de coincidencias, disponibles desde finales de 1990. iThenticate, la herramienta que habitualmente utilizo, data de 2004. La versión más reciente, iThenticate 2.0, disponible desde abril de 2023, incorpora herramientas de IA. Su eficacia depende esencialmente de las bases de literatura que consultan (por ejemplo, estas herramientas no alertarían sobre coincidencias entre una nueva tesis de doctorado y otra tesis de doctorado, precedente, pero no incluida en las bases consultadas). Ya se encuentran disponibles herramientas para la detección de coincidencias y de adulteraciones en imágenes y elementos gráficos. En resumen, presenciamos un combate entre el villano y el agente de la ley, en el que ambos son sistemas de inteligencia artificial. Dado que el villano aprende permanentemente del agente de la ley, este promete ser un combate que nunca concluirá.
La ética en la valoración del nuevo conocimiento con la intervención de la inteligencia artificial
Otro aspecto controversial, muy inquietante, es el uso de la IA en el proceso de revisión. (15) En un debate organizado por COPE en 2023 se reconoce que la IA se utiliza profusamente en la fase inicial de la revisión (en la valoración de la calidad de la redacción y para verificar si el trabajo coincide con el alcance temático de la revista, y como parte de la revisión por pares para identificar potenciales revisores, y detectar manipulación de datos e imágenes). (15,16) Al igual que se exige a los autores la declaración del empleo de IA, las casas editoras y los revisores deben declararlo.
Retomo la idea expresada por WAME: “Facilitar su uso mediante su incorporación a programas de publicación de código abierto, como el Open Journal Systems del Public Knowledge Project, y la formación sobre el uso y la interpretación de los resultados harían del escrutinio automático de manuscritos una realidad para muchos editores”. (10) En la revisión inicial de los manuscritos hay tareas susceptibles de ser realizadas mediante herramientas de IA (los aspectos formales, la verificación de no inclusión en las referencias de revistas falsas, la validez de los cálculos, la coherencia en los datos —frecuentemente un dato se menciona de una forma en una tabla y de otra en el texto y aun en el resumen—, y la detección de coincidencias con textos publicados). El segundo, incluir la interpretación de los resultados en el escrutinio automático de los manuscritos puede conducir a su evaluación sin la intervención humana. Esta cuestión plantea múltiples inquietudes. ¿El empleo de IA en el escrutinio inicial de manuscritos podría influir en la subsecuente evaluación por pares? ¿Se estaría utilizando la IA más allá, de forma no declarada, hasta la decisión sobre la aceptación o el rechazo? Considerando que la IA utiliza la información precedente, dado que la mayoría de la literatura publicada proviene de países desarrollados y de autores masculinos, ¿hay riesgo de introducir sesgo discriminatorio por origen geográfico o por sexo? Y finalmente, ¿nos encaminamos a un mundo en que la información es generada por máquinas con mínima intervención humana y es evaluada por máquinas, con mínima —o
ninguna— intervención humana?
Dado que los chatbots (recuadro 1) se entrenan a través de los textos a los que acceden, el uso de IA violaría la confidencialidad debida en el proceso de revisión por pares. (9) Es de notar que las recomendaciones elaboradas por ICMJE se ocupan de esta cuestión, y en esto el documento es categórico: los revisores deben mantener la confidencialidad del manuscrito que analizan, lo que puede implicar la prohibición del envío del documento a tecnologías de IA, ya que no sería posible garantizar la confidencialidad. Los revisores deben declarar si han utilizado tecnologías de IA y cómo lo han hecho. El grupo de revistas Science también es categórico: los revisores no pueden utilizar tecnología de IA, ya que ello podría vulnerar la confidencialidad del manuscrito. (7)
El grupo editor Nature pide a sus revisores que no utilicen herramientas de IA generativa que requieran el acceso a los manuscritos, e informa que actualmente trabaja en la identificación de herramientas seguras que no comprometan la confidencialidad de los documentos. Los revisores que usen de alguna forma las herramientas de IA en el proceso de evaluación deben declararlo en su informe de revisión por pares. (8)
SciELO establece que los revisores deben incluir en sus evaluaciones el uso de la IA por los autores y, en consecuencia, deben estar entrenados en la detección del uso de IA en los textos bajo revisión para poder evaluarla. (12) Los revisores pueden apoyarse en varias herramientas de IA, por ejemplo, programas de detección de plagio, software de análisis estadístico y programas de búsquedas de literatura. El uso de IA en el proceso de revisión debe cumplir las normas éticas y las mejores prácticas, y debe documentarse en los informes de revisión. Cuando el manuscrito recibido no es un preprint, el revisor no debe enviarlo a herramientas que puedan revelar identidades y contenidos de forma inapropiada. Este último punto es muy importante: excluye el envío de los manuscritos en revisión a herramientas de IA, ya que esa acción incorpora el documento en la base de textos que las herramientas utilizan para entrenarse y coincide con lo normado por Science. Ya algunas herramientas permiten que los usuarios prohíban la incorporación de sus documentos a bases de datos. Es un desarrollo en curso cuya eficacia habrá que evaluar.
Pienso, sin embargo, que será muy difícil verificar —más allá de lo declarado por revisores y editores— cuál ha sido la participación de la IA en la toma de las decisiones editoriales, que incluye, por ejemplo, la evaluación inicial de los manuscritos que inundan las computadoras de los editores en espera del dictamen primario de rechazo o de inicio del proceso de revisión. Y no podremos saber si nuestros manuscritos —en proceso o rechazados— forman parte de las bases de datos con las que se entrenan las herramientas.
¿Qué podemos hacer como docentes, tutores y académicos en Cuba?
Primero, no hay que satanizar el uso de IA en la comunicación del conocimiento. En nuestro país, hay que difundir su uso en el quehacer científico desde el nivel universitario, siempre como una ayuda, pero nunca como sustituto del investigador. Hay que informarse sobre los avances en IA, sobre las cuestiones de carácter ético, cómo se manifiestan en cada especialidad y las respuestas de la comunidad internacional.
Necesitamos introducir la ética de la comunicación del conocimiento en todas las ramas de la formación profesional. Ninguna escapa a estos avatares. Considerando el limitado tiempo disponible en los currículos universitarios de pregrado, el reto está en cómo insertarlos y adecuarlos a cada especialidad. La formación postgraduada debe incluir estos temas, de modo que nuestros profesionales estén entrenados en la identificación de revistas falsas, en el empleo ético de las herramientas de IA y en la explotación eficaz de sus beneficios.
Hay temas muy cercanos que pueden abordarse en las páginas de nuestros Anales. Tenemos excelentes profesionales en los campos de la comunicación científica, de la inteligencia artificial y de las ciencias pedagógicas que pudieran aportar a nuestra formación en temas tan relevantes y cambiantes desde sus especialidades. (1,17,18,19) Un tema candente es cómo adecuar al nuevo contexto tecnológico la enseñanza y la evaluación del conocimiento en los niveles secundarios y universitarios, problema que hoy preocupa a las comunidades docentes del mundo. (4,20) Anales pudiera ayudarnos a difundir una actualización periódica sobre el uso de IA en la comunicación del conocimiento, un campo de gran dinamismo en el que aún no hay consenso, como se aprecia en este texto, y en el que sería interesante conocer los enfoques específicos y diversos adoptados internacionalmente en ciencias naturales y exactas, en biomedicina, en ciencias sociales, en humanidades y en ingenierías.
Por último, la importancia del asunto aquí tratado, su carácter transversal que abarca todos los campos del conocimiento, su novedad y la dinámica de su evolución me llevan a proponer la realización de acciones de información e intercambio de ideas con la participación de todas las Academias (la Academia Cubana de Historia, la Academia Cubana de la Lengua, la Academia de Ciencias) y el Consejo Nacional de Sociedades Científicas de la Salud y al que estén invitados los Consejos Universitarios de todos los centros de enseñanza superior y otras instituciones. Estas acciones facilitarían la difusión de las nuevas realidades a las que se enfrenta la comunicación del conocimiento, los problemas éticos que plantea y los beneficios que podemos obtener del uso adecuado de la IA desde ángulos diversos y con potencial alcance a todas las ramas del conocimiento en Cuba.
REFERENCIAS BIBLIOGRÁFICAS
1. Caballero Mota Y, Bello Pérez R, Rosete Suárez A. La Inteligencia Artificial entro de la Transformación Digital para el desarrollo. An Acad Cienc Cuba [internet] 2024 [citado 20 nov 2024];14(1):e1530. Disponible en: https://revistaccuba.sld.cu/index.php/revacc/article/view/1530
2. Roig M. Avoiding plagiarism, self-plagiarism, and other questionable writing practices: A guide to ethical writing. United States Department of Health & Human Services; [Internet] 2016 [citado 2 oct 2024]. Disponible en: https://ori.hhs.gov/avoiding-plagiarism-self-plagiarism-and-other-questionable-writing-practices-
guide-ethical-writing
3. Miao J, Thongprayoon C, Suppadungsuk S, García Valencia OA, Qureshi F, Cheungpasitporn W. Ethical Dilemmas in Using AI for Academic Writing and an Example Framework for Peer Review in Nephrology Academia: A Narrative Review. Clin. Pract. 2024;14:89-105. DOI: 10.3390/clinpract14010008
4. Harari YN. Nexus: Una breve historia de las redes de información desde la edad de piedra hasta la Inteligencia Artificial. Editorial Debate, 2024
5. Kwon D. AI is complicating plagiarism. How should scientists respond? The explosive uptake of generative artificial intelligence in writing is raising difficult questions about when use of the technology should be allowed. Nature News Feature, 30 July 2024 [Internet] [citado 30 oct 2024] Disponible en: https://www.nature.com/articles/d41586-024-02371-z
6. Ganjavi C, Eppler M, Pecan A. Publishers and journals instructions to authors on use of generative artificial intelligence in academic and scientific publishing: bibliometric analysis BMJ 31 January 2024;384 DOI: https://doi.org/10.1136/bmj-2023-077192
7. Science. Instructions for preparing an initial manuscript. [Internet][Citado 13 nov 2024]. https://www.science.org/content/page/science-journals-editorial-policies
8. Nature portfolio. Artificial intelligence (AI). [Internet].[Citado 13 nov 2024] Disponible en: https://www.nature.com/nature-portfolio/editorial-policies/ai
9. International Committee of Medical Journals Editors. News and Editorials. Recommendations for the Conduct, Reporting, Editing, and Publication of Scholarly Work in Medical Journals. Updated May 2023. [Internet] [Citado 11 nov 2024]. Disponible en: https://www.icmje.org/news-and-editorials/updated_recommendations_may2023.html
10. WAME. Zielinski C, Winker M, Aggarwal R, Ferris L, Heinemann M, Lapeña JF, Pai S, Ing E, Citrome L, on behalf of the WAME Board. ChatGPT and chatbots in relation to scholarly publications: WAME recommendations on chatbots, ChatGPT, and scholarly manuscripts. [Internet] January 20, 2023. [Citado 20 oct 2024]. Disponible en: https://wame.org/page3.php?id=106
11. Association for Computational Linguistics (ACL). Policy on AI writing assistance. [Internet]. [Citado 1 oct 2024]. Disponible en: https://2023.aclweb.org/blog/ACL-2023-policy/
12. SciELO. Guide to the use of artificial intelligence tools and resources in research communication on SciELO: preliminary version. [Internet]. 2023 Sep 14 [Citado 28 sep 2024]. Disponible en: https://www.scielo.br/j/rmj/a/SPcW3Md3kxY7DTyGDB8xzYf/?-format=pdf&lang=en
13. Committee on Publication Ethics (COPE). COPE position statement on authorship and AI tools. [Internet]. 2023 feb 13 [Citado 2 oct 2024]. Disponible en: https://publicationethics.org/cope-position-statements/ai-author
14. Committee on Publication Ethics (COPE). Artificial intelligence: lightning talk summary. New tools and directions in AI for scholarly publishing [Internet]. 2024 Jan [Citado 2 oct 2024]. Disponible en: https://publicationethics.org/news/artificial-intelligence-ightning-talk-summary
15. Committee on Publication Ethics (COPE). Artificial intelligence and peer review. [Internet]. 2023 [Citado 2 oct 2024]. Disponible en: https://publicationethics.org/publication-integrity-week-2023/ai-peer-review
16. Committee on Publication Ethics (COPE). Artificial intelligence and fake papers. [Internet]. 2023 mar 23 [Citado 2 oct 2024]. Disponible en: https://publicationethics.org/resources/forum-discussions/artificial-intelligence-fake-paper
17. Bacallao J, Barber A, Roca G. Las conductas impropias en la actividad científica Rev Cubana Salud Pública 2003;29(1):61-4
18. Loyola-González O, Martínez-Trinidad J, Carrasco-Ochoa J, García-Borroto M. Cost-Sensitive Pattern-Based classification for Class Imbalance problems IEEE Access vol 7, 29 abr 2017 [Internet] [Citado 20 nov 2023] DOI: 10.1109/ACCESS.2019.2913982
19. Hernandez Y, Milian V, Shulcloper J. Libro: Lecture Notes in Computer Science (Editores) Progress in Artificial Intelligence and Pattern Recognition. 2018. Springer Nature. [Internet] 2018 [Citado 27 nov 2024] Disponible en: https://link.springer.com/book/10.1007/978-3-030-01132-1
20. Sigman, M, Bilinkis, S. Artificial. La nueva inteligencia y el contorno de lo humano. 2023. Editora Debate.
Conflictos de intereses
No existen conflictos de intereses con la investigación presentada ni con la institución que representa. Las ideas expresadas son solo responsabilidad de la autora, y no de las instituciones a las que pertenece.
Declaración de uso de IA
He utilizado Perplexity.ai (https://www.perplexity.ai/) en la búsqueda de información. He verificado la información suministrada en las fuentes que declara la herramienta. Los textos citados que originalmente aparecen en inglés fueron traducidos por Deepl (https://www.deepl.com/en/translator), revisados y resumidos por la autora.
Cómo citar este artículo
Castellanos Serra L. La ética en la comunicación del conocimiento en la era de la inteligencia artificial: ¿qué debemos hacer?. An AcadCienc Cuba [internet] 2024 [citado en día, mes y año];14(4):e2870. Disponible en: http://www.revistaccuba.cu/index.php/revacc/
article/view/2870
El artículo se difunde en acceso abierto según los términos de una licencia Creative Commons de Atribución/Reconocimiento-NoComercial 4.0 Internacional (CC BY-NC-SA 4.0), que le atribuye la libertad de copiar, compartir, distribuir, exhibir o implementar sin permiso, salvo con las siguientes condiciones: reconocer a sus autores (atribución), indicar los cambios que haya realizado y no usar el material con fines comerciales (no comercial).
© Los autores, 2024.
Juventud Técnica, con la autorización de la autora, ha modificado el lugar donde se ubican los recuadros y la forma de inclusión con respecto al artículo original. Igualmente, como es norma en la revista, ha resaltado en negritas aquellas líneas conceptuales que considera de más relevancia para su público.