1 de noviembre de 2023

¿Te preocupan tus artículos no citados? El peso de la ciencia invisible

Escrito por Marta Ruiz-Corbella
Equipo editorial de Aula Magna 2.0
Facultad de Educación – UNED

Palabras clave: revistas científicas, factor de impacto, métricas, documentos no citados, difusión de la ciencia

---

Es algo ya sabido que la producción científica del profesorado universitario ha crecido exponencialmente en las últimas décadas. Ejemplo de esta evolución es el crecimiento medio anual del 6.05% entre 2011 – 2020 (IUNE, 2022) de artículos publicados por parte de nuestros investigadores en la Web of Science.

Una de las causas de este crecimiento deriva de la evaluación del profesorado a partir de sus publicaciones en determinados soportes. Pero no es válido cualquiera, sino que se exige que esté editada en revistas científicas indexadas en los primeros cuartiles de la Web of Science (WoS) o de Scopus. Rango que se logra a partir de las citas recibidas por parte de nuestros colegas que publican en determinadas revistas fuente. Ahora el cálculo de esas citas no se refiere exclusivamente al artículo del autor evaluado, sino a las citas recibidas, en un arco temporal específico, por parte de todos los documentos incluidos en el número de la revista científica en el que está incluido ese trabajo. Originariamente utilizado como herramienta para facilitar a las bibliotecas la selección de las revistas a adquirir, aunque en la actualidad se ha convertido en la única medida que se reconoce tanto para revistas científicas, como para artículos que publica. De ahí que se esté dando más relevancia a la elección de la revista que a la pertinencia de esta respecto al tema desarrollado. A la capacidad de difusión de la revista que a la calidad y rigor de los trabajos que publica. Lo que ha derivado en que “… el foco de preocupación está pasando de la calidad científico-formal a la consecución del mayor nivel posible de visibilidad e impacto … (Diestro et al., 2017, p. 236). ¿Cuál es finalmente el objetivo? Lograr un buen factor de impacto para poder acceder con garantía de éxito a la convocatoria del sexenio de investigación o a la acreditación. Situación que está derivando en que nos presentemos a nuestros colegas más por el número de artículos publicados en determinadas bases de datos, que por nuestra línea de investigación. En este ecosistema el contenido de la investigación, las posibles aportaciones científicas pasan a un segundo plano, dando prioridad a “publicar o perecer”.

El factor de impacto se calcula, como sabemos, no a partir del número de citas recibidas por nuestro artículo publicado, sino por las citas totales que recibe el número de la revista en la que está inserto. Una cuestión un tanto contradictoria al aplicarse este resultado grupal a evaluaciones individuales, independientemente del impacto que haya tenido el artículo publicado por determinado investigador. O como indica Aguillo (2022), valoramos la ciencia a partir del factor de impacto del continente y no del contenido. Sin duda, las revistas con mayor número de citas se sitúan en los primeros cuartiles gracias a su mayor índice de impacto del que se benefician todos los artículos recogidos en esta. Ahora, ¿todos los artículos aportan citas al número en el que están incluidos? Sería lo deseable, pero lo que se comprueba es que muchos de estos artículos no reciben ninguna. Ahora, todos los autores de ese número se favorecen del factor de impacto colectivo. Incluso se da el caso de que un único artículo sea el que recibe citas beneficiando, así, al resto de los trabajos incluidos. ¿Acción solidaria? Más bien al contrario, ya que el valor de cada contribución científica es necesariamente individual. “Una estimación ampliamente repetida, reportada en un controvertido artículo publicado en Science en 1990, sugiere que más de la mitad de todos los artículos académicos permanecen sin ser citados cinco años después de su publicación” (Encalada-Díaz, 2018, p. 1). Lo que nos lleva a confirmar que una buena parte de nuestra investigación es invisible a los colegas y a la ciudadanía. ¿Estamos ante ciencia irrelevante?

El impacto de un artículo deriva de su visibilidad al mostrar la capacidad de dejar huella en su campo de investigación. Es decir, de ser leído y citado, independientemente de que esta huella sea positiva o negativa. Sin duda, la cita es un dato objetivo, pero con el que debemos trabajar con todas las precauciones que se desprenden de un análisis a partir de un único factor. No debemos medir algo que es dinámico a partir de una fotografía estática. Además, cada vez hay más voces que indican que el factor de impacto resulta insuficiente y que debe completarse con otras métricas, por ejemplo, a través de las altmétricas, para valorar la aportación real de una investigación al proporcionar tanto el contexto en el que se produce esa cita como los usuarios reales que acceden, utilizan y avanzan en sus estudios gracias a esa investigación. En suma, valorar cada artículo más allá del valor asignado en la revista que lo publica.

Ahora, a pesar de la necesaria visibilidad de nuestra producción científica y de las herramientas que están emergiendo para valorar nuestra capacidad de difusión e impacto, como son las aplicaciones tanto de Clarivate como de Elsevier o, en nuestro país, la propuesta de Dialnet Métricas, todavía identificamos un porcentaje significativo de documentos que no son citados, hecho que las invisibiliza a la vez que perjudican a las revistas al no aportar ningún valor. Si revisamos el porcentaje de documentos no citados entre 2011 – 2020 publicados por revistas españolas en WoS, se halla en una media del 32.97% (IUNE, 2022). A la vista de este dato, ¿podemos considerar esta situación como preocupante?

Fuente: Pixabay

Coincidimos en que la invisibilidad en la ciencia no es una novedad. Siempre ha estado presente aunque bien no se ha querido atender, se ha pasado por alto, se ha ocultado con mayor o menor consciencia de ello o, simplemente, se ha ignorado. Pero ¿qué ocurre con los artículos no citados en nuestras revistas? ¿Son artículos invisibles? ¿Perjudican o no al número de la revista en la que se inserta?

Sin duda, los artículos no citados suponen un problema para las revistas al computar el número total de documentos citables con las citas recibidas en un tiempo determinado. El que un artículo no reciba ninguna cita lastra, lógicamente, ese resultado.

Pero ¿por qué no se cita un artículo? Si revisamos la perspectiva de la autoría, los errores comunes son:

  • Publicar en la revista equivocada, aunque esté indexada en WoS. Resulta clave elegir bien la revista acorde al tema y método de nuestro trabajo, ya que cada publicación se dirige a un área determinada, un tipo de investigación, determinado público, etc.
  • Elaborar los metadatos con errores o no reflejando el contenido del trabajo que se presenta. Un título confuso, poco claro, palabras clave demasiado generalistas o mal seleccionadas, o un resumen que no aporta los datos clave del artículo no invita a su lectura o, sencillamente, de difícil recuperación en una búsqueda bibliográfica. No olvidemos que los metadatos son los que facilitan la recuperación o sepultura de un trabajo, los que invitan, o no, a su lectura y, en consecuencia, citación.
  • Olvidar que, tras la publicación, resulta fundamental implicarse en la difusión: confirmar o subir esa referencia en nuestros ID académicos y científicos, divulgarlo en las redes sociales, en todos aquellos espacios que amplían la difusión entre nuestros colegas. Incluir nuevas vías de difusión, como es el podcast o colaborar con blogs y revistas de divulgación. Referenciarlos en nuestras contribuciones en las reuniones científicas en las que participamos, etc.

Ahora, los equipos editoriales también cometen errores a la hora de seleccionar los mejores originales. ¿Cómo? A raíz de

  • una evaluación por pares poco rigurosa, con escasa exigencia en la calidad de los informes de evaluación;
  • datos de la publicación no actualizados, como es el caso de DOI u otro enlace no activo;
  • una deficiente indización de la revista, ya que no basta con que esté recogida en las mejores bases de datos nacionales e internacionales, sino que se debe atender periódicamente la revisión de los datos que se consignan en esta, la recogida de los números que se publican, etc.;
  • una deficiente difusión de la revista y de cada número publicado.

Pero no siempre se debe a que no se lea un artículo o que nadie lo cite, ya que los investigadores también cometemos errores que conlleva que muchas citas se pierdan por

  • errores tipográficos a la hora de citar;
  • confusión entre unas revistas y otras, al citar sin verificar el nombre exacto de la publicación, la autoría, año de edición, etc.;
  • referencias bibliográficas incorrectas sencillamente al no aportar los datos completos.

Por otro lado, también se debe conocer la falta de honestidad en la investigación. En un reciente estudio sobre la percepción que los autores tienen sobre la calidad de los artículos que citaron (Duede, 2022), demuestra que entre los investigadores a la hora de seleccionar la bibliografía para su trabajo prevalece la tendencia de elegir artículos con mayor número de citas independientemente de su contenido y/o calidad. En cambio, los artículos no citados muestran cada vez menos probabilidades de que alguien acceda a su lectura. Esta misma correlación se da con las revistas indizadas en las mejores bases de datos y, especialmente, en los cuartiles 1 y 2. Ahora, tampoco las revistas Q1 garantizan que todos sus artículos sean citados.

La dificultad estriba en que el impacto de un artículo, que sea leído, utilizado y citado no siempre depende de la calidad de la investigación, lo que nos lleva a afirmar que la clave reside en que editores y autores se impliquen en esta tarea de forma conjunta y coordinada. Cada uno con roles diferenciados, uno en la gestión y edición de la revista, otros en la investigación, pero ambos confluyen en este ecosistema en el que se exige el diseño de acciones dirigidas al logro de la máxima difusión de cada trabajo, que redundará en el logro del impacto científico, clara evidencia de su calidad.

Referencias

Aguillo, I.F. (2022). Mala ciencia en agencias gubernamentales. Clip de SEDIC, Revista de la Sociedad Española de Documentación e Información Científica, 85, 1 – 4. https://doi.org/10.47251/clip.n85.76

Diestro, A., Ruiz-Corbella, M., & Galán, A. (2017). Calidad editorial y científica en las revistas de educación. Tendencias y oportunidades en el contexto 2.0. Revista de Investigación Educativa, 35(1), 235-250. https://doi.org/10.6018/rie.35.1.244761

Duede, E. (2022, feb 17). Citation Counts Reinforce the Influence of Highly Cited Papers and Nudge Us towards Undervaluing Those with Fewer. LSE [Blog]. https://bit.ly/3dYWgPs

Encalada-Díaz, M. I. (2018). La ciencia que nunca se ha citado. Acta Ortopédica Mexicana, 32(1), 1.

IUNE (2022). Informe anual 2022. Periodo 2011 – 2020. Actividades investigadoras de las universidades españolas (IX). https://iune.es/informes

---

Nota. Esta entrada se ha realizado a partir del capítulo Ruiz Corbella, M., Arteaga-Martínez, B. y López-Gómez, E. (2023). El reto del impacto en la producción científica. En A. M. Porto Castro y J. M. Muñoz Cantero (Eds.), Educación inclusiva y equitativa de calidad (pp. 221 – 238). Peter Lang.

Cómo citar esta entrada:

Ruiz-Corbella, Marta (2023). ¿Te preocupan tus artículos no citados? El peso de la ciencia invisible. Aula Magna 2.0. [Blog]. https://cuedespyd.hypotheses.org/14073

---

Artículo tomado de Aula Magna 2.0 con permiso de sus editores