Desde la lejanía, la toma de posesión de Juan Manuel Corchado como rector de la Universidad de Salamanca a principios de este año probablemente parecía un broche de oro natural y bien merecido a la carrera de este destacado académico. Al fin y al cabo, Corchado, un científico informático muy prolífico, es uno de los investigadores más citados de España, lo que demuestra la alta consideración de que goza su trabajo entre sus compañeros.
Pero, como viene informando EL PAÍS desde hace meses, la impresionante reputación de Corchado como académico podría ser inmerecida. Muchas de sus citas proceden de sus propios trabajos, y trabajos poco sólidos, además: breves presentaciones de conferencias que Corchado subía a su página web y luego referenciaba, como fuimos los primeros en señalar en 2022. El caso ha llamado ahora la atención del Comité Español de Ética de la Investigación, que ha instado a la Universidad de Salamanca a ejercer “sus potestades de inspección y sanción” ante “las presuntas malas prácticas” de Corchado.
¿Por qué ayudaban esas malas prácticas a Corchado y a su universidad? Porque gran parte de los criterios de los diferentes rankings —factores que ayudan a determinar la financiación procedente de los organismos gubernamentales, así como a competir por las matrículas de estudiantes— se basan en las citas, que son especialmente fáciles de manipular. En otras palabras, cuanto mejor parecen los científicos sobre el papel, mejor impresión se tiene de sus instituciones.
El caso de Corchado no es más que un ejemplo sonado de lo que la obsesión por las mediciones ha provocado. En Vietnam, los investigadores no paran de hablar de un sistema de clasificación que acaba de darse a conocer, pero los medios de comunicación lo consideran “caótico” y lleno de errores. La semana pasada, The Economist publicaba un artículo adulador sobre la ciencia en China. “China se ha convertido en una superpotencia científica”, declaraba la revista, y “encabeza el índice de Nature, creado por la editorial del mismo nombre, que contabiliza las contribuciones a artículos que aparecen en un conjunto de prestigiosas publicaciones”.
Lo que The Economist omitía —pero que, sin embargo, ya había señalado antes— es que China es responsable de bastante más de la mitad de los más de 50.000 estudios retractados en el mundo, una dudosa distinción que puede atribuirse directamente a la rigurosa atención que el país presta a las mediciones. Hasta que estas prácticas se prohibieron oficialmente en 2020, los investigadores chinos recibían cuantiosas primas en metálico por publicar artículos en revistas incluidas en el índice de Nature, y el profesorado clínico de las facultades de medicina —cuyo trabajo no implica investigación— estaba obligado a publicar artículos para ganarse el puesto y ascender, a pesar de carecer de formación para ello.
Esos incentivos eran, en esencia, invitaciones directas a cometer fraude, como ha demostrado una reciente encuesta a investigadores en China. ¿De qué otra forma se suponía que los académicos iban a impulsar sus carreras si no era aumentando su producción, creando círculos de citas o incluso acudiendo a fábricas de estudios fraudulentos?
Aunque resulta fácil culpar al Gobierno chino de la carrera armamentística de las citas, las universidades no han hecho nada para impedirla y, en muchos casos, incluso han fomentado que el sistema funcione exactamente como lo hace. En India, por ejemplo, una facultad de odontología ideó lo que un detractor denominó “plan repugnante” de autocitas para auparse a lo más alto de la clasificación en su especialidad. En Arabia Saudí, algunas universidades contrataron a destacados matemáticos como profesores honorarios para que las citas de estos contaran en la clasificación de sus instituciones.
Lo que nos lleva de nuevo a Corchado. No está claro por qué se citó tanto a sí mismo, porque nunca respondió a nuestras peticiones de comentarios hace dos años, salvo para decir que se había roto un brazo y tardaría en contestar. Pero, en aquel momento, Alberto Martín Martín, experto en bibliometría de la Universidad de Granada, señaló que España todavía se fija mucho en el factor de impacto de las publicaciones para evaluar la producción de sus investigadores, incluso más que en otros países.
En cierto modo, la opinión pública debería agradecer a Corchado que haya hecho saltar las alarmas en EL PAÍS y en el Comité Español de Ética de la Investigación. El que siga o no siga siendo rector de la Universidad de Salamanca es menos importante que el hecho de que este episodio provoque un cambio real en España y en el resto del mundo. Hay movimientos en marcha, entre ellos la Declaración sobre la Evaluación de la Investigación (DORA, por sus siglas en inglés) y el Manifiesto de Leiden, para fomentar un alejamiento de las citas y otras mediciones y avanzar hacia estrategias que recompensen el tipo de cultura de la investigación que queremos y necesitamos.
Las universidades y los gobiernos tienen la oportunidad de reformar sus estrategias de evaluación antes de que las cosas empeoren aún más. Pueden sustituirlas por la forma de siempre de evaluar el trabajo de los investigadores: leyéndolo.