15/03/15

Radar latinoamericano: ¿Publicar es perecer?

libros_Universidad_CarlosIII_Madrid_flickr.jpg
Crédito de la imagen: Universidad Carlos III de Madrid

De un vistazo

  • Publicar en la revistas científicas de la región aún no tiene el valor de sus homólogas internacionales
  • Pero tener revistas latinoamericanas puede ser uno de los mecanismos para darle identidad a la ciencia regional
  • Revolucionar los criterios de evaluación de la producción científica de la región ayudará a que publicar en la región tenga valor

Enviar a un amigo

Los detalles proporcionados en esta página no serán usados para enviar correo electrónico no solicitado y no se venderán a terceros. Ver política de privacidad.

“A un investigador latinoamericano que actualmente tenga un artículo interesante por publicar no le conviene enviarlo a una revista latinoamericana”.

Tal es la desconsoladora conclusión de Javier Laborde[1], un ecólogo mexicano puesto a analizar el panorama de las revistas científicas en América Latina. Y no es ésta, por cierto, una ocupación irrelevante: las comunidades científicas de la región, siguiendo las pautas marcadas antes por sus contrapartes en Estados Unidos y Europa, toman como indicador casi indisputado de producción científica el número de artículos publicados en un conjunto de revistas “elegidas”.

Pero hay un problema: evaluar la producción científica es mucho más complicado. Por ejemplo, atendiendo exclusivamente el número de publicaciones, según la base de datos del Institute for Scientific Information (ISI), ahora llamado Web of Science de Thomson Reuters, podría concluirse que un país entero, Perú, aumentó su productividad científica 40 por ciento un año, solo para verla desplomarse 9 por ciento al siguiente.

Web of Science alega que con sus “indicadores esenciales de ciencia”, uno puede “analizar el rendimiento en investigación de compañías, instituciones, naciones y revistas (científicas)”. Pero si la productividad científica de una nación —como la de universidades, centros de investigación o científicos individuales— se mide, en efecto, por el número de artículos en revistas de índices como los de Thomson Ruters, la advertencia de Laborde es, entonces, un corolario inevitable.

El cliché “publicar o perecer” tiene latitud y longitud.
 

Lo malo de la bibliometría

Una disminución en el número de artículos en revistas indexadas ¿es realmente una mengua de la productividad científica? ¿No podría suceder que el acento exagerado en satisfacer los criterios de unos pocos índices de revistas privilegiadas distorsione la visión estratégica de la ciencia en países en vías de desarrollo?

Leslie Chan, supervisor del programa de Estudios de Desarrollo Internacional de la Universidad de Toronto, observa que “mientras la producción total de publicaciones científicas de China medida por la Web of Science de Thomson Reuters ahora se encuentra sólo segunda detrás de Estados Unidos, el enfoque en el reconocimiento externo socava la investigación de importancia local y desincentiva el que el gobierno se centre en políticas y financiamiento localmente relevantes”[2].

Laborde ha analizado los criterios y parámetros de Web of Science y centra su crítica en dos: el Índice de Citas (CI, por Citation Index) y el Factor de Impacto (IF).

Cuando Eugene Garfield formó el primer CI, en 1961, lo hizo con 613 revistas de 28 países (Garfield[3] no especifica ni cuáles ni cómo los eligió); a este índice semilla se fueron añadiendo nuevos títulos, pero dando preferencia a aquellos editados por autores con muchas citas en las versiones previas del CI. “Este criterio circular y el efecto fundacional del CI inicial (…) ha tenido, en cierto grado, un efecto lesivo en las revistas científicas publicadas fuera de EUA y Europa occidental”, acusa Laborde.

En cuanto al IF, Garfield lo definió con aritmética elemental como un simple cociente “el numerador, que es el número de citas en el año en curso de artículos publicados en los dos años previos, y el denominador, que es el número de artículos substantivos y revisiones publicadas en esos mismos dos años”[4].

Ana María Cetto, física de la Universidad Nacional Autónoma de México que ha analizado métodos de evaluación de la productividad científica, lo encuentra falible: “hay artículos que se leen y no se citan y hay artículos que no se leen y se citan. El que un artículo se cite no es una garantía de que un artículo haya sido leído realmente”[5].
 

Lo bueno de la apertura

Las distorsiones bibliométricas no son el único problema, y acaso ni siquiera el más grave. Un análisis del negocio de las publicaciones académicas describe a la industria como dominada por “tres gigantes”, uno de los cuales (Elsevier) operaba en 2000 con márgenes de ganancia de entre 21 y 36 por ciento[6], más de ocho veces el promedio de la competencia. La Universidad de Harvard —nada enemiga de la economía de mercado— describió como “fiscalmente insostenible y académicamente restrictiva” la situación de sus bibliotecas ante las tarifas de suscripción a las revistas que conforman el núcleo del CI de Thomson Reuters.

¿El remedio? Pedir a sus científicos que consideraran someter sus artículos a revistas con suscripciones razonables, o bien de acceso libre. “Trasladen el prestigio al acceso libre”, desafió Harvard[7].

Cetto concuerda, pero quiere algo más radical: revistas latinoamericanas y evaluación latinoamericana. “¿Qué se evalúa (y) medido con qué indicadores? ¿Quién define el prestigio de la revista: Elsevier, porque está en su índice de revistas privatizadas? ¿O tenemos nosotros nuestra propia capacidad de definición de lo que es bueno?”

Tener revistas latinoamericanas, alega Cetto, “es uno de los mecanismos para darle identidad a nuestra ciencia (…) porque las revistas se consideran un medio de producción y (…) al darle la espalda a nuestras propias revistas renunciamos a nuestros medios de producción”.

Desde su experiencia como director de la Revista de Gastroenterología de Perú, Alberto Zolezzi ha propuesto un punto de arranque: “que se formen sociedades de editores regionales que difundan la información de esta parte del continente”[8]. Por otro lado, y curiosamente en Lima, Perú, ha tenido lugar estos días la IV Conferencia ReLAC, con un tema oportunísimo: “El futuro de la evaluación en América Latina y el Caribe”[9], parte del Año Internacional de la Evaluación[10], 2015.

La región no empieza de cero. Frente a los índices, las revistas y los criterios del statu quo, América Latina ya tiene SciElo[11], Redalyc[12] y Latindex[13].

Acaso no estemos tan lejos de revolucionar los criterios de evaluación de la producción científica de la región, de forma que publicar, en nuestras latitudes e idiomas, no implique perecer.




[1] http://www.latindex.org/ciri2010/parte_01/01_03/01_03_00.html
[2] http://www.scidev.net/america-latina/influencia/opinion/acceso-abierto-libera-potencial-de-investigaci-n-local.html
[3] http://garfield.library.upenn.edu/papers/80.pdf
[4] http://garfield.library.upenn.edu/papers/jamajif2006.pdf
[5] http://www.imer.mx/rmi/esencia-ciencia
[6] http://southernlibrarianship.icaap.org/content/v09n03/mcguigan_g01.html
[7] http://isites.harvard.edu/icb/icb.do?keyword=k77982&tabgroupid=icb.tabgroup143448
[8] http://www.latindex.org/ciri2010/parte_02/02_10/02_10_00.html
[9] https://conferenciarelac.wordpress.com/
[10] http://www.mymande.org/evalyear
[11] http://www.scielo.org/php/index.php?lang=es
[12] http://www.redalyc.org/
[13] http://www.latindex.unam.mx/