19/07/12

Comment faire connaître la science ‘invisible’

Avec la publication en ligne, la recherche scientifique devient à la fois plus accessible et plus difficile à évaluer Crédit image: Flickr/Gates Foundation

Envoyer à un ami

Les coordonnées que vous indiquez sur cette page ne seront pas utilisées pour vous envoyer des emails non- sollicités et ne seront pas vendues à un tiers. Voir politique de confidentialité.

D'après Caroline Wagner, spécialiste de la politique scientifique et technologique, pour que la science soit vraiment utile au développement, il faut mettre en place un nouveau système de suivi des publications.

Il existe de nombreux recensements faisant figure de comparaisons internationales de la production scientifique. En tant que non spécialistes, les décideurs politiques et les administrateurs doivent s’appuyer sur les indices d’impact et de reconnaissance – qui comptent le nombre de fois qu’un article est publié et cité, et évalue le prestige des revues sources – pour mesurer l’impact des dépenses publiques et allouer les fonds de recherche.

Le SCIE – Scientific Citation Index Expanded (Index de citation scientifique élargi), précédemment appelé Institute for Scientific Information (ISI, ou Insititut pour l’information scientifique) de Thomson Reuters est aujourd’hui la référence en la matière.  Le SCIE est un excellent service de résumés des publications, mais il ne couvre qu’un pourcentage infime de la littérature scientifique.

Certes, la révolution de l’information a facilité la publication en ligne, et ainsi l’accès aux résultats de la recherche ; mais elle entrave aussi les efforts de suivi et de comparaison des productions scientifiques  à mesure que le nombre de publications augmente sur des supports différents.

Ainsi, nous avons maintenant affaire à un système ouvert qui se développe rapidement et dont l’évaluation est plus compliquée que jamais.

Des publications ‘invisibles’

Dans une étude récente, nous avons recensé plus de 15.000 publications dans les pays dits ‘BRIC’ (Brésil, Russie, Inde et Chine), dont seulement 495, soit environ 3 pour cent, sont référencées dans la base de données du SCIE. [1]

Etonnamment, il ne s’agit pas là d’une anomalie : nous avons constaté que cette base de données ne couvre que seulement 3 pour cent des publications des pays les plus avancés scientifiquement.

Ce qui signifie que partout dans le monde, les décideurs qui s’appuient uniquement sur le SCIE (ou ses cousins Scopus ou peut-être Google Scholar) ne couvrent pas, n’accèdent pas, n’évaluent pas jusqu’à 90 pour cent de la production scientifique, autant de travaux que nous qualifions de science ‘invisible’.

Pour des pays scientifiquement avancés comme les Etats-Unis, d’autres services de résumés comme Index Medicus et Chemical Abstracts Service permettent d’améliorer l’accès. Mais aucune base de données n’offre à elle seule l’accès à toutes les publications ou permet une comparabilité.

Pour les pays en développement, le défi de la science ‘invisible’ vient s’ajouter à la barrière linguistique. La Chine publie 6.596 revues scientifiques dont seulement une poignée est résumée en anglais. De même, la Russie et le Brésil comptent chacun près de 2.000 revues en langues nationales qui ne sont pas indexées dans le SCIE.

L’Inde est mieux représentée en anglais et dans la base du SCIE, mais à la différence des trois autres pays du BRIC, ses publications nationales (environ 550) sont éparpillées dans plusieurs bases de données difficiles à suivre. [1]

Comment un chercheur peut-il avoir accès à ces travaux ? A l’heure actuelle, il n’existe aucune méthode efficace.

Quantité et qualité

On se réjouit du progrès de la science partout dans le monde. Ce progrès enrichit les connaissances, mais il multiplie aussi les défis qui se posent à l’évaluation et à la comparaison internationale des productions scientifiques.

Pour la première fois dans l’histoire, c’est un groupe plus large de pays qui finance la recherche et développement (R&D). En 1990, seuls six pays assuraient le financement de 90 pour cent de la R&D ; en 2008, ce groupe élite comprenait plus de 13 pays. [2] Depuis le début du siècle en cours, les pays en développement ont plus que doublé leurs dépenses de R&D.

Le nombre croissant de revues en langues nationales (imprimées ou électroniques) ; les moyens de publication en accès libre comme la licence Creative Commons ; les conférences internationales (classiques ou en ligne) ; voilà autant de signes de l’essor de la science. Ajouté aux nouvelles possibilités de publication offertes par Internet, les découvertes scientifiques se multiplient tous les jours.

C’est certainement une bonne chose que les nouveaux outils de communication permettent à un nouveau groupe d’acteurs de participer au réseau mondial de la science. Mais cette évolution entrave aussi l’évaluation et suscite aussi des questions sur la nature de ce qui est mesuré par les études comparatives internationales.

La prolifération des sources suscite également quelques interrogations quant à la qualité des bases de données. Les archives en ligne comme arXiv et Research Gate sont de plus en plus populaires et recensent les prépublications électroniques d’articles non évalués, mais qui sont souvent lus et cités par d’autres. Or, aucune norme claire n’existe pour rendre compte du changement de statut (avant et après évaluation), ou comparer les citations dans le temps.

Les revues électroniques, les lettres et les bulletins d’information ne respectent pas toujours les meilleures normes de qualité (comme l’évaluation par les pairs et l’édition). Il est donc impossible de déterminer ceux qui présentent des données de qualité.

Ce qui n’enlève rien à la contribution de ces initiatives au stock mondial de connaissances. En effet, elles pourraient tout aussi bien contenir les germes des futures percées. Mais passer au crible un volume croissant de publications pour les retrouver devient de plus en plus difficile.

Etape clé : recenser toutes les publications

En effet, les récents appels récents pour l’élaboration de normes internationales d’évaluation sont louables en théorie, mais la prolifération des publications scientifiques et des sources font de cet objectif un rêve difficile à réaliser.

L’établissement d’un inventaire des divers types de publications scientifiques et leurs sources doit être la première étape de toute évaluation internationale. Il existe plusieurs possibilités de classification, par exemple, les publications strictement électroniques, les publications électroniques et imprimées ; la fréquence de parution ; le nombre de lieux de publication du même article (avant et après évaluation) ; les liens vers les données d’appui, les publications d’accès libre ou par souscription ; les publications ayant un rédacteur en chef ou évaluées par les pairs.

L’adoption d’une terminologie standard pour les divers types de publication aiderait les analystes à faire des dénombrements précis, et les décideurs à utiliser l’information disponible pour la prise de décisions.

Prendre en compte toutes les publications pourrait obliger les gouvernements nationaux ou régionaux ou les académies de sciences à investir pour un bon recensement des publications et la création d’une bibliothèque nationale des revues scientifiques dont l’accès doit être libre, à l’instar des efforts de la Russie avec le projet elibrary.ru.

Une approche inclusive permettant de garantir que toute bonne science devienne ‘visible’ au niveau mondial est un objectif noble, mais il est porteur de défis considérables pour la communauté scientifique. La transparence internationale peut être assurée grâce à de nouveaux protocoles de consultation, de catalogage et de compréhension des nombreuses activités qui accompagnent la science en cette ère de collaboration. Mais, cela passe forcément par plus d’engagement de la part des gouvernements et des sociétés scientifiques.

En l’état actuel des choses, la grande majorité des publications scientifiques reste invisible pour la plupart des utilisateurs, et cette inaccessibilité appauvrit l’ensemble de la communauté scientifique mondiale.

Caroline Wagner est titulaire de la chaire Wolf des relations internationales au Centre Battelle de politique scientifique et technologique de l’Université d’Ohio State à Colombus. Vous pouvez lui écrire à l’adresse suivante : [email protected]

[REFERENCES]

[1] Wagner, C.S., Wong, S.K. Unseen Science? Representation of the BRICs in global science. Scientometrics 90, 1001–1013 (2012)
[2] Public reports: science and technology (UNESCO Institute of Statistics)