En tant que scientifique, j’ai été sollicitée par un lobby particulier : les défendeurs des « ayants-droits » des publications scientifiques. Si leur cause paraît noble sur le papier, une analyse plus approfondie de ces ayants-droits révèle un oligopole puissant : celui des éditeurs[1] de publications scientifiques, à la merci duquel les chercheurs, les universités et même les États se trouvent.
Car dans le domaine scientifique, l’éditeur est le roi du pétrole, et le chercheur le dindon de la farce. Une poignée de grands groupes éditoriaux (le néerlandais Elsevier, l’allemand Springer-Nature, l’américain Wiley & Sons et l’anglais Informa) se partagent en effet un marché de plusieurs milliards de dollars, pour des bénéfices d’exploitation à faire pâlir d’envie certaines industries : en 2014, le plus grand éditeur de revues de recherche au monde, Elsevier, a ainsi dégagé 762 millions de livres sterling de bénéfices d’exploitation sur un revenu légèrement supérieur à 2 milliards de livres sterling[2], soit 37% de profit.
Comment le marché des publications scientifiques, si confidentiel pour le néophyte, peut-il rapporter autant ?
De l’imprimerie à l’escroquerie
La situation n’a pas toujours été rose pour les éditeurs de publications scientifiques. Avant l’avènement de l’ère numérique, le marché de l’édition scientifique était composé d’une multitude d’éditeurs, qui diffusaient leurs journaux scientifiques sur un marché vraiment concurrentiel.
Dans les années 2000, une poignée d’éditeurs ont senti le vent digital tourner. Après avoir racheté les autres maisons d’édition et numérisé leurs revues parfois pluricentenaires, ils ont créé des plateformes de publication des articles de recherche. Faisant tout pour continuer à bénéficier des droits acquis du temps de l’imprimerie, ils ont drastiquement réduit leurs coûts marginaux grâce à la dématérialisation de leurs produits, cumulant les avantages de leur ancien modèle économique avec ceux de l’ère numérique. Cette habile reconversion leur a ainsi permis de s’asseoir sur une double rente : celle du prestige des journaux qu’ils possèdent, et celle de la propriété de droits d’auteurs qui courent jusqu’à 70 ans après la mort du dernier co-auteur.
Un contrôle multidimensionnel de la chaîne du travail scientifique
En Europe et ailleurs, cette double rente permet aux éditeurs de contrôler toute la chaîne du travail scientifique, depuis l’évaluation par les pairs jusqu’à la carrière des chercheurs, en passant par la bibliométrie.
L’évaluation par les pairs, ou peer-reviewing, gage de la qualité scientifique d’un article, est réalisée gratuitement par ces derniers, trop heureux de mentionner sur leur CV qu’ils participent au comité éditorial d’une prestigieuse revue scientifique pour s’interroger - ou s’offusquer - de l’absurdité de cette situation. La bibliométrie, quant à elle, permet de déterminer le classement des journaux en fonction de leur taux de citation, les données et les méthodes d’évaluation utilisées pour cela restant secrètes donc non reproductibles. Suivant les mêmes dérives que l’audit réalisé en interne, les indicateurs bibliométriques sont devenus des outils marketing pour valoriser le classement des nombreuses revues que les éditeurs détiennent (environ 2500 revues pour Elsevier seul), dont la réputation des chercheurs est largement dépendante.
Grâce à cette position oligopolistique, les éditeurs revendent à prix d’or, sous forme d’abonnements, ce que les chercheurs leur fournissent gratuitement. Par conséquent, le contribuable paye deux fois : une première fois pour qu’un article soit produit, une deuxième fois pour qu’il soit lu. A l’heure où la recherche publique est asphyxiée par le manque de fonds, l’Etat français a ainsi déboursé 172 millions d’euros en 2014 pour que les universités françaises et les établissements publics hospitaliers et de recherche puissent accéder aux quelques 2000 revues d’Elsevier pendant cinq ans[3].
Ici, les lecteurs s’étonneront de ces dépenses, alors que les articles sont de plus en plus consultables en ligne gratuitement. En réalité, ce qu’on appelle le système open access cache une autre source de profit pour les éditeurs : les frais de publication, ou APC (pour Article Processing Charges), payées en amont par les chercheurs pour permettre à leurs articles d’être accessibles gratuitement. Des frais conséquents, car les APC coûtent généralement entre 2000 $ et 3 000 $ par article.
Rappelons que ces APC ne financent ni l’évaluation par les pairs, réalisée gratuitement par les chercheurs, ni la mise en page, puisque le travail d’édition à proprement parler a presque disparu : plus question de retaper les travaux manuscrits des chercheurs, ceux-ci sont soumis dans un format prêt à être publié (ou camera-ready, dans le jargon des chercheurs).
Comme les chercheurs peuvent difficilement se permettre de débourser 3 000 $ par article, ce sont les universités qui payent un prix de gros, via les négociations nationales telles que celle évoquée plus haut. Cette intermédiation entretient l’opacité du coût des publications scientifiques : bien souvent, les chercheurs ignorent les dessous du système, et par là même le font perdurer.
Les éditeurs ont d’ailleurs tout intérêt à garder le mystère sur les contrats négociés, tant les prix varient d’une université à l’autre, et d’un pays à l’autre. En 2014, le boycott d’Elsevier par les universités néerlandaises, en raison du coût de son système d’open access[4], avait d’ailleurs amené certaines associations de chercheurs européennes à s’interroger sur les tarifs pratiqués par les éditeurs. Cette première rébellion s’est poursuivie en Allemagne : face au refus d’Elsevier de baisser ses prix et de faire preuve de transparence sur ceux-ci, un consortium de plus de soixante grandes universités et institutions allemandes a tout simplement annulé son abonnement pour 2017[5].
Pour garder le secret sur leurs contrats, les éditeurs brandissent l’exception à la transparence des contrats permise par une directive européenne (directive 93/37/CE) dans le cadre de la protection de la propriété intellectuelle. Cette directive permet aux éditeurs d’empêcher la divulgation des contrats passés avec des institutions publiques - un joker que l’UE serait bien avisée de leur retirer.
Data mining : la nouvelle mine d’or des éditeurs ?
C’est une autre directive européenne que les éditeurs voudraient à présent amender : celle sur le droit d’auteur. Dans le domaine des publications scientifiques, les droits d’auteurs ne se cantonnent pas à l’article en lui-même : ils incluent toutes les données qui y sont liées, telles que les tableaux de chiffres collectés, et les codes utilisés pour faire les calculs. Une mine d’information cruciale pour la recherche, qui recoure de plus en plus à la fouille de données, ou data mining.
La fouille de données consiste à extraire une connaissance à partir de grandes quantités de données, par des méthodes automatiques ou semi-automatiques[6]. Par exemple, le data mining a permis à une chaîne de supermarché américaine de découvrir que les pères de famille ont tendance à acheter des bières quand ils vont chercher des couches dans les supermarchés le soir (ce qui l’a amenée à placer stratégiquement les couches à côté du rayon des bières)[7].
Au-delà de ces stratégies mercantiles, la fouille de données est une méthode de plus en plus utilisée par les chercheurs pour faire avancer la recherche et l’innovation. À force de repérer les téléchargements en masse de leurs articles, les éditeurs ont flairé une nouvelle source de profit. Prenant le prétexte fallacieux de la saturation de leurs serveurs, ils exigent de recevoir une indemnisation... en plus de la note salée déjà payée par l’Etat ou les universités pour accéder à ces mêmes articles.
En France, les éditeurs ont obtenu gain de cause dans la loi sur le numérique en agitant le spectre de l’exploitation des données par les multinationales. Comme celles-ci ont de toute façon les moyens de payer leur accès aux données, les start-ups et la recherche indépendante sont en réalité les grandes perdantes de ce système.
Via la directive sur le droit d’auteur, l’Europe va peut-être pouvoir redresser la situation. Au Parlement européen, un consensus se forme entre les groupes politiques sur la question de l’ouverture du data mining à toutes les organisations, publiques et privées. La recherche publique étant financée par les contribuables, il est normal que les fruits de celle-ci leur reviennent. en effet, comme le répètent volontiers les associations d’universités aux parlementaires, the right to read is the right to mine.
Casser la rente d’oligopole des éditeurs
Au-delà de la fouille de données, la relation entre chercheurs et éditeurs est à redéfinir. Si ces derniers apportent une valeur ajoutée indéniable grâce à leurs plateformes de publication, la privatisation des publications la recherche financée par les deniers publics doit cesser.
Pour mettre fin au contrôle multidimensionnel exercé par les éditeurs sur le travail scientifique, il faut s’attaquer aux trois dimensions de leur oligopole : d’une part, leur préemption des droits d’auteurs, d’autre part, leur possession des revues de recherches, et pour finir, leur influence sur la carrière des chercheurs de par l’usage des indicateurs bibliométriques dont ils disposent.
Le premier chantier nécessite de systématiser le deuxième dépôt des articles scientifiques sur des plateformes publiques, telle que la multidisciplinaire HAL, en faisant en sorte qu’elles soient interopérables avec le reste de la littérature scientifique européenne. La plateforme Zenodo, pilotée par le programme de recherche de l’UE Horizon2020, pourrait par exemple guider la future publicisation de la recherche européenne.
En parallèle, un changement de mentalité doit s’opérer dans la communauté scientifique, qui ne peut plus continuer à évaluer la valeur de ses membres à l’aune des revues dans lesquelles ils publient et de leurs taux de citation. Accompagner l’émergence des nouvelles méthodes d’évaluation (les Alternative metrics) permettra d’apporter la nécessaire bouffée d’oxygène dont la recherche publique a besoin pour continuer.
Le savoir, bien commun de l’humanité[8]
En définitive, la protection du savoir face aux intérêts privés est une condition sine qua non pour rétablir la crédibilité de la science, à l’heure où les canulars et le climato scepticisme gagnent les plus hautes sphères de la vie politique. Or, le savoir n’est jamais mieux évalué et protégé que lorsqu’il est partagé : plutôt que de l’emmurer derrière des contrats de publications, des comités éditoriaux à huis clos, des salles de lecture à accès restreint, des téléchargements payants, il faut permettre à chacun de le vérifier, le développer et l’amplifier.
Les données produites par les chercheurs (mesures, articles, codes...) doivent être protégées comme biens communs de l’humanité, utilisables par tous et possédées par personne. Sans ces données, il ne peut y avoir de reproductibilité des études scientifiques, ni de discussion sur leurs conclusions, ni de confiance dans les décisions politiques qui en découlent. Le citoyen n’a d’autre choix que de suivre la science aveuglément ou de la rejeter. La véritable démocratisation du gouvernement des experts suppose donc de garantir à chacun l’accès aux publications et aux données de la recherche, pour que n’importe qui puisse suivre les travaux des chercheurs, et même y contribuer.
À Bruxelles, la question du glyphosate me fournit un exemple édifiant. L’Agence Européenne des Produits Chimiques (ECHA) et l’Autorité Européenne de Sécurité des Aliments (EFSA) n’ont pas classé cette substance active du RoundUp comme cancérigène probable, allant à l’encontre des conclusions de l’Organisation Mondiale de la Santé (OMS). Qui croire ? L’OMS, qui a partagé toutes les données dont elle s’est servie pour rendre ses conclusions, ou l’ECHA et l’EFSA, qui refusent de publier les études secrètes censées justifier leur décision ?
Si les conclusions de l’OMS vous paraissent plus fiables, vous pouvez ajouter votre nom à l’Initiative Citoyenne Européenne pour l’interdiction du glyphosate (https://stopglyphosate.org/).
[1] Ou « maison d’édition ». Traduction de l’anglais publishers, à ne pas confondre avec les editors, qui désignent les chercheurs participant au comité éditorial des revues scientifiques.
[2] https://www.wsj.com/articles/the-science-of-the-tax-dollar-double-dip-1459379449
[3] un chiffre révélé par rue89 : http://tempsreel.nouvelobs.com/rue89/rue89-nos-vies-connectees/20141110.RUE6560/la-france-prefere-payer-deux-fois-pour-les-articles-de-ses-chercheurs.html
[4] https://www.actualitte.com/article/monde-edition/pays-bas-elsevier-et-les-universites-parviennent-finalement-a-un-accord/62512
[5] http://www.archimag.com/bibliotheque-edition/2016/12/19/60-bibliotheques-recherche-allemagne-boycott-elsevier
[6] https://fr.wikipedia.org/wiki/Exploration_de_donn%C3%A9es
[7] http://www.liberation.fr/futurs/1998/12/10/les-couches-pres-de-la-biere_255694
[8] Hess, C., & Ostrom, E. (Eds.). (2007). Understanding knowledge as a commons: from theory to practice (pp. 41-81). Cambridge, MA: Mit Press.