Covid 19, remarques sur un épisode scientifique contemporain.

La pandémie de Covid-19 est un épisode sanitaire, médical, social, politique, économique et aussi scientifique. Il s’agit donc d’un phénomène pluridimensionnel. Je propose ici quelques remarques et réflexions sur ce dernier aspect de la pandémie et seulement sur celui-là.

Covid 19, remarques sur un épisode scientifique contemporain.

En quoi l’épisode Covid-19 relève-t-il des sciences ? D’abord par la place qu’y occupe l’épidémiologie qui, selon l’Académie Européenne des Patients est « La science fondamentale sur laquelle repose la santé publique ». Nous sommes bien en présence d’une science à la fois théorique, conceptuelle, hypothétique mais aussi expérimentale et associée à des activités techniques. Cette science, on y reviendra, est fortement mathématisée, ne serait-ce que par l’expression de ses deux concepts-piliers, la prévalence et l’incidence. Le premier doit mesurer les cas existants d’une maladie donnée dans une population donnée et le second doit mesurer les nouveaux cas advenant dans la même population. Deuxièmement par le rôle de la biologie cellulaire, de la génétique, plus précisément la génomique et de la théorie de l’évolution qui, toutes trois interviennent dès qu’il est question d’adaptation de virus à des cellules humaines, de connaissance du génome de l’assaillant et des mutations utiles à sa diffusion comme des phénomènes de résistance des cellules hôtes et de leur organisme. Sans doute enfin, faut-il mentionner l’écologie de la biodiversité dont je ne sais si on peut la qualifier de science constituée comme telle, mais qui en présente certaines des caractéristiques rencontrées dans les deux domaines mentionnés supra.

D’importantes connaissances scientifiques ont été mobilisées -et certaines découvertes- très rapidement. A peine le SARS-Cov-2 est-il apparu en décembre 2019, dans la ville chinoise de Wuhan qu’il a été repéré, isolé et étudié. Le 11 janvier 2020, les autorités chinoises disposent de la séquence complète du génome du virus détecté dans les échantillons prélevés sur leurs premiers patients. Son génome est un ARN constitué de 30 000 nucléotides.

Le 24 janvier les premiers échantillons sont détectés en France et quatre jours plus tard, l’Institut Pasteur annonce avoir séquencé complètement le génome du coronavirus. L’histoire se répète à travers le monde dans diverses institutions de recherches. Le 20 mars, 1200 génomes ont été séquencés. Ces informations ne sont pas banales ; elles témoignent des progrès des connaissances scientifiques puisque, en 1977, il fallait des mois pour séquencer un virus de 5000 nucléotides. L’accroissement de la capacité de séquençage est largement redevable de progrès techniques (séquenceurs à haut débit, etc.), mais ceci s’accompagne d’évolutions conceptuelles essentielles, concernant notamment la notion d’ADN muet.

Cette efficacité a aussitôt permis d’employer les méthodes de la génomique évolutive, grâce à quoi, on peut étudier la quantité et le rythme des mutations que subit le génome de SARS-Cov-2. Ainsi un arbre phylogénétique a pu être reconstitué dès la fin mars (et enrichi sans cesse ensuite) qui montre la relative lenteur à muter de ce pathogène, mais aussi permet de reconstituer son cheminement, tracer des chaînes de propagation, éventuellement encore, son caractère de dangerosité.

Des controverses nombreuses et variées n’ont pas tardé à être engagées. Cette caractéristique générale des théories scientifiques est bien mise en évidence dans le cas qui nous occupe ici : dès qu’il fut reconnu que des séquençages berlinois portaient trois mutations distinctes de celles observées dans les échantillons chinois, une belle polémique fut engagée pour savoir quel fut le chemin du virus qui le conduisit en Italie ?

Autre exemple -parmi bien d’autres- le 3 mars, dans National Science Review, le chercheur Jian Liu de Pékin, établissait l’existence de deux groupes de variants, S et L, caractérisés par une mutation importante. Jian Liu suggérait que la branche L représentant 70% du total était aussi plus agressive et plus contagieuse. Caractéristique, ou symptôme, de la science en train de se faire, une controverse s’ouvrait quelques jours plus tard au cours de laquelle quatre chercheurs de Glasgow contestaient la proposition de Jian Liu, à l’aide de suggestions spéculatives solides. La question n’est évidemment pas, ici, de savoir comment cette controverse fut tranchée, si elle le fut, mais bien de reconnaître la vie même de la science, en direct. Devant un fait de grande importance, ici la capacité d’un virus a priori non humain, de déclencher une pandémie parmi les plus grandes qu’ait connue l’espèce humaine, les scientifiques mobilisent les connaissances acquises, peuvent choisir de les remettre en cause, mettent au point toutes sortes de dispositifs expérimentaux et surtout, font preuve d’imagination. Comme le dit Bette Korber, chercheuse à Los Alamos, « Le virus se transformant lentement, les chercheurs émettent des hypothèses, seulement des hypothèses, pas des faits établis ». Peut-être regrette-t-elle qu’il en soit ainsi, mais elle aurait tort…ainsi va la science.  Il se trouve que la génomique est un de ces terrains favorable à l’advenue et au développement des théories diverses aptes à combattre la propagation et/ou la maladie ; elle n’est pas la première. L’immunologie moléculaire, l’épidémiologie sont d’autres domaines fortement intriqués avec elle et entre eux.

De nouveaux programmes sont conçus.

« Certaines pistes pourraient déboucher sur des traitements efficaces contre tous les coronavirus, y compris de l’avenir. » rapporte le journaliste scientifique Loïc Mangin dans le numéro de Pour la science du 10/4/2020. On assiste à la recherche « du fonctionnement du moindre recoin du virus SARS-CoV-2 dans l’espoir de repérer une faille, une brèche dans laquelle s’engouffrer pour mettre en défaut l’agent pathogène » (art. cit.). Les observateurs insistent sur la diversité des suggestions aussi bien théoriques que pratiques. Chaque semaine de ce printemps 2020, on mentionne la multiplication des pistes, le bouillonnement de propositions et, dans les articles raisonnablement prudents, l’idée selon laquelle on ignore « lesquelles, ni même si certaines, aboutiront » (L. Mangin, id.) Sans entrer dans des explications précises, on peut caractériser « en gros » les stratégies : les vaccins et traitements peuvent prendre pour cible les protéases qui aident le Cov-2 à s’associer aux cellules et à les infecter ; à partir de cette idée, on cherche des inhibiteurs de ces protéases. Une autre méthode consiste à combattre la tempête cytokinique¸ cette sur réaction du système immunitaire à l’attaque virale qui s’avère être une des causes principales des complications graves et des conclusions létales de la maladie. Les stratégies classiques pour mettre au point des vaccins de type ARN, ou encore des vaccins de type ADN sont engagées. On imagine encore de mobiliser l’ingénierie génétique, notamment, son outil star le CRISPR-Cas 9, avec des problèmes nouveaux qui surgissent dans le cas de CoV-2 : son patrimoine génétique n’est pas un ADN, mais un ARN, or, le CRISPR-Cas 9 est valable pour intervenir sur des ADN et pas sur des ARN. Il faut donc ouvrir des chemins encore inconnus afin de pouvoir utiliser un outil tout récemment élaboré, le CRISPR-Cas 13. La liste est longue, dans laquelle on pourrait inclure la méthode de repositionnement thérapeutique qui consiste à changer d’indication pour un médicament déjà employé avec succès contre d’autres pathogènes. Ce n’est évidemment pas critiquer cette méthode que de remarquer qu’elle n’est pas vraiment constitutive d’une théorie scientifique. Enfin, des équipes proposent de fournir des versions solubles des protéines-enzymes qui permettent l’association du virus aux cellules-cibles. Ils agiraient comme des doubles chimériques, ou fantômes des véritables vecteurs de l’association virus-cellule. Des résultats ont été obtenus qui montrent une diminution d’un facteur cinq de la charge virale ; ces résultats toutefois sont expérimentaux et obtenus dans des conditions qui sont loin de correspondre au traitement massif des populations humaines. Peut-être resteront-ils des éléments théoriques et une modeste pierre apportée à ce domaine de recherche. Encore différente est la suggestion de faire obstacle à la réplication de l’ARN viral, dès lors qu’une première infection de cellule a eu lieu. Cette liste est loin d’être complète ; elle a pour fonction de montrer à quel point l’imagination est à la barre lorsqu’un problème de théorie scientifique est ouvert. Il est facile de penser à l’arène intellectuelle (et aussi budgétaire et institutionnelle) qu’une pareille situation ne peut manquer d’ouvrir.

Mathématisation des thèses et concepts scientifiques. Exemples[1]

Les mathématiques occupent une place importante dans les activités scientifiques induites par la pandémie de 2020. Un cadrage très clair de leur rôle en épidémiologie avait été proposé, il y a vingt ans, par Alain-Jacques Valleron. Son bref article, Le rôle de la modélisation en épidémiologie, indiquait les cinq fonctions que pouvait occuper cette mathématisation : l’aide à la description de données complexes, la démonstration de lois générales, l’estimation des valeurs de paramètres non observables, la prévision des cas futurs et l’optimisation des choix et décisions.

Les modèles mathématiques de maladies infectieuses, existent depuis le XVIIIème siècle puisque l’on invoque généralement les travaux de Daniel Bernoulli en 1760 pour estimer la pertinence de la variolisation.  Dans les années 1920, les Modèles compartimentaux, sont mis au point, qui partagent la population en divers compartiments (jusqu’à souvent 7) ; par exemple, les susceptibles d’être infectés, les infectieux, les immuns (on peut y ajouter le compartiment des morts, ou des isolés etc.) Les modèles calculent notamment les passages d’un compartiment à l’autre : les règles. Les calculs de la taille des compartiments en fonction du temps sont des équations différentielles. Des modélisations plus riches et plus systématiques ont commencé à être mises en pratique dans les années 1980. On a aussi recours à des traitements matriciels, ou encore non-linéaires et stochastiques.  Il faut bien saisir que dans la zone (ou l’étape) mathématique de la constitution des théories épidémiologiques, ou virologiques, ou génomiques, la curiosité, l’audace et l’imagination se donnent libre cours.

Un mot sur les traitements stochastiques. Si l’on échoue à définir une ou des populations homogènes du point de vue de la contagiosité, il faut modéliser des processus de contagion isolés, non-continus au sein d’une même population. On a alors affaire à des superspreaders (des supertransmetteurs) et les théories mathématiques utiles sont très différentes, les résultats aussi. Ainsi, le 22 mai, Médiapart rapportait et expliquait qu’une équipe de l’Ecole tropicale de Médecine de Liverpool obtenait des taux d’immunité de groupe entre 10 et 20%.

Quelles grandes caractéristiques ont ces activités mathématiques ? Elles traitent des données. Par exemple, le système Sentinelles en France, réunit les informations épidémiologiques facilement disponibles depuis 1984 sur les maladies transmissibles (grippe, rougeole, etc.) : plus de 25000 cartes épidémiologiques et 10 000 courbes d’incidence. Il est nécessaire qu’un traitement par des méthodes mathématiques sophistiquées soit conçu, notamment pour mettre ces données en relation et en association entre elles et avec d’autres sources.

Elles produisent des lois générales. L’établissement du théorème du Seuil est un cas de très grande importance. Il est en rapport avec le phénomène d’immunité grégaire qui définit la protection globale d’une population, de l’infection qui est apportée par la présence, en son sein d’un pourcentage suffisant d’individus immuns[2]. Ce théorème a été démontré dans des situations imaginaires et simplifiées ; il est sans cesse adapté par intégration de paramètres plus réalistes. Il semble pour ainsi dire incontournable à tout projet de compréhension de ce qui se passe lors d’un épisode épidémique ou pandémique.

Elles créent ou expriment des concepts utiles ou indispensables aux sciences engagées dans l’étude des épidémies. Un premier exemple omniprésent dans les médias et la communication concernant Covid-19 est R0 ou taux de reproduction de base qui donne le nombre d’infections secondaires engendrées par une personne au cours de toute sa période infectieuse, et R(t) qui est le taux de reproduction à l’instant t.  En cherchant sur le moteur de recherche Google « calcul du R0 pour COVID-19 en France », on est dirigé sur le site du Groupe de modélisation de l’équipe ETE (CNRS, IRD, Université de Montpellier). Ce site, très régulièrement remis à jour, est extrêmement clair et renseigné.

« Ce nombre R0 est clé en santé publique car il détermine l’ampleur de l’épidémie ». « Ce nombre d’infections secondaires a tendance à diminuer en cours d’épidémie. D’une part car de moins en moins de personnes sont sensibles (une fois guéries, une mémoire immunitaire se met en place qui protège contre les ré-infections). D’autre part, car des mesures sanitaires (notamment la limitation des contacts) sont implémentées. ». On notera que, sans cette confiance dans le phénomène d’immunisation grégaire, R0 perd tout intérêt. Les auteurs indiquent en préambule que « le rapport n’est en aucun cas officiel et est avant tout pédagogique. De plus, les calculs réalisés ici sont faits avec des hypothèses volontairement simplifiées ». Le résultat obtenu en fixant le début de l’épidémie en France fin janvier est 2,49. Il est utile de savoir que le calcul du R0 dépend de choix et de paramètres qui induisent des résultats très divers. En un mois (1 janvier et 7 février 2020) douze équipes ont calculé le R0 du COVID-19 en utilisant des modèles et des données de paramètres différentes. Les résultats allaient 1,5 à 6,68. (source Modèle compartimentaux en épidémiologie, Wikipedia).

Un autre concept doit être mentionné : le seuil d’immunité grégaire qui est le phénomène de protection d’une population par lequel une contagion est enrayée si un certain pourcentage de la population est immunisé par voie vaccinale ou parce qu’après avoir été contaminées, les personnes n’ont pas développé la maladie ou en sont guéries. Cette notion abstraite et complexe à calculer, existe néanmoins bel et bien et la valeur de ce seuil, établie par le théorème de seuil (Hamer en 1906, puis Kermack et Mc Kendrick en 1927) est précisément connue pour la diphtérie, la rougeole, les oreillons, la coqueluche, la polio, la rubéole, la variole, la grippe.

Les activités mathématiques ont encore pour fonction l’évaluation de paramètres cachés à l’observation, au premier rang desquels bien sûr, ceux qui relèvent de la prévision (mais aussi de la connaissance du passé non ou mal documenté). Par exemple la prévalence d’une maladie dans une vaste population par échantillonnage ou dans l’avenir par constitution d’un modèle hypothétique. Un exemple intéressant est aussi celui de l’estimation d’une contamination in utero qui n’est pas possible (ou très difficilement) par observation. Un modèle mathématique sera recherché pour disposer d’une telle évaluation.

Le modèle mathématique peut aider à l’expérimentation et pas seulement s’y substituer comme dans le cas précédent. Par exemple, voudrait-on savoir quel genre d’échantillon est le plus performant pour lancer un protocole de test d’un programme de vaccin ou de traitement ?  Il peut s’avérer très lourd (voir impossible) de mettre en scène cette comparaison et de l’évaluer. Une modélisation est sans doute un bon moyen de s’en dispenser et de découvrir de bonnes raisons pour choisir telle option plutôt que telle autre.

On pourra souligner un point qui ne manque pas de surprendre. Un paramètre semble indispensable pour exploiter ces résultats modélisés, c’est la mesure du taux d’infection d’une population donnée (par exemple la population française), or, trois mois après le début de l’épidémie, rien de précis n’était disponible, ni même un ordre de grandeur. Était-ce 5% de la population qui avaient rencontré SARS-CoV-2, ou 40% ? nul ne le savait et aucune méthode consistante (tests très nombreux, échantillonnage etc.) n’était proposée. Dans ces conditions, les modèles pouvaient donner l’impression de tourner à vide. La science progressait mais dans un monde radicalement dissocié du monde réel.

Accroissement de l’ignorance

Un indicateur de notre « ignorance nouvellement acquise » peut être dû à l’emploi de la modélisation mathématique. Je ne saurais mieux expliquer cet argument qu’en citant Alain-Jacques Valleron (art. cit.) qui mentionnait l’amplitude décourageante d’un résultat prévisionnel concernant la maladie de Creutzfeldt Jakob (entre une centaine de cas et 80 000).

L’imprécision de ces prévisions quantifie l’imprécision des connaissances à un moment donné. La force du modèle est de mettre ensemble toutes les données connues dans une construction rationnelle et de montrer l’étendue des interrogations qui restent, une fois cette construction rationnelle faite.

Il faut bien avouer que notre ignorance s’affiche parfois de belle manière. Le 16 mars 2020, alors même que les autorités françaises (et de bien d’autres pays) choisissaient et imposaient un confinement assez strict des populations et que les politiques publiques concernant la pandémie se centraient autour du slogan « Restez chez vous », on pouvait lire dans le journal La tribune les explications suivantes de Pascal Crépey, épidémiologiste et biostatisticien à l’EHESP

Pour l'instant, la seule grande inconnue est l'impact de la saisonnalité sur la dynamique de l'épidémie […] Vu que l'hémisphère sud est encore en été, ce constat pourrait signifier que la période estivale a un impact. Peut-être pas sur le virus lui-même, mais au moins sur sa propagation. En effet, en été les comportements de la population changent : on aère plus les habitations, on passe plus de temps à l'extérieur, on vit de façon moins confinée donc on se contamine moins... Si cela se confirme, on va potentiellement voir l'épidémie ralentir dans les prochaines semaines et s'acheminer vers une sorte de trêve estivale. (La Tribune, Covid-19 en France : vers quelle évolution de la maladie?)

Pascal Crépey n’a pas tort de mentionner l’ignorance où nous sommes quant au caractère saisonnier de la dynamique de l’épidémie. Il est cependant probable que sa déclaration résonne étrangement aux oreilles des populations qui entendent à peu près les instructions inverses inspirées par bien des conseillers scientifiques des autorités. C’est, pour le coup, comme si les sciences ne pouvaient pas grand-chose. Ce qui, au fond, est assez juste pour ce qui concerne l’élaboration de recommandations pratiques.

La statistique prévisionnelle de mortalité.

L’Université américaine Johns-Hopkins est apparue en pointe, dès le mois de mars pour fournir des résultats de modélisation statistique concernant, par exemple la mortalité de l’épidémie, rapportée, soit aux cas détectés, soit à la population. Ses prévisions ne font pas l’unanimité, comme le montre l’étude menée par l’équipe d’Hendrick Streeck, chef de l’institut de virologie de l’Université de Bonn (Le Monde, Samedi 11 avril 2020). Elle a démarré le 31 mars et les premiers résultats ont été publiées le 9 avril. Les chercheurs ont construit un échantillon représentatif de 1000 individus, ils ont fait leurs choix théoriques et mathématiques à partir de quoi, pour une population typique d’Allemagne, « ils évaluent le taux de mortalité du virus à 0,37%. Celui-ci est cinq fois inférieur au taux que donne Johns Hopkins pour l’Allemagne. » (Le Monde, 11 avril 2020, Une étude allemande revoit à la baisse la mortalité). Il n’aura fallu que quelques heures au virologue Christian Drosten, chef du service de l’hôpital de la charité à Berlin, pour contester les prévisions de Streeck : « on ne peut rien déduire de sa conférence de presse. Il nous manque par ailleurs un document solide entre les mains » (id.) Certains points de méthode, soutient le berlinois, notamment sur la fiabilité des tests de détection des anticorps, sont critiquables. Ce genre d’argument est de bonne guerre dans l’élaboration de la science. C’est dire en effet qu’il peut y avoir des défauts, non seulement dans les hypothèses théoriques mais aussi dans les procédures expérimentales. Le temps du consensus dans un épisode scientifique émergent n’est pas immédiat.

Les exemples fourmillent où la prévision théorique est surtout un révélateur de l’état de grande ignorance dans laquelle se trouvent les scientifiques quant à cette pandémie. Tout ceci n’est pourtant pas peine perdue, en effet, il est très probable que, de ces controverses, de ces tentatives, sortira une méthode, une théorie performante mais force est d’admettre qu’à ce jour, des portes se sont ouvertes sur de l’ignorance.

On dispose de sources d’informations d’une qualité impressionnantes. Notamment les tableaux proposés par l’IHME de Seattle dès le mois de mars, qui donnaient pays par pays, des projections très claires de mortalité jusqu’à la fin août. On remarque que de très importantes modifications des courbes apparaissent d’une semaine sur l’autre ; par exemple la prévision pour le Royaume-Uni passe de 66 000 à 33 000 entre début avril et mi-avril. Dans leurs explications le Professeur Christopher JL Murray et ses collègues indiquent que leurs modèles sont statistiques et que les paramètres intégrés concernent les mesures de distanciation sociale. Jour après jour, ils calculent les corrélations entre ces mesures et l’évolution des courbes réelles. A partir des mesures de corrélation et de l’évolution des mesures prises, ils adaptent leurs courbes. Si l’on comprend bien, ces modélisations ne sont pas biologiques, ni virologiques. Elles sont peut-être pertinentes, mais clairement n’ont aucune ambition explicative et ne s’appuient en rien sur une quelconque compréhension de l’activité de SARS-Cov-2.

On le dit, les anciens savaient que « la variole ne s’attrape pas deux fois ». Qu’est-ce à dire qu’ils le savaient ? Un savoir empirique et grossier sans doute. Le temps des théories épidémiologiques, des travaux de virologie, des recherches cellulaires sur les anticorps et les systèmes immunitaires est venu où ont été forgés des arguments théoriques et expérimentaux qui ont fait de l’idée d’immunité par primo-contamination une idée scientifique admise de façon générale. Quel n’est pas la surprise de constater le désarroi des spécialistes, à propos de cette thèse, dans les premiers mois de la pandémie Covid-19 ? Un grand nombre d’articles sur la question « peut-on être deux fois frappé par la maladie ?» restent d’une discrétion qui confine au mutisme. Voici que l’ignorance théorique a pris le dessus et la place est donnée à la langue de bois :  « A ce stade, nous manquons de données » entend-on, ou encore « Il faut attendre pour mesurer si les diagnostics de fin de la charge virale étaient fiables », ou encore « on ne connaît encore que peu de choses sur ce virus » etc. Une fois de plus, il n’est pas question de reprocher des méconnaissances, mais il faut savoir les regarder en face. Si l’on ne peut plus affirmer que « le Covid 19 ne s’attrape pas deux fois », alors, un pilier principal de l’épidémiologie est sapé et, par exemple, le concept d’immunité grégaire ou Seuil d’immunité est caduc, réfuté et, avec lui, certains modèles prévisionnels (notamment ceux qui ne sont pas des modèles statistiques) ; on peut sans doute penser que le concept de vaccination peut s’en trouver modifié. Dans un article de Science et Avenir du 01/04/2020, la journaliste Camille Gaubert mène un entretient remarquable avec la Morgane Bomsel, directrice de Recherche CNRS et Inserm. Celle-ci expose avec grande clarté et surtout, avec une ouverture d’esprit et une disposition à la découverte impressionnante, comment elle comprend la situation. En effet admet-elle, il est possible que SRAS-Cov-2 n’induise pas d’immunisation. Ce qui est certain est l’existence « d’une réponse immunitaire induite par l’infection. La question est de savoir si elle va être protectrice ou pas ».  Pour les autres coronavirus, le SRAS de 2003 ou le MERS de 2012, l’infection induit la production, par l’individu infecté, d’anticorps capables de le neutraliser in vitro, mais aussi d’autres anticorps qui facilitent au contraire la réinfection in vivo, c’est-à-dire dans l’organisme. » Elle s’explique et rappelle qu’en réponse à une infection, nous produisons ces grosses molécules appelées anticorps mais « lorsque les anticorps se fixent sur les virus et les emmènent au contact des cellules immunitaires, les virus MERS les infectent » (art. cit.) On ne peut ici, rapporter les explications de Mogane Bomsel. Elle insiste bien sur le côté ouvert et hypothétique de ce à quoi peut conduire cet état des connaissances. Il est peu douteux que la crise scientifique amorcée par la pandémie ouvrira des possibilités (optimistes ou non, c’est une autre affaire) qui sont autant de questions, c’est-à-dire autant d’inconnues.

Des phénomènes inattendus surgissent au cours de la propagation de la pandémie. Celui-ci par exemple : il semble que les hommes sont beaucoup plus atteints que les femmes. A l’heure où j’écris ces lignes, les témoignages des praticiens sont convergents, voire unanimes et les proportions avancées, vagues mais très significatives (du genre 2/3 ou ¾). Quelle intéressante question se présente à l’esprit : quelle différenciation génétique, ou épigénétique, ou encore environnementale explique ce phénomène ? A moins, ce qui n’est pas impossible, qu’un ou plusieurs biais observationnels et de mesure n’aient fait surgir qu’une fausse donnée.  A ce stade d’ailleurs, la question est ouverte aussi entre les fumeurs et les non-fumeurs, des groupes sanguins O ou A et, plus saisissante encore, entre les populations d’âge différent ? Dans ce dernier cas, les différenciations phénotypiques sont si manifestes que l’inégalité face à la maladie apparaît évidente, naturelle et qu’elle ne pose pas question. C’est, bien entendu faux car la jeunesse pourrait a priori être tout aussi bien une faiblesse qu’une force pour repousser l’agresseur pathogène. Il est clair que les sciences disposent, avec ces questions d’importants domaines de recherche où l’on rencontre à ce jour plus de problèmes que de solutions.

 En un sens, ces quelques remarques vont probablement être rapidement dépassées parce que les hypothèses, les arguments, les expériences, les données et les résultats vont changer, vont être remplacés : telle chose qui semblait obscure ou mal comprise sera maîtrisée, telle autre qui paraissait n’être qu’un détail ou une anomalie mineure prendra de l’ampleur ; les diverses modélisations s’avèreront être, les unes de grands succès, les autres sans efficacité ni application utile. Il me semble cependant que le schéma de développement ou la dynamique de cet épisode scientifique a quelque chance de demeurer valide et de nous donner quelqu’idée de ce que peuvent et ce que ne peuvent pas les sciences.

Vincent JULLIEN

 

[1] Alain-Jacques Valleron, Le rôle de la modélisation en épidémiologie, « Comptes Rendus de l’Académie des Sciences- Série III, Sciences de la Vie », vol. 323, mai 2000, pages 429-433.

[2] Voir l’article cité de Valleron, dans les Comptes Rendus A.S. Série III, Mai 2000. Il a été ébauché par Hamer en 1906, modifié et enrichi par Kermack et Mc Kendrick en 1927.

Le Club est l'espace de libre expression des abonnés de Mediapart. Ses contenus n'engagent pas la rédaction.