Marc Tertre
Education populaire (science et techniques), luttes diverses et variées (celles ci qui imposent de "commencer à penser contre soi même") et musiques bruitistes de toutes origines
Abonné·e de Mediapart

147 Billets

10 Éditions

Billet de blog 30 nov. 2022

Marc Tertre
Education populaire (science et techniques), luttes diverses et variées (celles ci qui imposent de "commencer à penser contre soi même") et musiques bruitistes de toutes origines
Abonné·e de Mediapart

Miscellanées scientifique du mois de novembre 2022

Ce mois ci focus sur l'informatique quantique avec la notion de "qubits" et l'algorithme de Shor, une série d'entretiens donné par Bruno Latour, des fougéres, un point (critique) sur l'agriculture numérique, une évocation de Julia Kempe, une chercheuse investie dans l'informatique quantique et une conclusion sur Latour et son dernier l'ouvrage réédité sur Pasteur

Marc Tertre
Education populaire (science et techniques), luttes diverses et variées (celles ci qui imposent de "commencer à penser contre soi même") et musiques bruitistes de toutes origines
Abonné·e de Mediapart

Ce blog est personnel, la rédaction n’est pas à l’origine de ses contenus.

Le mois dernier, deux sujets ont été ouverts à la discussion : la notion si importante d'intrication quantique et l'importance de l'analyse des sciences effectuée par Bruno Latour. Nous reviendrons déjà sur ces deux sujets en expliquant le fonctionnement de l'informatique quantique qui utilise le phénomène pour proposer une nouvelle façon totalement nouvelle d'effectuer des calculs et nous reviendrons sur l'importance des sciences pour comprendre le monde qui nous entoure en revenant sur le dernier livre de Bruno Latour édité par les éditions "" comme un hommage en rééditant le livre sur Pasteur écrit il y a une vingtaine d'année

Qubits et informatique quantique

L'informatique s'est constituée sur la notion de bit : l'information est représentée sous forme binaire : o ou un, "ouvert ou fermé", circuit conducteur ou isolant, présence ou absence de tension. Ces bases de fonctionnement simple ont permis une révolution dans la façon de calculer et dans les résultats qui y sont attachés. On est passé en moins d'un siécle d'un "ordinateur" à la puissance limitée et aux dimension considérable à un "monde binaire" qui maille l'ensemble de nos connaissances, de nos livres, de nos musiques, de nos conversations mêmes.

Cette révolution a été rendue possible par une technologie d'intégration de circuits à la puissance de calcul redoutable : aujourd'hui un téléphone portable a une capacité de traitement de donnée largement supérieure a celle de l'ensemble de l'informatique au début des années 70. On est passé d'une unité de calcul constitué d'un "tube électronique", une sorte de lampe à filament un peu spéciale, à une "puce" contenant plusieurs centaine de millions de transistor, et presque autant de "portes logiques". Cela a été rendu possible par l'invention des "circuits intégrés" dans les années 60. Ceux ci sont passé d'une intégration de quelques transistors à l'origine à des densités considérables aujourd'hui. Les transistors sont "gravés" par des procédés de plus en sophistiqués, et la "finesse de gravure" est de plus en plus grande. Mais on arrive à des limites physiques, celle de l'electron. Actuellement on arrive à "graver" des transistors plus fin que le virus du covid 19 !

C'est pourquoi on a recherché de nouvelles façons de voir, dont fait partie l'informatique quantique. Celle ci fonctionne sur de tout autres principes que celle de l'informatique "traditionnelle". Concernant celle ci, une des façon de passer outre aux limitations physiques de performance de leur unité de calcul est de faire travailler ensemble plusieurs processeurs : c'est ce qu'on appelle le "parallélisme" et qui constitue une des voies permettant de s'affranchir de limites physiques incontournables. Par exemple le supercalculateur Fukashu contient 7 millions et demis de calculateurs fonctionnant ensemble, et son concurrent chez ibm plus de 30000.

[Comment ça marche ?] Un ordinateur quantique © CEA Recherche

L'informatique quantique utilise de façon totalement différente une notion qui permet cette vision de "traitement paralléle" : la "superposition d'état" : dans l'informatique quantique on a plus de "bits" constitués de zéro et de un, mais une "supperposition d'état" constitué de zéro et de un qui permettent un traitement paralléle totalement différent de celui de l'informatique "traditionnelle" C'est pour cela qu'on ne parle plus de "bits" (réservé à la physique "traditionnelle") mais de "bits quantiques" ou "Qubits". La difficulté est de réaliser cette "superposition d'état" et surtout de la maintenir en l'état suffisamment longtemps pour  pouvoir réaliser des calculs. Actuellement, les temps de stabilisation de "l'état superposé" reste de quelques centaines de nanoseconde. L'autre difficulté est de créer un système avec plusieurs Qubits. Actuellement les performances maximum sont d'un petit millier de Qubits (par IBM).

Il existe plusieurs technologies pour obtenir cette "superposition d'état", chacune avec ses contraintes. Elles exploitent toutes des phénoménes physiques optiques mais la difficulté d'obtenir une stabilisation de cette réaction est obtenue par des moyens différents. La plus connue fait appel au fait de travailler à des températures très proche du zéro absolu. C'est évidemment une lourde contrainte, qui limite beaucoup de possibilités et implique un cout considérable (et une dépense d'énergie qui ne l'est pas moins !)

Il existe plusieurs technologies possibles. Les plus courantes sont "le Qubit supraconducteur" développé par IBM, le Qubit silicium dont le champion est intel, le "qubit à ion piégé" (là un des principaux intervenant est honewell) et toute une série de technologies en développement (l'article écrit par l'usine nouvelle fourni en référence  est très éclairant sur le sujet) Évidemment, il s'agit de techniques en développement, pas du tout "stabilisées" et chaque jour apporte son lot de "révolution" et d'avancées.

Le sujet sur lequel les communiquant des firmes impliquée dans le sujet sont le plus prolixe est le nombre de "qubits" impliqué. En dix ans, on est passé de "quelques Qubits" à quelques dizaines de qubits, puis quelques centaines. Le record de novembre 2022 semble être établi par IBM avec un ordinateur à 422 qubits Mais le nombre de qubits n'est pas la seule contrainte, il en existe deux autre dont on parle moins et qui limitent pourtant de façon importante les performances attendue par cette nouvelle technologie : le temps de fonctionnement, et les erreurs commises par ces dispositifs

En effet, les conditions de fonctionnement sont à ce point "pointues" qu'elles se dégradent très vite ! Actuellement, le temps dans lequel le systéme reste "cohérent" (et permet des calculs) est uniquement de quelques centaines de nano-seconde. D'autre part, le calcul quantique fait apparaitre des erreurs inévitables, mais dont on limite l'importance en utilisant des "protocole de correction d'erreur" C'est un domaine de recherche extrémement actif actuellement, car ces erreurs limitent de beaucoup l'efficacité réelle de l'informatique quantique.

Au final, c'est bien une technologie "révolutionnaire" mais qui est encore loin d’être opérationnelle ! On est confronté à la difficulté d'analyser la "communication" des start up présentes en masse sur le marché. Toutes parlent de "technologie mature" et on donne comme "limite" un délai de 10 à 15 ans pour voir apparaitre des technologies véritablement opérationnelles. Mais la problématique est alors : est ce que c'est uniquement de la "communication" (l'autre mot "politiquement correct" pour dire les opérations de promotion commerciale) ou est ce véritablement une réalité objective. Seul l'avenir nous le dira. Surtout qu'il y a également une autre question (qui sera abordée dans le chapitre suivant) : l'informatique "quantique" ne peut pas fonctionner avec des algorithmes "classiques" : il faut "inventer" de nouveaux algorithmes dédié a ce "nouveau monde", et c'est aussi un formidable défis, qui reste largement à relever

pour en savoir plus :

Le pdf de référence sur le sujet écrit par un analyse pointu des technologies numériques (attention ce document fait plus de 600 pages)

https://www.oezratty.net/wordpress/wp-content/themes/Ezratty5/forcedownload.php?file=/Files/Publications/Comprendre%20Informatique%20Quantique%20Olivier%20Ezratty.pdf

Un article de l'usine nouvelle sur les technologies utilisées dans l'informatique quantique :

https://www.usinenouvelle.com/article/les-technologies-de-qubits-en-lice-pour-equiper-les-premiers-accelerateurs-quantiques-commerciaux.N1808277

l'algorithme de shor : introduction à l'algorithmique quantique

La maitrise des technologies quantique et l'élaboration de Qubits de plus en plus performants ne suffisent pas : il faut également arriver à découvrir des algorithmes spécifiques aptes à utiliser de façon efficace les possibilités nouvelles de la "superposition quantique" en terme dde performance, mais aussi de savoir jouer avec les contraintes inhérentes à la physique quantique très particulière.

Les contraintes sont surtout données par l'obligation de réaliser les calculs en un temps fini et de ne pas réaliser d'opération de lecture écriture. La "superposition quantique" suppose un ensemble de conditions très incertaines, qui obligent à réaliser un calcul en un temps trés court. De plus, en raison de facteurs spécifiques à la physique quantique, on ne peut pas procéder à des opérations de lecture écriture aussi facilement que dans l'informatique "traditionnelle", ou celle ci est tout a fait courante : dans l'informatique quantique, le fait de lire l'état d'une variable lui interdit de continuer à calculer, et il faut refaire tous les calculs...

Mais la physique quantique apporte aussi des spécificité qui en font tout le prix : l'état "supperposé" des atomes dans les dispositifs entraine un parallélisme extrémement efficace. C'est ce qu'on appelle "l'accélération quantique". Elle est réalisée dans une opération bien maitrisée en informatique traditionnelle, ou on réalise la "transformée de Fourrier rapide" Celle ci devient alors la "transformation de fourrier quantique". En passant du monde de la physique traditionnelle à celle de la physique quantique, on gagne un facteur de temps considérable dans la mesure ou on passe d'un facteur de temps exponentiel à un facteur de temps "quadratique" : de 2 puissance n à un facteur n. Cela permet un gain de temps considérable. Ce procédé est utilisé dans un algorithme spécifique, "l'algorithme de Schor" qui utilise ce procédé pour réaliser la factorisation de deux nombres premiers.

Cette factorisation est elle meme utilisée dans des procédés de cryptage : il est en effet facile connaissant deux nombres premiers de connaitre leur produit, mais il est bien plus difficile (et long à calculer) connaissant le produit de deux nombres premiers, de calculer les deux nombres en question. On peut donner un exemple : soit 6359 x 6361=40449599 Le calcul est simple (surtout si on a une calculatrice) Par contre donner la décomposition de 27670387 est bien plus difficile ! Meme si avec l'algorithme adéquat et un bon ordinateur, on y arrive ! Mais ce sont des nombres extrémement faible. Ceux donné pour constituer des "codes" incassable peuvent etre constitué d'un millier de chiffre par facteurs premiers... Les ordinateurs classiques les plus performant devraient y consacrer des centaines de milliers d'années, alors qu'un ordinateur "quantique" opérationnel implémentant l'algorithme de shor ne devrait y consacrer que quelques heures... C'est dire que si on arrive effectivement à mettre un "ordinateur quantique" et sa série d'algorithmes dédiés en route, cela signifie rapidement un boulversement total de la cryptographie classique : on va forcément devroir inventer d'autres procédés

Illustration 2

Bruno Latour sur Arte :

Illustration 3

C'est une série de ressources considérable que Arte met à notre disposition sur son espace de téléchargement : une série absolument passionnante d'entretiens avec bruno Latour. Il n'est malheureusement plus possible de les découvrir sur Youtube (leur accés a été limité

Sur Arte replay, ces deux heures d'entretien sont découpés en petites "pastilles" de 15 minutes maximum  Autant dire que celles et ceux qui prétendent "ne rien comprendre à Latour" n'ont aucune excuse ! 

Nota bene : le rédacteur de ces pages recommande un endroit douillet, un café bien chaud, de façon idéale un chat sur les genous (si il ronronne c'est encore mieux) pour passer de façon positive ce momment de pure intelligence des choses

Références :

https://www.arte.tv/fr/videos/RC-022018/entretien-avec-bruno-latour/

(site consulté le 21/11/2022 avec mon chat, un bon café et un pain au chocolat)

La cleptomanie des fougéres :

Illustration 4

Le séquençage du génome de Ceratopteris richardii, petite fougère aquatique, est une prouesse, car son génome est gigantesque. On commence à comprendre pourquoi et l’on découvre au passage que la plante a « volé » à des bactéries des gènes de défense contre les herbivores !

Il aura fallu huit ans à une cinquantaine de chercheurs de 28 institutions pour venir à bout du séquençage du génome de Ceratopteris richardii (fougère de Richard) et de son assemblage, c’est-à-dire l’ordonnancement des données brutes de séquençage. Originaire des milieux aquatiques dans les régions tropicales et subtropicales, cette plante est également une espèce modèle en génétique végétale, facile à cultiver en laboratoire avec un cycle de vie court d’environ six semaines. C’est même une des rares plantes à avoir poussé dans l’espace, lors d’une mission de la navette spatiale américaine Columbia en 1999. Sur le plan génétique, les fougères sont connues pour contenir de grandes quantités d’ADN et un nombre élevé de chromosomes (Ophioglossum reticulatum détient le record connu avec 1 440 chromosomes). Résultat : le séquençage, l’assemblage et l’interprétation de leur génome sont particulièrement complexes. D’où l’importance du travail réalisé par Blaine Marchant, à l’université Stanford, aux États-Unis, et ses nombreux collègues. En venant à bout de l’assemblage du génome de cette fougère, ils ont en partie levé le voile sur l’histoire de son évolution – pourquoi elle compte tant de gènes et comment elle a intégré des gènes de défense issus de bactéries – et commencé à identifier des composés d’intérêt comme des flavonoïdes, essentiels pour l’alimentation, la médecine ou encore les biopesticides. 

https://www.pourlascience.fr/sd/biologie-vegetale/obesite-genetique-et-cleptomanie-chez-les-fougeres-24283.php

Le cœur des étoiles géantes rouges cache un champ magnétique intense

https://www.pourlascience.fr/sd/astrophysique/le-coeur-des-etoiles-geantes-rouges-cache-un-champ-magnetique-intense-24399.php

Agriculture numérique : progrès scientifique ou impasse ?

Illustration 5

L'agriculture est en crise au plan mondial, et elle peine a assurer aux populations une nourriture suffisante dans un contexte de crise climatique qui multiplie les "désastres environnementaux" et leurs conséquences agricole. Face a cette situation, une solution avancée parle "d'agriculture numérique", présentée comme un "reméde miracle" face aux crises multiples qui affectent l’agriculture. Elle constitue alors un facteur de développement sur lequel se sont développées de nombreuses sociétés cherchant à capter la "manne" sinon d'une révolution agricole, en tout cas des subventions qui l'accompagnent. Comme d'habitude dans cette situation, elle se présente comme une "agriculture scientifique", une sorte "d'agriculture de la preuve" (comme il y a une "médecine de la preuve") Mais est véritablement le cas ? Il est permis d'en douter. Face à cete situation, on peut lire avec profit la présentation par l'inria des procédés liés à l'agriculture numérique mais aussi a la dénonciation des logiques de profit qui les sous tendent, comme le rappelle un article de "Contretemps"

Source :

l'article de l'iria sur "l'agriculture numérique" : https://www.inria.fr/sites/default/files/2022-02/livre-blanc-agriculture-numerique-2022_INRIA_BD.pdf

l'article critique de "Contretemps" sur les rapports délétères entre agriculture numérique et capitalisme : https://www.contretemps.eu/agriculture-numerique-capitalisme/

 La scientifique du mois : Julia Kempe

Illustration 6

Julia Kempe, est une informaticienne et mathématicienne d'origine allemande chercheuse au CNRS. Elle est spécialiste du calcul et de la physique quantique. Elle a commencé ses études en France en algébre et en physique théorique avant de réaliser un doctorat à l'université de Bekerley sur l'informatique quantique en même temps qu'une thése à Telecom Paris Teck 

Elle a fait une bonne partie de ses recherche en france avant de devenir responsable d'un laboratoire de recherche à l'université de New York sur des questions liées à l'intelligence artificielles Voila ce qu'elle disait de l'informatique quantique en 2018 au journal le monde :

Quand j’ai commencé, à la fin des années 90, les expérimentateurs prédisaient un ordinateur quantique dans 10 ans ; les plus prudents parlaient de 20 ans. Il s’est déjà passé vingt ans et on attend toujours ! En réalité, dans le monde de la recherche, quand on vous dit dans 10 ans, il faut souvent comprendre : « je n’en sais rien ». Malheureusement il y a eu beaucoup de survente. Les ordinateurs quantiques ne savent même pas encore factoriser des chiffres autour de 10 000 à cause de l’accumulation des erreurs. Nous avons encore des problèmes à régler avant d’arriver à quelque chose d’intéressant. On est encore très loin de pouvoir utiliser l’algorithme de Shor.

Cela nous servira de conclusion en ce qui concerne "l'informatique quantique"...

Ressources :

la page wikipedia sur Julia Kempe : https://fr.wikipedia.org/wiki/Julia_Kempe

la liste de ses articles sur Google scholar : https://scholar.google.com/citations?user=m9WZOV4AAAAJ

L'entretien donné sur le blog "binaire" du monde : https://www.lemonde.fr/blog/binaire/2018/09/17/science-du-qubit-science-des-donnees/

Le livre du mois : Bruno Latour - Pasteur une science, un style, un siècle

Illustration 7

Ce compte rendu aurait pu s'intituler : comment en finir avec Bruno Latour (même si on pense qu'on est pas encore pret d'en avoir fini avec les objets qu'il nous a permis de découvrir) et utilise pour ce faire un petit ouvrage réédité par les éditions "la Découverte" dans la collection "les empécheurs de penser en rond" sur Pasteur à l'occasion de la mort du penseur.

Il ne s'agit pas de son célébre "Pasteur ; guerre et paix des microbes" mais d'un autre ouvrage écrit a l'occasion d'un hommage à Pasteur co édité par l'éditeur Perrin et l'institut Pasteur lui même, ce petit ouvrage recèle il me semble toute la subtilité et la justesse de l'approche latourienne sous une forme immédiatement compréhensible.

Latour est souvent accusé de "relativisme épistémologique", et d'une vision "constructiviste" des sciences qui nie l'effet de vérité des sciences au profit d'une version instrumentale de son caractère indiscutablement "social" et humain. Pour cela les adversaires de Bruno Latour utilisent beaucoup une conception que Bruno Latour a lui même mis beaucoup d'énergie à combattre.

Un des points de départ de cette querelle est sans doute "qu'est ce qui fait une "bonne" science et une "mauvaise" science. La vision traditionnelle et édenique de cette question distingue une science "qui ne contient que des faits irréfutables" et une autre science, "construit à partir de préjugés humains" La premiére est une "bonne science" et l'autre une "mauvaise science" Cette vision va etre combattue par un courant situé aux usa, le "programme fort" représenté par david Bloor. Celui ci réfute la vison "traditionnelle" des sciences qui fait de la "vérité des faits" le juge de paix de la vérité scientifique. Il la remplace par une vision "sociale et culturelle" qui fait de la "recherche du consensus entre scientifiques" une recherche beaucoup plus incertaine et flottante... Or Bruno Latour réfute cette vision : pour lui, si "les faits" ne peuvent à eux seuls expliquer la vérité des sciences, un "certain consensus politique et culturel" entre scientifique est tout autant impuissant à réaliser cet accord.

Dans cet ouvrage il montre surtout comment Pasteur cherche comme tous les scientifiques à "chercher le vrai" mais cherche aussi à étendre son influence dans de multiples domaines. Cette vision n'a rien de "critique" (et ce alors que Pasteur, qui a été encensé à aussi été au centre de nombres de polémiques ou il n'avait pas forcément le beau role) mais montre au dela des apparence comment la science s'articule avec la politique, la morale, la culture, les industrie. En bref, comment la science "fait réseau".

C'est effectivement une question qui frappe à la lecture de cet ouvrage : comment Pasteur dirige t il ses centres d'intérets et ses recherches dans des directions qui font de lui un personnage important et de son histoire une épopée qui représente un tournant décisif dans l'histoire des sociétés.

Avant lui le scientifique était quelqu'un d'isolé, qui ne gagnait pas forcément sa vie avec ses recherches, ou avec des recherches voisines dont le caractére scientifique n'est pas évident (tel astonome réalisait pour survivre des calendriers astrologiques) A partir de lui, le scientifique est celui qui travaille dans un laboratoire avec d'autres scientifiques dans un but qui mobilise l'ensemble de la société : industriels, politiques, chargés de la santé publique, etc

Latour montre que Pasteur à l'origine entrepend des recherches sur un secteur totalement éloigné des intérets courants de l'opinion publique : la question de la déviation de la lumiére polarisée de deux composés de l'acide tartrique. Il étudie ensuite les levures, s'interesse aux maladies des vers à soie, s'intéresse à la question de la "génération spontanée" et à la fermentation de la biere, est un des premiers scientifiques dans le domaine de la microbiologie, apporte des éléments décisifs qui expliquent les différentes maladies par le role des "microbes", est enfin connu pour son "vaccin" contre la rage, et fait de "l'institut pasteur" une institution dans ce domaine.

La dynamique ainsi crée est soigneusement analysée par Latour, qui montre les dynamiques mise en jeu, les stratégies, quelquefois les détours. Il montre qu'au dela de ses "découvertes formelles", Pasteur est surtout l'instigateur d'un certain rapport aux sciences : c'est lui par exemple qui fait du "laboratoire" un dispositif industriel essentiel (dans l'élevage de vers à soie, dans la fabrication de la biere, dans le chai du vigneron)

On comprend aussi pourquoi Bruno Latour a été beaucoup critiqué : sa façon de remettre en jeu tout ce qui semblait acquis et l'ironie qui la sous tend peut sembler à celles et ceux qui ont une vision somme toute "religieuse" des science (avec une Vérité munie de ses majuscules réglementaire) On reproche souvent à Latour sa vision "religieuse", mais cette vision edenique d'une "vérité scientifique" au dela de ses conditions de production ne l'est elle pas tout autant ? 

Présentation  de l'éditeur :

Le virus responsable de la Covid-19 n'est pas un professeur adepte de nouvelles méthodes pédagogiques. C'est un maître dur à l'ancienne qui répète inlassablement la même leçon. Et de reprendre encore une fois la démonstration de sa puissance : " Vous me prenez pour un intrus dans votre monde, mais c'est vous qui êtes des intrus dans le mien. " Chaque mutation de ce virus imprime dans notre cerveau rétif à quel point nous faisons société avec les microbes.
Un monde de microbes ? Cette leçon a été donnée aux sociétés humaines pour la première fois au XIXe siècle. Il était donc inévitable de revenir à l'histoire de la microbiologie en essayant de comprendre pourquoi nous ne sortirons pas de ces intrigues où s'emmêlent si étroitement la science, le droit, la politique et la structure des sociétés de ce temps. Si je me suis tellement intéressé à Louis Pasteur, c'est parce qu'il offrait un cas unique au milieu de cette histoire de liens entre sociétés et microbes.
Unanimement admiré pour ses découvertes, il est aussi le savant qui s'était mêlé, comme on va le voir, de toutes les questions de son temps. Pour la nouvelle histoire et sociologie des sciences, c'était le test idéal : une science à l'importance indiscutable qui avait transformé la société de façon radicale. Voilà qui allait permettre de nous sortir de ces visions figées qui continuent à vouloir séparer la science et la politique, les découvertes savantes et les collectifs humains alors qu'ils sont, à l'évidence, si étroitement mêlés.

Ce blog est personnel, la rédaction n’est pas à l’origine de ses contenus.

Bienvenue dans Le Club de Mediapart

Tout·e abonné·e à Mediapart dispose d’un blog et peut exercer sa liberté d’expression dans le respect de notre charte de participation.

Les textes ne sont ni validés, ni modérés en amont de leur publication.

Voir notre charte