Marc Tertre
Education populaire (science et techniques), luttes diverses et variées (celles ci qui imposent de "commencer à penser contre soi même") et musiques bruitistes de toutes origines
Abonné·e de Mediapart

145 Billets

10 Éditions

Billet de blog 19 déc. 2018

Marc Tertre
Education populaire (science et techniques), luttes diverses et variées (celles ci qui imposent de "commencer à penser contre soi même") et musiques bruitistes de toutes origines
Abonné·e de Mediapart

Comprendre, mesurer, prévoir : les nouveaux espaces du savoir

Dans le contexte de la « société de la connaissance » dans laquelle nous sommes censés vivre, la science a acquise une puissance symbolique et matérielle considérable. Mais son efficacité est remise en cause par la prévalence de techniques numériques, du big data et de l’intelligence artificielle. Un livre permet de rendre compte de cette tension et de penser ses conséquences.

Marc Tertre
Education populaire (science et techniques), luttes diverses et variées (celles ci qui imposent de "commencer à penser contre soi même") et musiques bruitistes de toutes origines
Abonné·e de Mediapart

Ce blog est personnel, la rédaction n’est pas à l’origine de ses contenus.

Ancien chercheur au laboratoire de physique théorique et modèles statistiques de l'université d'Orsay, Hubert Krivine a été enseignant à l'université Pierre-et-Marie-Curie à Paris. Il est l’auteur d’une série d’ouvrages de vulgarisation et de débats sur la science et la société : un ouvrage assez remarquable sur les probabilités (« traité de Hasardologie ») un ouvrage expliquant comment dans le domaine de la cosmogonie les sciences on su se libérer de la gangue religieuse (« la terre, des mythes au savoir ») un ouvrage contre le « relativisme » (« de l’atome rêvé à l’atome réel ») enfin le livre qui va être chroniqué dans ce billet « Comprendre sans prévoir, prévoir sans comprendre »

Ce livre tente de rendre compte de la tension qui existe entre une science puissante mais contestée, dont la puissance (vécue comme un « totalitarisme laïque »)  inquiète et de nouveaux archipels du savoir issu du numérique et de la double révolution conceptuelle des « big data » (le traitement d’un nombre considérable de données) et de l’intelligence artificielle (qui permet justement que les « big data » soient à l’origine de processus de traitements d’apprentissage automatisés d’une redoutable efficacité)…

Comprendre sans prévoir ou prévoir sans comprendre : agir dans un monde incertain

Hubert Krivine est un défenseur acharné d’une conception « classique » de la science et de ses richesses, mais aussi de son éthique. Physicien de profession, il part de son expérience pour décrire le processus de constitution de cet objet particulier de savoir qu’est la science, et ce qui la rend si précieuse et si efficace.

Pour lui, le cœur de l'activité scientifique est l'élaboration plus ou moins aisée, plus ou moins réalisable de "lois" qui explicitent les phénomènes auquel ceux-ci s'appliquent. Dans une perspective très (trop ?) classique de l’histoire des sciences, la « science moderne » aurait commencé avec la révolution copernicienne, puis par le chef d’œuvre constitué par la mécanique newtonienne et ses trois "lois des corps". Et ces découvertes en ont entraînées d'autres dans une spirale vertueuse…

D’où une vision linéaire du progrès des sciences qui valorise les « avancées » et « relativise » les impasses et les ruptures. De ce point de vue, il prend comme exemple canonique les deux lois de « relativité » (restreintes et générales) et celles de la mécanique quantique. Ces lois selon lui sont effectivement des avancées révolutionnaires, pour autant elles ne remettent pas totalement en cause le monde de Newton mais réduisent son champ d’application.

Il cache ainsi d’une certaine manière une série de ruptures plus brutales Ainsi pour en rester dans le domaine de la physique, la théorie du « phlogistique » destinée à expliquer le phénomène spécifique de la combustion ou celle du calorique plus récente (qui explique le phénomène de la propagation de la chaleur par l’existence d’un « fluide » calorique) sont-elles aujourd’hui totalement abandonnées à la critique rongeuse des souris…

L’existence de « lois objectives » de la nature rendus lisible par l’étude mathématique des phénomènes est effectivement un des critères pouvant rendre compte de l’apport spécifique des sciences physiques même si l’irruption de problématiques liées aux sciences de la vie (que ce soit en biologie ou plus récemment encore en écologie) a compliqué un peu ce paysage bien plus complexe que le résumé qu’il en propose.

Hubert Krivine est physicien, et il expose de façon très pédagogique voir ludique les spécificités de son domaine, insistant de façon documentée sur ce qui en confère la "solidité" et l'élégance. Le fait est qu'il est bien plus facile d'y isoler des variables indépendantes que dans d'autres domaines (ou les phénomènes complexes laissent apparaître une multitude de dépendances entre de multiples facteurs.

En résulte une série de "lois" qui peuvent souvent s'exprimer de façon mathématique, sous forme d'équations. Les collectionneurs fous de celles-ci (et l’auteur de ce compte rendu en fait partie) le savent : un grand nombre d'entre elle concernent la physique. Mais le fait que les lois de la physique peuvent très souvent s’exprimer de façon quantifiable sous forme d’équation tient en grande partie à la nature spécifique de la physique. Ce n'est pas forcément le cas dans nombre d'autres disciplines scientifiques : ce n’est absolument pas le cas dans les sciences sociales et historiques (il n’existe pas de « lois de l’histoire » pouvant s’exprimer sous forme d’équation par exemple), et c’est assez peu présent dans les sciences de la vie ou dans les sciences de la terre.

C'est d'ailleurs pour cela que certains calculs rendent possible la faculté de faire des prévisions. Un des succès de la mécanique de newton a été la découverte de Neptune suite aux calculs de l’astronome Urbain Le Verrier. Comme le dit François Arago, « M. Le Verrier a aperçu le nouvel astre sans avoir besoin de jeter un seul regard vers le ciel ; il l'a vu au bout de sa plume » Cette découverte a donné aux lois de newton une autorité symbolique   formidable : cette promesse de « l’homme maitrisant l’univers » est inscrite dans les « Principia », l’œuvre maitresse de Newton

Cette efficacité a connu un de ses sommets avec l’élaboration au XIX siècle d’un outil mathématique d’une redoutable efficacité : les équations différentielles, une classe particulière d’équation rendant possible la solution simple et rapide de toute une série de problèmes en physique.

Mais c'est aussi ce même outil qui a ouvert à une remise en cause difficile à partir d’une difficulté imprévue. En effet, la résolution de ce type de problème dépend des conditions initiales dans lequel se trouvait le système étudié. Or pour un certain nombre de ce type de problèmes, la résolution de ces équations différentielles est impossible en raison de la sensibilité extrême de la solution aux conditions initiales.

L'exemple le plus souvent proposé montre l'impossibilité d'écrire ces fameuses équations différentielles pour résoudre la prévision de systèmes météorologique. En effet, le système d'équation en question est extrêmement simple a priori, mais est extrêmement sensible aux variations des conditions initiales. C'est ainsi que le battement d'une aile de papillon en Europe modifie en profondeur la prévision des ouragans se développant dans la mer caraïbe. Cette situation est résumée par le concept de "chaos déterministe".

C’est effectivement une limite du processus qui conduit de l'élaboration d'une loi scientifique à la rédaction d'un calcul, calcul permettant à son tour la prévision du phénomène qu'on cherche à étudier, mais ce n'est pas le seul, ni mème le plus important. Un autre obstacle inhérent à cette méthode de résolution par raisonnement est que nombres de lois ne sont tout simplement pas mathématisables. Un des exemples les plus célèbres de ces lois scientifiques "objectives" qui ne permettent pas de prévision est la théorie de Darwin sur l'évolution. Sans oublier que la notion de « calculabilité » elle-même a été mise en cause par le plus grand mathématicien du XX siècle Alan Turing. Il y a ainsi une série de découvertes et de savoirs scientifiques qui ne permettent pas de prévisions, et une série de prévisions qui ne s'accordent pas aux savoirs scientifiques.

Cette limite objective du pouvoir prédicatif des sciences exactes vient d’être profondément renouvelé par le développement des « sciences du numériques » et de l’informatique. Ainsi notre stock de connaissance vient d’être révolutionné par une nouvelle frontière franchie dans le domaine de traitement des données, celle de la possibilité de traiter massivement des données à une échelle jamais vue : c’est le domaine des « Big Data » qu’on décline maintenant en « data sciences »

Puissance et limites du Big Data et des Data sciences

L’informatique est née dans les 50 dernières années des capacités de traitement électronique de données qui ont révolutionné totalement le traitement de l’information. Trouver une référence bibliographique d’un livre dans une bibliothèque universitaire pouvait prendre quelques heures sur les anciens systèmes de classement et de tri. On trouve maintenant ce résultat en quelques secondes, avec une base de connaissance qui a beaucoup évolué. Autrefois, les plus grandes bibliothèques pouvaient comprendre quelques millions d’ouvrage. Maintenant sur Internet on peut trouver des listes d'une taille considérable : Internet serait décidément devenu "la bibliothéque de babel" qui contient l'ensemble des connaissances humaines. … Cette révolution modifie en profondeur les règles de constitution d’un corpus de connaissance, surtout qu’on sait les traiter de façon totalement renouvelée. Mais c’est également le recueil et le traitement des données sous toutes ses formes qui révolutionne en début de 21 siècle notre conception du savoir. Le « Big data », la technique qui symbolise au mieux cette révolution culturelle est l’objet des réflexions critiques de Hubert Krivine.

L'auteur s’intéresse dans un premier temps à l’utilisation de ces techniques dans son domaine de prédilection, la physique. Il est de fait que le traitement massif de données a transformé en profondeur certains usages des sciences physiques.

Dans les accélérateurs de particules par exemple la masse des données collectée est immense :  Ainsi le Large Hadron Collider du CERN utilise environ 150 millions de capteurs délivrant des données 40 millions de fois par seconde ; Pour 600 millions de collisions par seconde, il reste après filtrage 100 collisions d'intérêt par seconde, soit 25 pétaoctets, soit 25 millions de milliards d'octets de données à stocker par an. Et le défis n’est pas tant de stocker ce nombre impressionnant de données que de les traiter de façon pertinente.

Mais cette explosion de la masse de donnée et de leur traitement n’est pas uniquement l’apanage de la physique. Par exemple, la révolution le déchiffrage du génome et l'analyse de l’ADN nécessite le traitement d'informations qui nécessitent le classement et le traitement de quantités massives d'informations. On peut également citer le traitement de données astronomique ou là aussi le volume de données à traiter est gigantesque.

Ces volumes énormes de données ont entraîné la mise au point de programmes de recherche permettant le traitement d’un nombre considérable de données en vue d’applications qui découlent des capacités de traitement de l’informatique et du monde numérique.  Des secteurs entiers de la recherche scientifique ont étés impactés, mais aussi de nombreux domaines de la vie de tous les jours.

Un des outils principaux de traitement des "big data" consiste en la recherche de corrélations. La corrélation pose aussitôt la question de la confusion entre les notions de "causalité" (un phénomène crée un effet) et de corrélation (on peut relier une corrélation entre un phénomène et son effet) avec toutes les erreurs que cette confusion est susceptible d’entraîner. Il existe de nombreux exemple ou une relation de causalité (entre deux phénomènes à priori distincts) n’entraine pas forcément une relation de cause a effet. On peut par exemple trouver une relation de corrélation entre le taux d’incarcération d’une population donnée et la taille des chaussures portées. A partir du 43, l’adéquation entre ces deux éléments semble indiscutable. On se doute pourtant que ce n’est pas la taille des chaussures qui entraine la délinquance. Par contre on sait qu’il y a une relation de cause a effet entre le sexe et la délinquance, ainsi d’une relation de cause a effet entre taille et sexe. La corrélation supposée ne traduit alors qu’une double relation de cause a effet.

Cela dit, la recherche de corrélation peut aussi être utilisée à bon escient : on avait déterminé la responsabilité de l'usage de tabac dans le développement du cancer du poumon bien avant d'en avoir compris le mécanisme précis. Mais cette mème corrélation a été utilisée par les industriels de l'amiante pour s'exonérer de leur responsabilité vis à vis de leur personnel, dont les taux de cancer du poumon était attribué à leurs activités tabagiques.

Il est vrai que l'efficacité des méthodes des big data est l'objet d'une campagne de publicité hors norme pour le domaine normalement feutré de la recherche scientifique. Hubert Krivine revient ainsi sur les propos dithyrambiques de Chris Anderson, l'auteur d'un article tonitruant "Big Data : est-ce que le déluge de données va rendre la méthode scientifique obsolète ?". 

Il ne faudrait pas confondre ces articles publicitaires à valeur prétendument prophétiques avec une véritable réflexion sur l'utilité des big data et leurs limites.

Certains secteurs de la recherche scientifiques sont en effet tellement percutés par ces nouveaux outils qu'ils sont contraints d'inventer de nouvelles méthodes d’investigation. C'est par exemple le cas de la bio-informatique, qu'on voit apparaître de façon de plus en plus affirmée et qui est un des modules indispensables de l'apprentissage des sciences biologiques. L'ensemble des techniques mis en œuvre en bio informatiques a permis une véritable explosion des savoirs mais aussi la compréhension plus exacte du chemin qu'il reste à parcourir dans le domaine de l'analyse de la modélisation moléculaire par exemple. Mais l'analyse du génome (on peut actuellement analyser le génome d'un individu pour quelques centaines de dollars), ou l'élaboration d'arbre phylogénétique n'auraient pas été pensable sans ces techniques de "Big Data"

En termes de "communication", pour ne pas parler de "publicité", le "big data" a été supplanté par un secteur pourtant ancien de l'informatique mais qui connaît aujourd'hui un renouveau spectaculaire, celui qu'il est convenu d'appeler "intelligence artificielle". Il ne s'agit pas du tout d'une nouvelle technique dans le cadre des sciences informatique, mais au contraire d'une vieille recherche aussi vieille que l'informatique elle-même. C'est d'ailleurs un des fondateurs de la "science informatique" qui a créé le terme aujourd'hui utilisé : Alan Turing auteur décisif de la théorie mathématique de la Calculabilité est également l'inventeur du concept d'intelligence artificielle. C'est par exemple lui qui a donné un test décisif permettant de tester "l'intelligence artificielle". De même l'invention des "réseaux de neurones" tellement utilisés actuellement a été faite à la fin des années 50, lors de la préhistoire de l'informatique.

Intelligence artificielle entre miracles et mirages

Ce n'est d'ailleurs que la troisième fois que le terme "d'intelligence artificielle" est "à la mode" même si ses deux précédents "sucés" ont été passablement oubliés : dans le début des années 60, "l'intelligence artificielle" a été présentée comme pouvant mettre fin à la guerre froide en présentant des solutions capables de casser les "codes" secrets qui sont maintenant nécessaire à toute guerre d'ampleur. Dans les années 80, l'intelligence artificielle était présentée comme une "nouvelle révolution" alors même que la nouveauté de l'informatique personnelle était en train de prendre fin. Deux applications présentaient le bouleversement total apporté par ces techniques : les "systèmes experts" prétendaient remplacer l'expertise humaine et la traduction informatisée. Mais cette vague s'est brisée sur les promesses non tenues et les difficultés techniques : les "systèmes experts" face à la difficulté de formaliser des savoirs et des comportements, et la traduction automatique n'a jamais atteint le niveau de performance souhaité.

Et c'est d'ailleurs pour cela que plusieurs spécialistes du domaine de "l'intelligence artificielle" demandent de ne plus parler de ce domaine, mais par exemple de se limiter aux notions d'apprentissage automatique ("Machine Learning") et réseaux de neurones ("Depp Learning")

Car les méthodes employées sont celles du "machine Learning" qui consiste à utiliser des "algorithmes d'apprentissages" pour résoudre une série de problèmes Il faut peut-être pour comprendre la puissance et les limite de ces technologies revenir sur la conception de l'apprentissage qu'elles intègrent

Les êtres vivants sont tous d'une façon ou d'une autre concernés par des principes d'apprentissages plus ou moins complexes. Une pierre n'apprend rien, mais la bactérie la plus simple se doit d'apprendre de son environnement pour agir en conséquence.

En ce qui concerne l’être humain, ces principes peuvent être distingué entre processus d'apprentissage "intelligent », et processus d'apprentissage qui ne nécessitent aucun effort de réflexion. Or les algorithmes de "machine Learning" ne demandent en général pas d'efforts de réflexion : les êtres humains apprennent à marcher sans avoir besoin de réfléchir à la question. De même nous arrivons à reconnaître des visages sans avoir besoin de réfléchir non plus.

Les applications de "machine Learning" ont justement comme point fort et sujet de recherche la "recherche des formes" et ce depuis longtemps. Certains programmes majeurs du "jeep Learning" sont justement en rapport plus ou moins direct avec "la reconnaissance des formes" Le jeu de Go et Alpha-go le programme majeur qui a montré une domination insolente du programme informatique sur l’être humain sont justement basé sur des processus de "reconnaissance de formes" Il y a bien une phase d'analyse lors du "jeu de go" et de calcul, mais l'essentiel du joueur professionnel est de connaître un "catalogue de formes" qui permet de gérer les différentes phases du jeu. C'est l'évolution apporté aux algorithmes de reconnaissances des formes par Yann Le Cun qui a permis cette révolution. Or Yann le Cun a trouvé une évolution majeure des programmes utilisant des réseaux de neurones en étudiant les questions liées à la vision humaine avec des spécialistes de celle-ci, des neurobiologistes et des spécialistes de l'apprentissage humain.

De ce point de vue, Hubert Krivine commet un contre sens quand il nous met en garde contre le danger de naturaliser les problèmes techniques : ce n'est effectivement pas (comme il l'affirme) en imitant les oiseaux que les hommes ont créé les avions. Mais c'est en étudiant de façon attentive e scientifique le vol des oiseaux qu'on peut trouver des solutions opérationnelles pour le plus lourd que l'air. Solutions qui impliquent la "sociologie de la traduction" chère à Bruno Latour et à quelques autres (en passant, l'auteur commet une autre bourde en utilisant à contre sens une citation du même Latour sur les "centres de calcul", qui ne désignent en aucun cas "les mathématiques") le passage d'une discipline à une autre n'ayant rien d'évident ou d'immédiat

Par contre, il reconnaît aux techniques des « big data » et du « machine Learning » une efficacité opérationnelle sans rapport avec leur potentiel réel de découverte scientifique. Pour l’instant, les processus d’apprentissages et les algorithmes utilisés sont trop simple pour dépasser les processus les plus simple du vivant. Même s’ils peuvent être d’une redoutable efficacité par ailleurs, reconnaître leur limite.

En guise de conclusion provisoire.

En conclusion on pourrait regretter qu’il n’accorde pas à ces procédés le rôle d’outils que leur permet la confrontation entre informaticiens, mathématiciens et spécialistes de la cognition humaine. Un livre somme sur la cognition (cité en référence) fait par exemple référence non pas centralement mais de façon « stratégique » aux processus d’apprentissage machine. Ceux-ci sont utilisé non pas pour un but « pratique » mais pour tester des hypothèses, relever des similitudes (entre des processus distincts sur le plan de la biologie, mais convergent dans leur façon d’arriver à une solution technique « simple et élégante » (la nature, contrairement aux ingénieurs, ayant une sainte horreur des usines à gaz) se confronter aux problèmes réels de l’acte cognitif.

Un autre ouvrage permet une autre approche que celle « fonctionnelle » utilisée par Hubert Krivine. Leslie Valiant est un spécialiste des algorithmes d’apprentissage qu’il compte utiliser via une analyse discutée (et discutable) de l’évolution ou il inscrit ces processus dans le cadre plus large de « processus d’apprentissage ».

Le petit opuscule d’Hubert Krivine ouvre une discussion utile, il est loin de l’épuiser ! Nous aurons, c’est une certitude, plusieurs occasions de le constater et d’y revenir

Bibliographie :

Hubert Krivine Comprendre sans Prévoir, Prévoir sans Comprendre, Cassini, 2018

Roger Penrose Comprendre les lois de l’univers Edition Odile Jacob 2007

 Pirmin Lemberger , Marc Batty , Médéric Morel , Jean-Luc Raffaëlli Bid data et machine learning les outils de la data science Dunot 2016

Ce blog est personnel, la rédaction n’est pas à l’origine de ses contenus.

Bienvenue dans le Club de Mediapart

Tout·e abonné·e à Mediapart dispose d’un blog et peut exercer sa liberté d’expression dans le respect de notre charte de participation.

Les textes ne sont ni validés, ni modérés en amont de leur publication.

Voir notre charte

À la Une de Mediapart

Journal — France
À Saint-Étienne, le maire et le poison de la calomnie
Dans une enquête que Gaël Perdriau a tenté de faire censurer, Mediapart révèle que le maire de Saint-Étienne a lancé une rumeur criminelle, dont il reconnaît aujourd’hui qu’il s’agit d’une pure calomnie, contre le président de région Laurent Wauquiez. À l’hôtel de ville, des anciens collaborateurs décrivent un quotidien empoisonné par la rumeur, utilisée comme un instrument politique.
par Antton Rouget
Journal
Morts aux urgences, pédiatrie sous l’eau, grève des libéraux : la santé au stade critique
Covid, grippe, bronchiolite : l’hôpital public vacillant affronte trois épidémies. En pédiatrie, dix mille soignants interpellent le président de la République. Côté adultes, les urgentistes ont décidé de compter leurs morts sur les brancards. Et au même moment, les médecins libéraux lancent une grève et promettent 80 % de cabinets fermés.
par Caroline Coq-Chodorge
Journal — France
L’encombrant compagnon de la ministre Pannier-Runacher
Des membres du ministère d’Agnès Pannier-Runacher sont à bout : son compagnon, Nicolas Bays, sans titre ni fonction, ne cesse d’intervenir pour donner des ordres ou mettre la pression. En outre, plusieurs collaborateurs ont confié à Mediapart avoir été victimes de gestes déplacés de sa part il y a plusieurs années à l’Assemblée nationale. Ce que l’intéressé conteste.
par Lénaïg Bredoux, Antton Rouget et Ellen Salvi
Journal — Europe
Ukraine : le soupçon de la collaboration plane sur les villages libérés
Dans la région de Kherson, certains villages ont vécu pendant des mois à huis clos, sous occupation russe. Des voisins ont été tués ou sont portés disparus. La difficulté à mener des enquêtes rapides dans un pays mis sens dessus dessous par la guerre permet à la rumeur de prospérer.
par Mathilde Goanec

La sélection du Club

Billet de blog
Abattage des animaux à la ferme. Nous demandons un réel soutien de l’Etat
Solidarité avec Quand l’Abattoir Vient A la Ferme : Depuis 2019, la loi autorise les éleveurs, à titre expérimental, à abattre leurs animaux à la ferme. Ils n’ont toutefois bénéficié d’aucuns moyens dédiés et doivent tout à la fois assurer les études technique, financière, économique, sanitaire. Respecter les animaux de ferme est une exigence collective. Nous demandons un réel soutien de l’État.
par Gaignard Lise
Billet de blog
Noémie Calais, éleveuse : ne pas trahir l’animal
Noémie Calais et Clément Osé publient « Plutôt nourrir » qui aborde sans tabou et avec clarté tous les aspects de l’élevage paysan, y compris la bientraitance et la mort de l’animal. Entretien exclusif avec Noémie.
par YVES FAUCOUP
Billet de blog
L’animal est-il un humain comme les autres ?
Je voudrais ici mettre en lumière un paradoxe inaperçu, et pour commencer le plus simple est de partir de cette célèbre citation de Deleuze tirée de son abécédaire : « J’aime pas tellement les chasseurs, mais il y a quelque chose que j’aime bien chez les chasseurs : ils ont un rapport animal avec l’animal. Le pire étant d’avoir un rapport humain avec l’animal ».
par Jean Galaad Poupon
Billet de blog
Le cochon n'est pas un animal
Pour nos parlementaires, un cochon séquestré sur caillebotis dans un hangar n'est pas un animal digne d'être protégé. C'est pourquoi ils proposent une loi contre la maltraitance animale qui oublie la grande majorité des animaux (sur)vivant sur notre territoire dans des conditions indignes. Ces élus, issus des plus beaux élevages politiciens, auraient-ils peur de tomber dans l'« agribashing » ?
par Yves GUILLERAULT