Miscellanées scientifiques du mois de juin

Ce mois ci une initiation aux algorithmes gloutons, le noir dans la physique, Ada Lovelace, celle qui a inventé la programmation, trois épistémologues féministes des sciences, trois podcasts scientifiques, le repliement des protéines, deux morts stupides pour la science et une expérience hasardeuse, du gras artificiel, trois livres de vulgarisation, et toujours les énigmes

Découvrir les algorithmes gloutons

https://encrypted-tbn0.gstatic.com/images?q=tbn:ANd9GcRO2VeIOdC3wMbJvvkqdyJOlZQnkx99s-mDHvIrIpqobLVkSO1z

Aujourd'hui pas d'équation issue de la physique mais un (bref) rappel d'algorithmique : l'algorithmique est cet "art" (et cette science) de résolution des problèmes qui est devenue centrale avec la révolution numérique.

Les algorithmes ont existé bien avant l'invention de l'informatique, mais c'est cette dernière qui les a rendu essentiels au fur et à mesure que « la numérisation du monde » prenait une place déterminante dans nos vies quotidiennes.  La circulation d'une grande ville ? Elle est réglée par des algorithmes. Le fonctionnement de la plupart de nos dispositifs techniques ? Idem. Et de plus en plus nos loisirs, notre culture est gérée par des dispositifs techniques qui font appel à des algorithmes. Et de ce point de vue, la mise au point de processus d'inteligent learning ("apprentissage intelligent) va encore plus ancrer ces processus au coeur du fonctionnement de nos sociétés qui en dépendent de plus en plus.

On présente souvent les algorithmes comme des "recettes de cuisine", ce qui n'est pas faux dans l'absolu, mais ne permet pas d'illustrer deux dimensions déterminantes de ces structures : d'une part, un algorithme est orienté dans la résolution d'un problème (le tri, la recherche d'un optimum, etc.) et d'autre part la recherche d'un algorithme pertinent a aussi une dimension "stratégique". Cette dimension découle de la réponse a une interrogation récurrente sur l'efficacité des procédures mises en œuvre : pour un problème donné, existe t il des solutions formalisées en réponse a celui ci ? Ou dois on trouver un nouveau algorithme. Et quelle est l'efficacité de cet algorithme ?  L'efficacité de calcul se résume souvent à une question de temps de calcul possible. Il parait trivial de constater que si la solution trouvée demande des centaines de milliers d'années de calcul, celle ci n'est guère envisageable de façon pratique... mais 

Ces deux dimensions sont parfaitement illustrées dans une série d'algorithmes qu'on appelle des "algorithmes gloutons" qui prennent une importance de plus en plus grande dans certains processus informatiques complexes :

En général quand on apprend l’informatique, on commence à nous présenter des problèmes dont on connait depuis longtemps la solution. Mais dans la vraie vie de l’informaticien, il est assez courant que celui-ci soit confronté à des problèmes qu’il ne sait pas résoudre. La première méthode qu’il utilise (et qu’on lui enseigne) c’est le « diviser pour mieux régner ». Les « algorithmes gloutons » sont justement une conséquence de cette approche. En général on recherche une solution « globale » convaincante. Mais si soit on n’arrive pas a trouver cette solution, soit celle-ci dépasse les capacités de calcul de l’informatique actuelle (en nécessitant des capacités de calcul hors de portée de la technologie actuelle)   

Un algorithme glouton est un algorithme qui suit le principe de faire, étape par étape, un choix optimum local, dans l'espoir d'obtenir un résultat optimum global. Par exemple, dans le problème du rendu de monnaie (donner une somme avec le moins possible de pièces), l'algorithme consistant à répéter le choix de la pièce de plus grande valeur qui ne dépasse pas la somme restante est un algorithme glouton. Dans les cas où l'algorithme ne fournit pas systématiquement la solution optimale, il est appelé une heuristique gloutonne.

Imaginons un distributeur de boissons un peu particulier, quelque part dans l’Union européenne, qui rend la monnaie, uniquement en pièces de 2 centimes, 5 centimes, 10 centimes, 50 centimes et 1 euro.

Une première méthode serait de considérer les pièces une par une, en commençant par les pièces de plus grande valeur, et de décroître le montant à rendre (en enlevant la valeur de la pièce que l’on considère à ce moment) jusqu’à ce que le montant soit inférieur à la valeur de la pièce que l’on regarde. On considère alors la plus grande valeur de pièce inférieure au montant, et on itère le raisonnement jusqu’à ce que le montant atteigne zéro.

Petite note : cette méthode correspond à un algorithme glouton, c’est-à-dire un algorithme qui prend une décision sans regarder les conséquences sur le problème global. Pour cet algorithme, on choisit de rendre la pièce de plus grande valeur, inférieure au montant, tant que le montant mis à jour reste inférieur à cette pièce, sans vérifier que cette condition assure de rendre la totalité du montant.

Par exemple : ma machine veut rendre 1 euro 22 centimes. Avec le système que l’on s’est posé ci-dessus :

  • On regarde la pièce de 1 euro. Alors on peut enlever une pièce de 1 euro au montant : on obtient 22 centimes à rendre. Or 22 centimes est inférieur à 1 euro et à 50 centimes, donc on passe à la pièce de 10 centimes.
  • On regarde la pièce de 10 centimes. Alors on peut enlever deux fois la pièce de 10 centimes pour obtenir 2 centimes à rendre (inférieur à 10 centimes et à 5 centimes).
  • On regarde la pièce de 2 centimes. Il suffit d’enlever une pièce de 2 centimes pour rendre le montant total.

Au final, l’algorithme retourne “rendre 1 pièce de 1 euro, 2 pièces de 10 centimes, 1 pièce de 2 centimes”.

Dans ce cas-là, ça marche très bien… Le problème c’est qu’une « heuristique gloutonne » nous donne souvent une solution « envisageable » elle ne nous donne pas forcément la meilleure solution possible.

Tant qu’on en reste à du « rendu de monnaie » ce n’est pas très grave. Si on utilise ce type d’algorithmes pour de la gestion de trafic automobile (avec un système de feu de signalisations couplé à des capteurs de présences pour faire en sorte qu’a partir d’un trafic donné les feux soient coordonnés pour donner le moins d’embouteillage) c’est déjà bien plus embarassant. Et si l'application auquel elle constitue tout ou partie de la solution comporte des enjeux en terme de sécurité liés a des questions de temps d'éxécution, cela devient alors totalement inenvisageable

Bien entendu il existe alors d’autres stratégies possibles pour sortir de ce dilemme Par exemple la « probrammation dynamique » en est une (voir http://tryalgo.org/fr/2016/12/11/rendudemonnaie/) Mais celle ci plus difficile conceptuellement demande plus d'effort et est donc bien moins rentable.

Ce type de programmation se rencontre pourtant dans toute une séries d'applications différentes : a partir du moment où on peut trouver une solution même approximative, possiblement moins efficace qu'une solution globale mais qui a le mérite d'exister.

Bibliographie :

Luca Massaron et John Paul Mueller Les algorithmes pour les nuls First Interactive 2017 400 pages

Un des meilleurs ouvrages pour une premiére approche de l'algorithmique. Trés complet, avec les derniers développements (par exemple autour des "big data") et d'un ton trés éloigné du ton scolaire habituel Trés complet sur les représentations en arbres et en graphes, avec un chapitre trés complet autour des algorithmes gloutons.

Noir c'est noir : Corps noir, Matière noire, énergie noire

matiere-energie-noires-750x400

La physique et l'astronomie affectionnent particuliérement la couleur noire. Mais chez eux, le "noir" n'a pas forcément la même signification que pour les citoyennes lambda. Par exemple les physiciens ont longtemps discouru de certains problémes du "rayonnement du corps noir" La définition "classique" du corps noir (donné par Wikipédia) est la suivante : "En physique, un corps noir désigne un objet idéal qui absorbe parfaitement toute l'énergie électromagnétique (toute la lumière quelle que soit sa longueur d'onde) qu'il reçoit. Cette absorption se traduit par une agitation thermique qui provoque l'émission d'un rayonnement thermique, dit rayonnement du corps noir." Le corps noir est un "objet idéal" Mais la physique utilise comme outil pratique expérimental un four. Mais un autre modéle possible de "corps noir" est notre bon vieux soleil. Lequel correspond en fait assez peu a ce qu'on peut nous considérer comme un "corps noir" 

La question du "rayonnement du corps noir" a été décisive pour la physique du XX siécle puisque c'est à la suite de difficultés pratiques a comprendre ces phénoménes que les prémisses de la "physique quantique" ont été élaborés par Max Plank

Les galaxies de notre Univers semblent arriver à réaliser une véritable prouesse. Elles tournent si vite que la gravité produite par la matière observable qu’elles contiennent ne peut pas les faire tenir ensemble ; logiquement, elles auraient dû se défaire depuis longtemps. Il en va de même pour les amas de galaxies. C'est pourquoi les scientifiques sont convaincus qu’intervient un élément invisible : quelque chose que nous n’avons pas pu encore détecter directement donne à ces galaxies une masse supplémentaire, ce qui produit le surplus de gravité dont elles ont besoin pour ne pas se défaire. Cette présence mystérieuse est appelée « matière noire ».

Contrairement à la matière ordinaire, la matière noire n’est pas sensible à la force électromagnétique. De ce fait, elle ne peut absorber, refléter ou émettre de la lumière, ce qui la rend extrêmement difficile à détecter. Les scientifiques n’ont pu déduire l'existence de la matière noire que de l'effet gravitationnel que celle-ci semble avoir sur la matière visible. La matière noire semble représenter une masse environ six fois supérieure à celle de la matière visible ; elle devrait constituer environ 27 % de l'Univers. Voilà qui donne à réfléchir : la matière que nous connaissons et qui constitue toutes les étoiles et les galaxies ne représente que 5 % du contenu de l’Univers. Mais quelle est la nature de la matière noire ? Selon l’une des théories, elle pourrait contenir des particules dites « supersymétriques », particules hypothétiques qui seraient associées aux particules déjà connues du Modèle standard. Les expériences menées au Grand collisionneur de hadrons (LHC) apporteront peut-être des éléments plus probants concernant la matière noire.
Plusieurs théories prévoient que les particules de matière noire seraient assez légères pour être produites au LHC. Dans ce cas, elles traverseraient les détecteurs sans être repérées. Elles seraient toutefois porteuses d’énergie et d’impulsion. Il serait donc possible de déduire leur existence de l'énergie et de l'impulsion manquantes après une collision. Les candidats à la matière noire sont souvent présents dans les théories portant sur la physique au-delà du Modèle standard, telles que la supersymétrie et les dimensions supplémentaires. L’une de ces théories évoque l’existence d'une « vallée cachée », un monde parallèle fait de matière noire ayant très peu de chose en commun avec la matière que nous connaissons. Si l’une de ces théories était confirmée, cela permettrait aux scientifiques de mieux comprendre la composition de l'Univers, et, en particulier, comment font les galaxies pour ne pas se défaire.

 Mais le mystére est encore plus profond quand on sait que la "matiére noire" n'est pas le seul (grand) mystére irrésolu mais qu'il existe une encore plus hypothétique "énergie noire"

En cosmologie, l'énergie noire ou énergie sombre (dark energy en anglais) est une forme d'énergie hypothétique emplissant uniformément tout l'Univers et dotée d'une pression négative, qui la fait se comporter comme une force gravitationnelle répulsive. L'existence de l'énergie noire est nécessaire pour expliquer diverses observations astrophysiques, notamment l'accélération de l'expansion de l'Univers détectée au tournant du XXIe siècle. (source wikipedia) 

Cette "énergie noire" est a la fois totalement hypothétique (on a pour le moment aucun élément permettant de donner la nature de cette énergie et d'ou elle provient) et dominant la production globale d'énergie de l'univers puisqu'elle représente quand même 68% de la "densité d'energie" de l'univers. Elle est cependant d'une densité très faible, ce qui autorise toutes les suppositions sans qu'aucune démarche rationnelle (en particulier expérimentale) ne permette de trancher entre les différentes théses en présence. 

La physique actuelle semble etre réduite à une impasse : matiére noire et énergie noire font irrésistiblement penser à la théorie de l'ether cosmique , ce fluide censé remplir l'univers selon la physique jusqu'a Einstein qui a été le premier a rejeter cette hypothése et à ouvrir aux théories modernes de la relativité et de la mécanique quantique.

 

La scientifique du mois Ada Lovelace

ada-lovelace

Ada Lovelace est la premiére programmatrice de l'histoire de l'informatique.

Fille d'un poète britannique (lord Byron) et d'une amatrice de mathématiques (Anne Isabella Milbanke), Augusta Ada King naît le 10 décembre 1815 à Londres et témoigne, comme sa mère, d'un grand intérêt pour les mathématiques. Devenue femme du comte de Lovelace, elle rencontre Charles Babbage, inventeur de la « machine à différences », une calculatrice mécanique. Le mathématicien travaille alors sur la « machine analytique », système mécanique capable de réaliser une série de calculs établis à l'avance et inscrits sur des cartes perforées, considéré comme le précurseur des ordinateurs. La machine ne fut jamais construite entièrement mais elle était fonctionnelle, comme l'a démontré une réalisation effectuée en 1991.

La collaboration de Lady Ada Lovelace n'est pas connue précisément mais on considère qu'elle a réalisé les premières ébauches d'une écriture formelle des instructions à employer avec cette machine analytique pour réaliser des calculs donnés. En clair, elle a travaillé sur ce que l'on appelle aujourd'hui un langage informatique. En 1978, le nom Ada fut donné, en son hommage, à l'un de ces langages informatiques élaborés aux États-unis entre 1977 et 1983 chez CII-Honeywell Bull sous la direction de Jean Ichbiah.

Ada choisit de se consacrer entièrement à l’étude de la machine analytique de Babbage. Elle commence notamment à travailler sur une traduction d’une présentation de la machine analytique écrite par Federico Luigi, comte de Menabrea. Ce singulier mémoire se trouve rapidement enrichi de notes personnelles écrites par Ada. La traduction anglaise du volume initialement rédigé en français fait finalement trois fois la taille du texte original. Ada y adjoint notamment un programme informatique pour calculer les nombres de Bernouilli.

Il existe bien entendu de nombreux débats sur la paternité exacte de cet algorithme. On s’interroge notamment sur le rôle joué exactement par Babbage et son influence exacte. Il n’en demeure pas moins qu’Ada développe une vision singulièremenet prophétique du rôle de l’ordinateur, allant même jusqu’à imaginer que « « la machine (puisse) composer de manière scientifique et élaborée des morceaux de musique de n’importe quelle longueur ou degré de complexité »

Il faut finalement attendre les années 30, soit près d’un siècle plus tard, pour voir Turing formaliser bon nombre des intitulons de la géniale Madame Lovelace.

 

diagram-for-the-computation-of-bernoulli-numbers

Le premier programme informatique calculant les nombres de Bernouli

Trois épistémologies féministes :

Depuis maintenant plusieurs mois j'accorde systématiquement dans mes "miscellannées" une place importante pour décrire les travaux des femmes dans ce secteur de la connaissance. C'est que leur place a longtemps été problématique, et elle le reste même si les problémes rencontrés ne sont plus de même nature qu'au XIX siécle. Cette problématique "douloureuse" de la place des femmes en science a débouché sur un courant féministe qui s'est posé la question des "biais" de genre en science. Mais c'est dés les origines de ce combat que la question s'est posée (ainsi en médecine, ou les "problémes de femmes" étaient systématiquement dévalorisé). Et c'est à partir du grand mouvement des femmes des années 70 qu'une véritable "épistémologie féministe" s'est formée, en particulier aux états unis. C'est ce courant d'épistémologie féministe que j'aimerais vous faire découvrir

Un  article des "cahiers du genre" écrit par Artemesia Flores Espinola permet d'en rendre compte. "Subjectivité et connaissance : réflexions sur les épîstémologie du point de vue" En voila les prémisses :

Les femmes dans la recherche, conscientes de leur statut minoritaire, se sont intéressées aux façons dont elles ont été exclues de la pratique scientifique ; ce qui les a amenées à formuler un certain nombre de questions d’ordre épistémologique : qu’aurait été une science faite par les femmes ? Quelles ont été les conséquences de l’hégémonie des hommes (blancs, de classe moyenne, occidentaux et hétérosexuels) dans le domaine de la science ?

2Les épistémologies féministes, quoique rassemblant divers courants et traditions philosophiques et épistémologiques, partagent toutes ce « scepticisme par rapport à la possibilité d’une théorie générale de la connaissance qui ne tienne aucunement compte du contexte social et du statut des sujets connaissant » (Alcoff, Potter 1993). Dans cet article, l’épistémologie sera ainsi comprise comme une théorie de la connaissance permettant de répondre aux questions suivantes : Qu’est-ce qui peut être considéré comme relevant de la connaissance ? Quels en sont les principes de justification ? Qui peut produire de la connaissance ? Et par quels moyens ? Selon Elizabeth Anderson (1995), deux objectifs centraux guident le projet épistémologique féministe. Il s’agit, d’une part, de détailler les apports de la critique féministe à la mise en évidence du sexisme et de l’androcentrisme dans la pratique scientifique en définissant ce qu’est une théorie sexiste ou androcentrique et en identifiant les biais qui la caractérisent à tous les stades de la recherche. D’autre part, il s’agit de soutenir des pratiques féministes qui impliquent un engagement à la libération des femmes dans une perspective d’égalité sociale et politique, afin d’expliquer les façons par lesquelles de tels projets moralement et politiquement engagés peuvent permettre la production d’un nouveau mode de connaissance.

J'aimerais vous présenter trois femmes épistémologues qui sont les héritieres contemporaines de ces débats :

Helen Longino

eugen-longino

Helen Elizabeth Longino [1] (née le 13 juillet 1944) est un philosophe américain de la science qui a plaidé en faveur de la signification des valeurs et des interactions sociales pour la recherche scientifique . Elle a écrit sur le rôle des femmes dans la science et est une figure centrale de l'épistémologie féministe et de l'épistémologie sociale . Elle est professeure de philosophie Clarence Irving Lewis à l'Université Stanford . En 2016, elle a été élue à l' Académie américaine des arts et des sciences .

Dans son travail, Longino aborde les dimensions sociales de la connaissance scientifique et les relations entre les valeurs sociales et cognitives. Elle examine les épistémologies féministes et sociales et leurs implications pour le pluralisme scientifique. [12] Plutôt que de suggérer qu'il existe une façon de savoir distinctement féminine, Longino insiste sur l'idée de "faire de l'épistémologie en tant que féministe", approche qui permet de prendre conscience des nombreuses façons dont une question peut être définie

Donna Haraway

donna-haraway
Donna Haraway est une figure du féminisme et la principale théoricienne des "savoirs situés" Cette notion qu'elle a la premiére développée implique que les "savoirs" ne naissent pas "magiquement" mais qu'ils sont le résultat d'un travail "socialement situé" Ses travaux sont en général d'une originalité remarquée (et remarquable) mais aussi pertinence, d'autant plus qu'elle a une formation initiale de zoologie. Ses ouvrages principaux traduits en français sont "le manifeste Cyborg" et autres essais, aux éditions Exils,Des singes, des cyborgs et des femmes. La réinvention de la nature aux éditions Jacqueline Chambon et  Manifeste des espèces de compagnie. Chiens, humains et autres partenaires réédité chez Flammarion

María Puig de la Bellacasa

maria-puig-de-la-mariossa

Marie Puig de la Bellaca est une universitaire américaine titulaire d'une chaire d'épistémologie féministe à l'université de Warwick Elle est l'auteure de deux ouvrages importants "Les savoirs situés de Sandra Harding et Donna Haraway: Science et épistémologies féministes" et "Politiques féministes et construction des savoirs : « Penser nous devons » ! tous deux aux éditions de l'harmattan

Trois Podcasts de science

La vulgarisation de la science passe sans aucun doute par les revues et par les livres, on parle aussi beaucoup de chaines YouTube qui font un travail assez remarquable dans cette direction (j'avais le mois dernier signalé l'excellence du travail accompli par la chaine "science amusante" Ce mois ci nous parlerons radio, et plus particulièrement des Podcasts qui rendent disponible les travaux des scientifiques.

 On remarquera incidemment que les trois émissions présentées sont toutes issue de la radio publique, et ce n'est pas un hasard. Les radios commerciales ne trouvent pas les sujets scientifiques assez vendeur. En ces temps de remise en cause du service public, cela devrait être précisé...

France culture : les cours du collége de france

college-de-france-480x360

Le podcasting permet d’automatiser le téléchargement des cours, des leçons inaugurales et de quelques colloques qui ont été enregistrés. Ces contenus peuvent ensuite être écoutés sur un baladeur numérique, sur un smartphone compatible ou sur un ordinateur personnel. Cela vous permet de tout écouter librement.

Le Collège de France met à votre disposition différents flux, organisés selon les grands domaines scientifiques composés par les Chaires du Collège de France.

Si vous utilisez iTunes, vous avez la possibilité de laisser une note, ainsi qu'une appréciation sur la page du podcast de votre choix. Ces notes nous permettront de bénéficier d’une meilleure exposition sur le portail iTunes.
Merci pour votre aide !

France inter : la tête au carré

la-tete-au-carre

La Tête au carré est une émission de radio française de vulgarisation scientifique présentée et produite par Mathieu Vidard. Elle est diffusée sur France Inter depuis le 4 septembre 2006 du lundi au vendredi de 14 h à 15 h, et cessera sa diffusion à la rentrée 2019. À travers des chroniques et l'interview des scientifiques invités, elle aborde autant les sciences dures, que la science du vivant et les sciences humaines et sociales.

France culture : La conversation scientifique d'Etienne Klein

podcast-etienne-klein

Etienne Klein est un physicien et un vulgarisateur de science bien connu. Etienne Klein est physicien, directeur de recherches au CEA et docteur en philosophie des sciences. Il est professeur à l’Ecole Centrale de Paris et dirige le Laboratoire de Recherche sur les Sciences de la Matière du CEA (LARSIM). Outre ses nombreux ouvrages (je retient tout particuliérement celui sur Majorana : Majorana le physicien absolu paru en 2015 aux éditions Gallimard ) il anime également une émission sur france culture "La Méthode scientifique"

Celle ci se signale par un mélange de sciences exactes, de sciences sociales et historique mais aussi de philosophie. Derniérement une émission a par exemple été consacré a Jean Cavailles, "l'agrégé du sabotage" philosophe et mathématicien connu pour son engagement dans la résistance et qui l'a payé de sa vie (il est mort fusillé par les nazis à l'age de 41 ans) mais aussi une rencontrer avec un moine philosophe François Cassingena-Trévedy. Sans oublier une discussion passionnante avec Medhi Moussaid "chercheur en foulologie (nous reparlerons plus en détail de ce dernier au chapitre des livres)

 

Repliement des protéines : quand l'intelligence collective supplante l'intelligence artificielle

human-alfa2beta2-hemoglobin

Les protéines assurent une séries de fonctions indispensable au fonctionnement des cellules vivantes, qu'elles soient animales ou végétales  Elles assurent toute une série de réactions chimiques, elles constituent une "brique de base du squelette ou des tissus en particulier musculaire.   Elles ont également tout une série de fonction dans le fonctionnement de l'ADN, la transmissions des messages cellulaires etc etc etc. Basées sur une petite série d'éléments de base leur construction obéit a des régles simples et précises. Une des difficultés dans l'analyse et la connaissance du fonctionnement des protéines est leur systéme de repliement. En effet, elles sont fortement repliées (pour prendre le moins de place dans un organisme complexe) et l'étude de ce repliement est essentiel pour la connaissance scientifique de la vie.

La plupart des protéines adoptent une conformation tridimensionnelle unique. La forme naturelle d'une protéine in vivo est son état natif, qui correspond à la forme qu'elle prend pour être biologiquement active et fonctionnelle. De nombreuses protéines prennent par elles-mêmes leur forme biologiquement active sous l'effet de la distribution spatiale des résidus d'acides aminés qui les constituent, d'autres ont besoin d'être assistées pour ce faire par des protéines chaperonnes pour être repliées selon leur état natif.

Source : Wikipedia

Mais la tache est complexe et le nombre de protéine extrémement important. C'est pourquoi deux solutions ont été inventée

L'une présente la tâche sous forme de jeu accessible a n'importe quelle personne (qui aime les puzzles, genre de jeu sous lequel l'exercice est présenté)

Foldit (littéralement « Pliez-la », sous entendant pliez la protéine) est un jeu vidéo expérimental sur le repliement des protéines, développé en collaboration entre le département d'informatique et de biochimie de l'université de Washington. La version bêta a été publiée en mai 2008. Les joueurs tentent de résoudre un problème que les ordinateurs ne savent pas résoudre. Version humaine de Rosetta@home et développée par la même équipe, Foldit utilise les algorithmes de ce dernier, notamment pour le calcul d'énergie des protéines. De nombreux puzzles proposés aux joueurs de Foldit sont d'ailleurs issus de prévisions calculées par Rosetta.

Source Wikipédia

foldit

L'autre est un peu plus classique et fait appel à l'intelligence artificielle ainsi mise à contribution C'est deepmind le systéme d'Intelligence Artificielle mis au point par google qui a abandonné les exercices de Go dans lequel il était passé champion et qui s'est consacré a ce difficile probléme Les résultats n'ont pas manqué d’être spectaculaire et "DeepMing" a battu a plate couture les meilleures équipes académiques de la planète, qui travaillent, pour certaines d’entre elles, depuis de longues années sur le sujet. au concours international de référence, CASP

Mais DeepBlues n'est toujours pas aussi performant que Foldit. Preuve que le travail collaboratif entre humains bat toujours celui des machines qu'on tend a vouloir nous présenter comme "imbattables"

 

Deux  morts stupides pour la science

La science a ses martyrs, elle a aussi ses morts stupides. Ci dessous trois exemples (trés différents ma foi) de "morts stupides" pour la science 

Yutaka Taniyama

220px-yutaka-taniyama

Yutaka Taniyama était un mathématicien japonais né en 1921 Dans l'aprés guerre il s'attela au difficile probléme de prouver la conjoncture de Fermat. Rappelons celle ci :

Il n'existe pas de nombres entiers strictement positifs x, y et z tels que : {\displaystyle x^{n}+y^{n}=z^{n},} dès lors que n est un entier strictement supérieur à 2.

Rappelons que Fermat n'était pas (à l'époque cela n'existait pas) un mathématicien de métier. Il avait comme habitude d'écrire ses théorémes et leur démonstration dans la marge des livres qu'il consultait. Dans celui ou est inscrit ce théoréme, il a écrit "je connais une démonstration trés simple mais elle ne tient pas dans la page de ce livre" Depuis 230 ans on a essayé de démontrer ce "théoréme" jusqu'a ce qu'on arrive (enfin !) a le démontrer. Mais la démonstration tient en plusieurs centaines de pages ! 

Il est surtout connu pour le "théorème de congruence", plus connu sous le nom la conjecture Taniyama-Shimura dont il a été un des principaux contributeur. Ce théorème était un élément central dans le travail permettant de démontrer le théoréme de fermat. Bien aprés la mort du mathématicien son confrère Ken Ribet a réussi a démontrer que si cette "conjoncture" était prouvée, alors le dernier théoréme de Fermat le serait aussi. Un autre mathématicien, Andrew Viles parvient lui à démontrer que si un cas particulier de ce qui n'était qu'une conjecture était démontré, alors le théorème de Fermat le serait aussi. C'est enfin  un groupe de quatre mathématiciens (Breuil, Conrad, Diamond et Taylor )  qui réussirent cette prouesse de démontrer ce théorème qui avait résisté pendant plus de deux siècle aux efforts conjugués de tant de mathématiciens. 

Malheureusement Yutaka Taniyama n'était plus là pour admirer le travail accompli. Il s'était donné la mort en 1958 alors que la démonstration du  théoréme qu'il avait élaboré  était contesté par ses confréres. Voila donc un "mort au champ d'honneur" des recherches mathématiques....

Emil Hermann Ficher

hermann-emil-fischer-c1895

Il fut un des champions allemand de la chimie de sythèse à la fin du XIX siécle, récipendiaire du prix nobel de chimie en 1909 pour "la synthèse des hydrates de carbones et des purines" deux composants essentiels de la chimie organique Il synthétisera la caféine (1895), l'acide urique (1897) et l'acide barbiturique (1903) qui fut décliné en une série de "molécules d’intérêts" pharmaceutiques. Mais sa mort (assez typique de celle d'un certain nombre de chimistes cela dit) résultat d'un long empoisonnement avec une des substance qu'il avait contribué à synthétiser : la phénylhydrazine On ne savait pas alors que cette molécule s'attaque aux globules rouges, raison pour laquelle elle est encore utilisée aujourd'hui  Il dira plus tard à ce sujet : « Cette petite base adorable était mon premier et plus durable amour chimique. Nous nous étions entendus à merveille pendant quinze ans […] mais un jour le malheur m'advint avec un empoisonnement chronique et extrêmement acharné5 ».

Le roi de l'expérimentation hasaradeuse

Stubbins Ffirth

stubbins-ffirth-experiences-scientifiques

Ce scientifique est surtout connu pour les expériences qu'il a entrepris pour combattre la "Fiévre Jaune" qui faisait des ravages en particulier dans la ville de Philadelphie ou il avait entrepris des études de médecines  En 1793, une terrible épidémie de fièvre jaune tua plus de 5000 personnes dans cette ville.Il fit l'hypothése que la maladie n'était pas contagieuse, mais due à la chaleur, en constatant que les épidémies avaient surtout lieu en plein été. Sa remarque était juste, mais sa conclusion fausse : plus tard un médecin cubain montra que la transmission de la maladie était due à certains moustiques. Pour prouver sa théorie, il entreprit une série d’expériences sur lui même tellement ignobles qu’elles le rendirent célèbre : Ffirth commença par se faire des incisions sur les bras pour y verser du vomi de patient infecté, puis il s’en versa également dans les yeux. Il fit ensuite chauffer du vomi pour en inhaler les vapeurs, et comme il n’était toujours pas malade, il finit par en boire. A l’issue de ces expériences, il était toujours en pleine santé, ce qui lui sembla être une preuve éclatante de son hypothèse.

Découvertes du mois

Organoïde de tissu adipeux

Ce mois ci la découverte scientifique la plus remarquable ressort du domaine spécifique des technosciences du vivant. Il s'agit de la mise au point d'un organoide, une vision artificielle d'un organe reproduisant son organisation cellulaire spécifique.

Cette derniére réalisation est en fait un substitut au tissus adipeux humain reproduit "dans toute sa complexité par une équipe collaborative réussissant chercheuses et chercheurs du CNRS, de l'Inserm, de l'université Paul Sabatier de Toulouse et d'autres institutions scientifiques

Cette réalisation a été testée sur des souris, mais les prochains développement devraient pouvoir éliminer le Les deux résultats exceptionnels constatés ont été la parfaite de ces organites dans les tissus vivants mais aussi la production de deux sortes de tissus adipeux, le "corps brun" et le "corps rouge"

Cette innovation permettra d'étudier le tissu adipeux en conditions saines comme pathologiques, en limitant au maximum l'expérimentation animale. Ainsi, les adiposphères sont sensibles, comme dans le corps humain, à des molécules induisant la production de graisse brune (qui dépense l'énergie) au sein de la graisse blanche (qui la stocke), la première étant rare chez l'adulte, au contraire de la seconde. Les adiposphères constituent ainsi "un modèle précieux pour décrypter les mécanismes en jeu et pour tester de nouveaux médicaments pour le traitement de l’obésité", ou même du diabète de type 2, d'après les auteurs dans la publication.

source : https://www.sciencesetavenir.fr/sante/organoide-le-tissu-adipeux-humain-a-ete-reproduit-en-3d-en-laboratoire_134571

Les trois livres du mois

Murrau Gell-Mann Le quark et le jaguar Voyage au coeur du simple et du complexe Albin Michel 1995 443 pages

quark-et-jaguar

Les "miscellanées " du mois précédents ont été largement consacrées à une question centrale  de la physique fondamentale dont les connaissances éparses sont résumée par la théorie du "modéle standard de la physique des particules" a l'occassion de la mort d'un scientifique remarquable, Murray Gell Mann, physicien prix nobel de physique pour la découverte des Quarks. C'est précisément que j'étais en train de lire l'ouvrage dont je suis présentement en train de vous parler quand j'ai lu sur un fil d'actualité scientifique auquel je suis abonné l'annonce de la mort de celui qui peut sans aucun doute etre considéré comme le physicien le plus important du dernier quart du 20 siécle.

Son ouvrage recéle les qualités qui ont permis des découvertes fondamentale à ce grand chercheur : pertinence, originalité, hauteur de vue. Mais aussi quelques autres qui expliquent également l'affection qu'on peut avoir pour ce type de personnage : originalité, humour, absence totale de prétention. Il commence par nous raconter ses rencontres (ou plutot ses non rencontres) avec un jaguar (grand félin d'amérique du nord, centrale et du sud, "extirpé' des états unis depuis le début des années 70. L'animal mythique (au coeur de nombre de mythologies  américaines) lui permet une réflexion féconde sur la question de "l'émergence" (de la vie) et de la complexité. Murray Gell Mann est aussi un grand admirateur des milles merveilles de la nature. Pour lui, la terre est un organisme vivant auto organisé (selon toutes les théories autour de "Gaia", il reprend en grande partie la théorie de l'écologue James Lovelock) et la "complexité" d'organismes divers, vivants ou pas (avec un rappel sur l'informatique et les capacités d'un ordinateur) Évidemment, la physique des particules n'est pas (du tout) oubliée, et elle nous est présentée dans toute sa dynamique. L'auteur sait nous en faire ressentir toute la complexité sans pour autant être pesant.  Mais les considérations sur l'homme et ses relations sociales complexes sont également là, riches,  profondes, ouvrant la piste à de multiples réflexions. Au final un ouvrage qui vous fera envisager le réel d'une autre façon. Peut etre est ce au final de ça dont nous avons besoin.

La présentation de l'éditeur

Qu'est-ce qui relie la physique des particules la plus abstraite aux objets de notre vie quotidienne ? Comment penser à la fois, et selon quelle dialectique, les constituants les plus simples de la matière, l'histoire de l'évolution, les organismes vivants les plus sophistiqués, et toute la complexité biologique et culturelle de l'homme - jusqu'à ses langues et ses formes de société ? Apparemment, il n'existe pas de lien entre les uns et les autres. Pourtant, Murray Gell-Mann, prix Nobel 1969 pour la théorie des quarks dont il a été l'inventeur, montre comment, de la bactérie qui développe une résistance aux antibiotiques jusqu'à l'enfant qui apprend à parier, de la formation des galaxies à celle des différentes cultures, de la pensée créatrice à la simulation informatique, se déploie l'interrelation de la simplicité la plus nue et de la complexité extrême. Professeur émérite au Californian Institute of Technology (le Caltech) et fondateur du Santa Fe Institute, partisan d'un équilibre harmonieux entre progrès technologique et protection de l'environnement, Murray Gell-Mann souligne l'extraordinaire richesse de cette nouvelle approche ou se rencontrent les avancées les plus spectaculaires de la pbysique quantique, de celle des particules, de la cosmologie, de la théorie de l'évolution, de la biologie et de la génétique, et des nouveaux outils informatiques. Fascinant par l'étendue de ses connaissances, Le Quark et le Jaguar est un livre de référence indispensable à ceux qui, attirés par un voyage au coeur du simple et du complexe, veulent connaître et comprendre l'unité du monde et du vivant.

Florian Gouthiére Santé, science, doit on tout gober Edition Belin 2017 428 pages

sante-science-doit-on-tout-gober

S'il n'y avait qu'un seul ouvrage à recommender cette année ce serait celui là. Florian Gouthiére est le chroniqueur scientifique de l'émission "la santé sur la 5" En tant que tel, il donne en permanence des informations scientifiques et médicales au grand public. On aurait pu s'attendre à une suite de conseils divers sur l'ensemble des sujets de santé "à la mode" (ceux dont on parle le plus) La démarche de l'auteur est bien différente : il nous donne des instruments permettant de juger de la façon la plus rationnelle possible les informations dont on nous abreuve. Bien entendu, personne ne deviendra un scientifique accompli après lecture de cet ouvrage, mais il sera doté d'une démarche globale qui correspond en tout point à la démarche scientifique. Avant tout vous apprendrez à vous méfier : des chiffres, du communiqué triomphal du "labo" repris tel quel dans tout un ensemble de journaux, des discussions de comptoir ou de réseaux sociaux, mais surtout et avant tout de soi même ! Car en matiére de science, nous sommes notre principale source d'erreur ! Mais il y a également une réflexion aboutie sur la catégorie socio professionelle dont Florian Gouthiere fait partie, celle des journalistes scientifiques. Au final un bouquin qui apportera beaucoup a ses lecteurs et ses lectrices, en dehors même de la rubrique "santé" (on peut entreprendre la même démarche pour les informations politiques que celle qui est recommandée pour les informations médicales et/ou scientifiques)

Présentation de l'éditeur

"Une simple pommade antibiotique efficace à 100% contre la maladie de Lyme !" ; "Sinusite chronique: attention aux risques de cancer !"; "Le temps de sommeil moins important les soirs de pleine Lune !" ; "Des scientifiques prouvent qu'il y aurait une vie après la mort !"; "Les mouches transmettent la peste !" ; "Selon un cancérologue, il faut faire l'amour sans préservatif !" ...
Gros titres de journaux, dépêches AFP, reportages TV fourmillent d'infos de ce genre, alarmistes, sensationnalistes... et généralement rigoureusement fausses.
Alors, info ou intox ? Comment s'y retrouver dans l'information santé, et plus généralement scientifique ?
L'ambition principale de ce petit livre est d'aider à diminuer les risques de nous faire berner. Il explique comment la plupart des connaissances qui arrivent jusqu'à nous sont produites et circulent, ainsi que les critères pour leur faire confiance ou s'en méfier. Pour y parvenir, il invite le lecteur à explorer, instruments de navigation à la main, plusieurs territoires faussement familiers : celui de notre jugement (chapitres consacrés aux méthodes de l'esprit critique), celui de nos idées reçues (chapitres consacrées à diverses notions indispensables en sciences et en santé) et celui de la fabrique de l'information. .

Medhi Moussaid Fouloscopie Ce que la science dit de nous Edition humenscience 2019 220 pages

fouloscopie

Qu'est ce que c'est donc qu'un "fouloscope" et sa discipline rattachée la fouloscopie ?  : quelqu'un (ou quelqu'une) qui étudie "la foule". C'est dont un objet d'étude "la foule" ?  C'est pour répondre a ces questions et pour donner un aperçu de son quotidien de "foulologue que Mehdi Moussaid à écrit cet ouvrage tout a fait passionnant. C'est que l'étude de la "foule" a de multiples aspects qui sont bien rendu par lui. Une des premières difficulté est la dimension pluridisciplinaire qui entraine le spécialiste à travailler avec des laboratoires dont la discipline de base n'est jamais la même : il commence a travailler avec des fourmis dans un premier temps (son laboratoire de rattachement est spécialisé en ethologie animale, en l'étude de leur comportement) , avec des équations en changeant de laboratoire (la il est dans un département de physique dont la mathématique est l’instrument privilégié). Et bien entendu il répond a des tas de questions pratiques (les mouvements de la foule, sa dynamique qui associe mécanique des fluide et sociologie comportementale. Au final un livre facile à lire, passionnant et passionné, d'un abord très facile (aucune difficulté mathématique ou conceptuelle) recommandé pour tous celles et ceux qui auraient à subir ce type de comportement, c'est à dire au jourd'hui tout le monde !

Présentation de l'éditeur

Violente, puissante, aveugle, destructrice... Pour beaucoup, la foule est une menace incontrôlable, un danger. Mais elle peut aussi faire preuve d'intelligence collective. Dans les laboratoires, les biologistes, les physiciens, les psychologues cherchent à percer son mystère. Quelles règles dictent les mouvements de foule ? Qu'est-ce qui explique les bousculades meurtrières ? Pourquoi le comportement des piétons diffère-t-il d'un pays à l'autre ? Peut-on comparer les Hommes à des bancs de poissons ? Quels enseignements tirer de l'observation de Facebook et des réseaux sociaux ? À la lumière des dernières découvertes scientifiques, l'auteur dévoile les mécanismes et les pouvoirs de la foule. Lui répondent en écho les dessins poétiques de Wozniak. Le livre que l'on attendait depuis Psychologie des foules de Gustave Le Bon (1895) !

Les trois problémes

Probléme numéro un :

Madame et monsieurs dubémol ont six enfant : Dorene, René, Micheline, Fabien, Solange, Laurent, . Un prochain enfant arrive. Comment vont il l'appeler Ils ont cinq nom à leur disposition : Diane, Hervé, Lise, Sidonie, Marc sachant que les noms précédents obéissent à une certaine logique qu'il faut respecter.

Probléme numéro 2

Puisqu'on a parlé en premier de l'algorithme de rendu de monnaie, un probléme qui y est lié : Martine à dans son porte monnaie 8,6 euros uniquement en piéces de 20 et 50 centimes. Sachant qu'elle a en tout 28 piéces, donnez la répartitions de chacune des deux sortes de pièces

Probléme numéro 3

Pour ce probléme je vous soumet trois cryptarithme, Un cryptarithme, est une opération arithmétique dans laquelle les chiffres sont remplacées par des lettres selon les régles suivantes :

Un méme chiffre est toujours remplacé par une méme lettre

Réciproquement, à une méme lettre correspond toujours le meme chiffre

il n'y a pas d'accent

Aucune lettre ne commence par 0

Et évidemment, l'opération est exacte

Je vous propose trois cryptarithmes, Bon jeu !

BANJO

+PIANO

=BINIOU

****************************************************************************

GRADE

+ DEGRE

= RADIAN

****************************************************************************

DAME

+DAME

+DAME

+DAME

=CARRE.

 

 

 

Le Club est l'espace de libre expression des abonnés de Mediapart. Ses contenus n'engagent pas la rédaction.