Jeu.
23
Oct

MEDIAPART

Connexion utilisateur

HackThePress: pourquoi nous n'avons pas gagné le Minitel

Les chiffres pour commencer: Rue89: 29 voix; la Netscouade feat. Mediapart : 11; Umaps: 10; Owni: 24 et StreetPress: 36. Au décompte final de la journée Hack The Press organisée mardi 28 septembre à la Cantine, à Paris. C'est donc StreetPress qui remporte un Minitel de toute beauté de marque Alcatel avec clavier coulissant avec pavé numérique et diode frontale permettant de vérifier qu'il est sous tension.


Il y a forcément un peu de jalousie, donc, dans ce billet, car le prix était alléchant. Malgré que j'en aie, il faut reconnaître que la victoire est méritée car la vraie bonne idée se trouvait là pour le «journalisme augmenté» («fait d’innovation, à une forte valeur ajoutée pour sortir du lot et attirer cette précieuse attention»), selon l'expression d'Eric Scherer, directeur de la stratégie et des relations extérieures de l'AFP. Pas tellement dans le reportage BD qui, de Joe Sacco à Didier Lefèvre, a déjà quelques kilomètres de route, mais dans le fait d'autonomiser ce reportage dans une application pour iPhone, consultable en dehors du temps et des priorités du site Web qui en est l'initiateur.

Ce n'est pas tant une question de compatibilité: la plupart des compétiteurs ont évité d'utiliser des animations Flash pour rester lisibles sur les appareils d'Apple. Mais, étant donné le temps, les moyens, le travail consacrés à la production de ce «journalisme augmenté», il serait dommage de ne laisser ces réalisations en page d'accueil que le temps qu'y passerait un article «normal» sur le même sujet. Mais cela se fait au détriment de la fraîcheur de l'information ou de sa hiérarchisation. La bonne idée est donc de lui trouver un support spécifique, à plus longue durée de vie, laissant plus de souplesse aux auteurs, de la même façon que certaines enquêtes journalistiques trouvent aujourd'hui mieux à s'épanouir dans l'édition que dans les journaux.

Il y a un peu de jalousie aussi à l'égard de Rue89, qui s'est payé le luxe d'être «low tech»: un simple formulaire demandant aux internautes de raconter comment ils ont vécu leurs séjours sous la terre, en écho à l'expérience des 33 mineurs chiliens bloqués à 700 mètres de profondeur depuis août; les résultats représentés par des «bulles» en fonction de la profondeur atteinte et du caractère traumatisant de l'expérience.

Du témoignage par «crowdsourcing» donc, qui continue de vivre après même le rendu de l'application, puisqu'il est toujours possible de laisser des récits sur le site. De cette façon, si l'événement se prolonge (les mineurs ne devraient pas remonter avant novembre), il est toujours possible de «remonter» de temps à autre l'outil et les résultats en page d'accueil.

L'élégance du procédé consiste à ne pas avoir recouru à une ingénierie informatique, mais sociale: la mobilisation d'une communauté, sur le site de Rue89, mais aussi recruté par Facebook ou Twitter.

Pour le reste, il faut faire preuve d'humilité: nos piètres 11 voix sur la cinquantaine de personnes présente au moment du vote montrent que notre proposition (à voir ici) n'a pas comblé le public.

 

Il faut sans doute relever quelques problèmes, oublis, regrets:

  • En France, la donnée n'est pas (encore) libre. Il n'y a pas, pour l'instant, de véritable mouvement «open data» comme cela existe dans les pays anglo-saxons (Etats-Unis, Grande-Bretagne, Australie...), bien qu'un projet comme Data Publica (une «place de marché des données publiques»), lancé le 16 septembre, puisse certainement combler ce vide et renverser l'habitude de donner les chiffres en annexe des rapports en PDF dans des formats inexploitables, si jamais ces sources étaient disponibles.
    Pour l'anecdote, lorsque j'ai cherché à connaître les sources chiffrées et les méthodes de calcul sur lesquelles le rapport Cardoso (lire ici) appuie ses conclusions, il m'a été répondu ceci: «Ces chiffres ont été établis par l'IGF dans son rapport intitulé "analyse de l'efficacité des aides à la presse". Ce rapport, remis en décembre 2009, a été communiqué à la mission Cardoso, pour nourrir ses conclusions. Il n'est pas public. (...) Le tableau a surtout vocation à montrer que l'aide publique peut couvrir une part très significative du coût à l'exemplaire.» Autrement dit, peu importe la démonstration, il suffit d'accepter la conclusion qui est proposée.
  • La presse préfère la donnée estampillée. L'onction d'une institution (inspection général, institut statistique) est censée faire la validité de l'interprétation et les rubricards qui rendent compte d'étude se contentent, lorsqu'il y a une contestation, d'opposer les versions – par exemple de dire: voici les chiffres de Pôle emploi et voici ceux des Autres chiffres du chômage. Il faut quand même noter l'effort de l'Insee qui propose, pour ses publications statistiques, l'accès aux séries longues en deux formats (Excel et Beyond 20/20). De la même façon, nous aurions dû proposer nos données à des formats exploitables: .csv, .xls voire .kml si nous avions géolocalisé les tweets, ou encore un flux de syndication type rss pour que le schéma continue d'évoluer seul.
    Le Web fonctionne plutôt dans une autre logique de légitimité ex-post: la validité des analyses n'est plus acquise par avance par une position sociale, un titre universitaire. Il faut démontrer ses compétences pour émerger de l'obscurité du fond du Web et c'est la lecture par les internautes, leur décision de lier et de faire circuler cette prise de parole, qui donne du poids à une lecture (on y reviendra avec une interview de Dominique Cardon).
  • 20% des données intéressent 80% du public. Il existe probablement une loi de Pareto pour expliquer qu'au-delà de quelques chiffres saillants et qui resteront en mémoire, l'intérêt d'aller chercher dans d'interminables listes de chiffres s'émousse rapidement. C'est vrai dans la vie réelle, comme c'est vrai sur le Web.
    Avec cette nuance, néanmoins, qu'une part de ces 20% peut être mobile: l'extensibilité (scalability) de la présentation des données permet à l'internaute d'appréhender à la fois l'ensemble et le particulier, les pics d'intérêt général et sa situation personnelle. Il faut donc imaginer des dispositif de zoom permettant de passer de l'un à l'autre.
  • Passer de l'article au processus d'information. La forme du concours (comme celle de la presse) fait qu'il y a le temps de l'événement (détermination des sujets), celui de l'élaboration et celui de la remise d'un «produit fini». On peut voir les choses autrement: l'actualité est continue (il n'y a pas de chômage que le jour où les données sont publiées) et la lecture pas ponctuelle (on fréquente un média). A partir de là, on peut envisager d'entrer dans un démarche étalée dans le temps et progressive, publique et éventuellement participative.
    Publier le document dès qu'il est disponible sans craindre de se faire «griller» par la concurrence; libérer les données pour permettre leur manipulation par le public; ouvrir la conversation pour élaborer une lecture, discuter, trouver les limites, obtenir des sources à croiser – pas pour répondre à une injonction de transparence, mais pour se laisser traverser par des lectures alternatives; proposer une «visualisation» et une analyse de l'information; mais laisser le débat se poursuivre.
    C'est-à-dire inventer une forme de publication qui rassemble d'un côté les sources brutes et les outils; à l'opposé la discussion; et au milieu des lectures possibles: une infographie, une application, une analyse écrite, une contextualisation, etc. Surtout, permettre à la discussion de s'exporter dans d'autres milieux (par un module «embed») en rapatriant les éventuelles contributions (avec des outils type Backtype).

 

Dommage, car je persiste à penser qu'en allant chercher sur deux événements (Fillon et Dati) un corpus inédit et quasi exhaustif de données (10.000 comptes Twitter, 20 sites Web d'information), en les croisant et en en proposant une lecture analytique, ce projet était le plus fidèle à l'idée, défendue au cours de la journée, d'un journalisme de données qui responsabilise le lecteur en lui donnant l'accès aux sources brutes, en lui permettant de jouer avec les données sans la médiation d'un expert, en proposant un croisement pertinent pour en tirer des conclusions originales ou au moins fondées sur des statistiques précises, et qui s'émancipe de l'infographie démonstrative et de la simple jolie mise en scène animée d'une information.

Les discussions d'après scrutin donnent une idée des réticences. «Pas glam», le nuage de points. «Des données bonnes pour des scientifiques, pas pour le public.» A l'opposé donc d'une utopie de «capacitation» (empowerment) du lecteur que permettrait le datajournalisme. «Ce qui change par rapport au passé, c’est que les journalistes se sont rendu compte qu’ils ne disposent pas de la vérité absolue, surtout en matière de données», plaidait pourtant dans l'après-midi Simon Rogers (Guardian Datablog).

Journalism in the Age of Data from geoff mcghee on Vimeo.50 minutes sur le datajournalisme prodiguées par l'université Stanford.

PS. Le jour même de la compétition, l'université Stanford a publié un long reportage vidéo de Geoff McGhee qui rebondit justement sur ces interrogations: «Les journalistes sont confrontés à l'afflux croissant de données et de techniques de visualisation empruntées aux informaticiens, aux chercheurs, aux artistes. Certaines rédactions ont déjà commencé à réorganiser leur hiérarchie pour se préparer à un avenir dans lequel les données deviendront un mode de traitement de l'information. Mais comment peut-on communiquer avec les données? Comment les modes de narration classiques peuvent-ils se combiner avec des représentations sophistiquées et interactives?» Quelques éléments de réponse donnés par Martin Wattenberg et Fernanda Viègas, Ben Fry (Fathom), Jeffrey Heer (Stanford), Steve Duenes, Matt Ericson et Amanda Cox (New York Times), Nicholas Felton (Feltron Report), Eric Rodenbeck (Stamen Design), Aaron Koblin, Jonathan Jarvis...

 

Lire aussi:

Tous les commentaires

30/09/2010, 01:27 | Par Vincent Truffy

Bonus: il y a un «œuf de Pâques» caché entre le premier et le deuxième paragraphe. Saurez-vous le retrouver?

(Un indice: les flèches pour avancer, la barre d'espace pour tirer)

30/09/2010, 12:13 | Par Jimwy

Excellent :)

30/09/2010, 13:17 | Par Chris43

Tout ce buzz me met mal à l'aise.

Cette abondance de données brutes aboutit à privilégier l'information au détriment de la réflexion (le temps disponible n'est pas élastique).

C'est assez semblable à ce qui se passe dans le management: la quantité de données disponibles pour une prise de décision ne rend pas la décision ni plus fiable, ni plus rapide. Le bon manageur sera toujours celui qui intégrera un minimum de données aboutissant à une prise de décision rapide (hémisphère droit).

30/09/2010, 15:03 | Par Vincent Truffy en réponse au commentaire de Chris43 le 30/09/2010 à 13:17

C'est curieux d'opposer information et réflexion – il ne peut pas y avoir de réflexion qui ne s'appuie sur une information préalable – mais je crois comprendre ce que vous voulez dire: trop d'informations paralyse l'action (parce qu'on ne peut pas tout prendre en compte) comme la modélisation (car le particulier ne permet pas le système).

Admettons donc qu'il faut s'en tenir à un petit nombre de données utiles. Qui les sélectionne? Selon quels critères? Cette fonction de tri est traditionnellement assuré par des «corps intermédiaires», personnes relais, passeurs, experts. Mais à mesure que les compétences se diffusent dans la population, on peut envisager des chemins plus directs et une discussion plus large sur les données et les décisions qui sont prises avec l'autorité de ces chiffres (toujours préjugés indiscutables).

30/09/2010, 17:10 | Par Chris43 en réponse au commentaire de Vincent Truffy le 30/09/2010 à 15:03

Votre réponse me fait prendre conscience que je m'étais placé dans la position du "end user" et non pas dans celle qui est la vôtre: le journaliste.

Ce qui rend votre commentaire tout à fait justifié.

 

Newsletter