mot de passe oublié
1 euro 15 jours

Construisez avec nous l'indépendance de Mediapart

Accédez à l'intégralité du site en illimité, sur ordinateur, tablette et mobile à partir d'1€.

Je m'abonne
Le Club de Mediapart ven. 30 sept. 2016 30/9/2016 Édition de la mi-journée

« Internet est un formidable terrain d’expérimentation pour le journalisme »

Quatre questions à Sylvain Parasie, sociologue, maître de conférences à l’Université Paris-Est / Marne-la-Vallée.

Quatre questions à Sylvain Parasie, sociologue, maître de conférences à l’Université Paris-Est / Marne-la-Vallée.

 

 

Sylvain Parasie est sociologue, maître de conférences à l’Université Paris-Est / Marne-la-Vallée et chercheur au laboratoire techniques, territoires et sociétés (LATTS).  Il est l’auteur de Et maintenant, une page de pub (INA Editions, 2010) ainsi que de nombreux articles sur l’impact des nouvelles technologies dans le monde des médias et de la communication. Tout au long de la campagne électorale, il consacre un blog aux nouveaux dispositifs journalistiques sur le site SiliconManiacs.

 

 

Dans ce contexte d’intenses métamorphoses des mondes de l’information, quelles sont les principales innovations que tu as pu observer dans le traitement journalistique de cette campagne présidentielle ?

 

Au cœur de la campagne, il est difficile d’identifier parmi les innovations actuelles celles qui joueront un rôle vraiment important. Le référendum pour le Traité constitutionnel européen, en 2005, a été la première campagne électorale française dans laquelle internet a joué un rôle important à travers la myriade de sites et blogs indépendants mettant en discussion le traité[1]. Lors de l’élection présidentielle de 2007, l’innovation a surtout été associée à la circulation de vidéos politiques sur les plateformes de partage et à l’essor de l’offre journalistique sur le web. Par la suite, l’apparition de plusieurs sites journalistiques indépendants (dont Rue89 et Mediapart), s’appuyant plus ou moins sur la participation des internautes, a modifié le paysage de l’information en ligne.

Le fait marquant de cette campagne est que les équipes des candidats et les militants ont désormais intégré Internet à leurs pratiques, et tout particulièrement les réseaux sociaux. Par exemple, la « controverse Guéant » dont la plupart des médias rendent compte depuis quelques jours est initialement apparue sur Twitter, suscitant les réactions des responsables politiques avant même que les agences d’information ou les médias ne s’emparent du sujet. Cela modifie le travail des journalistes, qui doivent vérifier et expliquer, tout en évitant d’être instrumentalisés par les équipes de campagne.

Je vois aujourd’hui plusieurs innovations dans le paysage journalistique à l’occasion de la campagne. Premièrement, plusieurs sites d’information proposent aux internautes de prendre la parole dans des débats orchestrés par des journalistes. Le fait que les internautes trouvent des espaces en ligne pour s’exprimer n’est pas nouveau, mais les journalistes se mobilisent aujourd’hui davantage, à l’image du site Newsring.fr, pour éclairer et mettre en perspective ces débats. Deuxièmement, un effort plus important est consacré par les médias, qu’ils soient ou non en ligne, à la vérification des propos des candidats. Dans la mouvance du « fact checking », ces pratiques peuvent contribuer à contrer les stratégies de communication des candidats. Troisièmement, on voit apparaître plusieurs initiatives journalistiques qui s’inscrivent dans le courant du journalisme de données. À l’image du site Owni.fr, quelques sites proposent ainsi des contributions éclairantes au débat à partir du traitement et de la visualisation de données. On peut penser que ces pratiques émergentes peuvent jouer un rôle d’autant plus grand que les chiffres, notamment économiques, compteront beaucoup dans la campagne.

Mais ces innovations ne joueront un rôle majeur dans la campagne que si les médias dominants, à commencer par la télévision, s’en font les relais. Internet est aujourd’hui plus important qu’il y a cinq ans dans les pratiques d’information, mais les médias classiques conservent une place majeure. Une enquête récente[2] montre qu’Internet est la troisième source d’information, derrière la télévision et la radio. Il est la source principale d’information pour 12 % des Français, et la seconde source d’information pour 17 % d’entre eux.

 

 

D’après toi, comment interpréter ces innovations ? Résultent-elles avant tout des potentialités techniques offertes par le basculement des médias sur le web ?

 

Depuis le milieu des années 1990, Internet est un formidable terrain d’expérimentation pour le journalisme. Il a ouvert l’éventail des possibles : en rendant possible l’émergence de nouveaux formats d’information (les webdocumentaires, le journalisme de données, etc.) ; en élargissant la prise de parole à des non-journalistes (le journalisme participatif) ; en testant de nouvelles relations avec les sources d’information (Wikileaks) ; en explorant de nouvelles relations avec le public et les territoires traditionnels de la presse (presse hyperlocale). À tel point qu’aujourd’hui, il est difficile d’être univoque lorsqu’on parle de « journalisme en ligne » : il peut s’agir d’un journalisme d’investigation (qui exige un important travail d’enquête auprès des sources), d’un journalisme de dépêche (qui suit l’actualité la plus brûlante), d’un journalisme qui consiste à adapter les contenus d’un autre média, ou encore d’un journalisme qui vise avant tout à animer une communauté d’internautes, etc. On serait aujourd’hui bien en peine de pouvoir définir simplement ce qu’est le journalisme sur le web !

Plusieurs phénomènes ont toutefois limité l’exploration des possibles. Tout d’abord, l’innovation a majoritairement été conduite en dehors des organisations de presse traditionnelles. Non seulement celles-ci connaissaient déjà des difficultés financières (surtout la presse quotidienne), mais leur organisation n’était pas toujours propice aux expérimentations. C’est donc au sein de structures relativement modestes que les journalistes ont innové tout en recherchant de nouveaux modèles d’affaires. Les structures du marché de la publicité sur le web, et notamment l’importance prise par les mesures d’audience[3], ont souvent obligé ces rédactions à rechercher le plus rapidement possible à s’attacher un nombre important de « visiteurs uniques ». D’où l’accroissement des pratiques de  « marketing éditorial », qui consistent notamment à anticiper les contraintes du référencement sur Google au moment de la conception des articles. Dans le même temps, une grande partie des journalistes ont été contraints d’accroître leur production. Le sociologue Pablo Boczkowski explique ainsi que la norme de publication tout au long de la journée, qui est très répandue depuis le début des années 2000, est due au fait que les internautes consultent majoritairement l’information au boulot, et qu’ils apprécient de ce fait une information courte et fréquemment mise à jour[4]. Enfin, l'usage d'Internet par les organisations de presses exigeaient des compétences nouvelles dont celles-ci n'était pas nécessairement dotées.

 

 

Parmi ces innovations, il y en a une qui retient aujourd’hui particulièrement l’attention : le développement du fact checking, c’est-à-dire la vérification des arguments du personnel politique et notamment des arguments chiffrés. Comment expliquer l’apparition de ces nouveaux formats journalistiques ? Y a-t-il importation de pratiques anciennes dans le journalisme anglo-saxon ? Ou bien s’agit-il d’une réponse à l’usage croissant des données statistiques par les acteurs politiques ?

 

Cette pratique vient des Etats-Unis, où elle apparaît dès les années 1990. Mais c’est surtout à l’occasion des présidentielles américaines de 2008 que le fact-checking s’est popularisé, notamment via les sites Politifact.com ou Factcheck.org. À partir d’un important travail d’enquête, cela consiste à vérifier systématiquement les propos des responsables ou candidats politiques de manière à faire apparaître les mensonges et les omissions. En France, Libération lance la rubrique « désintox » en 2008, suivi par Lemonde.fr qui lance le blog des « décodeurs » fin 2009.

Cette pratique peut prendre différentes formes, mais elle repose fondamentalement sur l’idée que le journaliste doit vérifier les propos des responsables politiques de façon à contrer leurs stratégies de communication. Cette démarche journalistique consistant à valoriser les faits est assez ancienne. Le sociologue Michael Schudson montre que dès les années 1920, les journalistes américains ont voulu prendre leurs distances avec les spécialistes de relations publiques qui cherchaient à placer des articles faisant la promotion du gouvernement ou des grandes entreprises[5]. La recherche de faits objectifs apparaissait alors comme un moyen pour la profession de gagner en autonomie et en prestige. La démarche actuelle qui sous-tend le fact-checking est assez similaire : les journalistes voient dans cette pratique un moyen de renforcer leur autorité, dans un contexte où ils sont l’objet d’une certaine suspicion dans l’opinion.

Comme le suggère le sociologue Jean-Marie Charon, l’apparition de petites cellules de fact-checking est aussi à rapprocher de la diminution de taille des rédactions depuis plusieurs années. Comme il existe moins de journalistes spécialisés dans la presse quotidienne, les journaux se sont trouvés plus désarmés face aux responsables politiques, dont les forces de communication augmentaient dans le même temps.

Incontestablement, ces pratiques peuvent apporter beaucoup à la campagne présidentielle. Surtout dès lors que la question du chiffrage des budgets de chaque candidat promet d’être cruciale.

 

 

Tu as récemment travaillé sur l’émergence, aux Etats-Unis et en France, du data journalism. Peux-tu nous préciser de quoi il s’agit et nous dire si ces nouveaux dispositifs d’enquête sont susceptibles de jouer un rôle dans la campagne ?

 

Le data journalism désigne un ensemble de pratiques journalistiques qui reposent sur le traitement informatique de données[6] – il peut s’agir de chiffres, de textes ou d’images. Cette pratique puise ses origines aux Etats-Unis dans les années 1960 avec les premières utilisations de l’informatique dans la presse. À la fin des années 1980, un journaliste américain analysait ainsi des bases de données bancaires pour montrer que les personnes noires étaient systématiquement discriminées lorsqu’elles demandaient un prêt à leur banque. Ce type de journalisme a connu un nouveau développement au milieu des années 2000 aux Etats-Unis : les pouvoirs publics ont donné plus largement accès à une quantité de données publiques – concernant aussi bien les crimes que les services de santé, les dépenses publiques, etc. – qui ont constitué autant de nouvelles matières premières pour la presse. Souvent effectué par des journalistes qui viennent des mondes informatiques, cette forme de journalisme n’innove pas seulement par ses aspects techniques : elle prétend accroître la responsabilité des gouvernants en rendant visible leurs activités et les résultats de leurs actions. Elle vise aussi à offrir à l’internaute des visualisations qui lui permettent de comprendre plus rapidement des réalités complexes.

Même s’il est aujourd’hui beaucoup plus répandu dans les rédactions américaines et britanniques, le data journalism donne lieu à des expérimentations intéressantes en France. Le site Owni.fr est une référence dans ce domaine, et plusieurs expériences actuelles de collaboration entre journalistes et programmeurs pourraient utilement venir contribuer aux débats de la campagne présidentielle.

 

 

Propos recueillis par Nicolas Kaciaf

 

[1] Guilhem Fouetillou, « Le web et le traité constitutionnel européen. Ecologie d’une localité thématique compétitive », Réseaux, n°144, 2007.

[2]Viviane Le Hay et al., « Usages des médias et politique : une écologie des pratiques informationnelles », Réseaux, n°170, 2011.

[3] Allan Ouakrat et al., « Les régies publicitaires de la presse en ligne », Réseaux, n°160-161, 2009.

[4] Pablo Boczkowski, News at work. Imitation in an age of information abundance, Chicago, University of Chicago Press, 2010.

[5] Michael Schudson, « The objectivity norm in American journalism », Journalism, vol.2, n°2, 2001.

[6] Sylvain Parasie, « Le journalisme hacker : une nouvelle utopie pour la presse ? », La Vie des Idées, 21 juin 2011.

 

Le Club est l'espace de libre expression des abonnés de Mediapart. Ses contenus n'engagent pas la rédaction.

Tous les commentaires

Je vois pour ma part un double mouvement :

1) vers le divertissement, l'abrutissement (cf la video de la soirée "Mediapart" où pour pouvoir tenir l'audience deux heures il a fallu une animation video de dix minutes et l'intervention de comiques professionnels). Il parait qu'internet modifierait notre cerveau en diminuant nos capacités de concentration. J'ai été assez marqué par le reportage d'"arrêts sur image" sur Alain Duhamel le montrant s'informant sans jamais utiliser lui-même internet ou presque.

2) vers l'accès immédiat et concurrent à de très nombreuses sources grâce aux agrégateurs de type Google et aux commentaires des lecteurs : auparavant on ne pouvait savoir à coup sûr qu'un journaliste débitait des âneries que si il parlait d'un sujet qu'on connaissait personnellement ou si on avait la possibilité d'acheter l'accès à plusieurs sources (de préférence de pays différents). Maintenant on va plus vite que les journalistes, qui eux ont une préoccupation commerciale et plus généralement de plaire à leurs patrons qui les brident.

 

A chaque fois qu'il y a une innovation technologique les patrons et investisseurs s'extasient. Avec un cheptel inégalé de journalistes prêts à travailler quasi-gratuitement et l'éradication des ouvriers du Livre les patrons ont de quoi se réjouir. Et en ayant accès aux mêmes sources que les journalistes sans avoir à subir la censure ou l'auto-censure vécue par ces derniers, les lecteurs aussi.

Construisez l'indépendance de Mediapart

onze euros par mois

Souscrivez à notre offre d'abonnement à 11€/mois et téléchargez notre application mobile.
Je m'abonne

L'édition

suivi par 30 abonnés

Sociologie politique des élections

À propos de l'édition

SPEL (« Sociologie Politique des ELections ») réunit une cinquantaine d’enseignants-chercheurs en science politique autour des élections de 2012. Le but de cette

édition est de présenter des enquêtes (Terrains de campagne), de partager des hypothèses et des questionnements (Analyses), de présenter et rappeler les acquis des travaux de sociologie politique sur ce que sont les campagnes électorales (Que savoir).
SPEL entend ici faire du savoir scientifique un bien public accessible et contribuer à l'analyse critique de la politique. Lire plus.

Dans le club