Comment vivre avec les deepfakes ? Questions de droit

Comment vivre avec les deepfakes ? Les tentatives de régulation de l’usage des médias synthétiques politiques et des deep-porns dominent pour le moment. Pourtant les questions ne concernent pas uniquement les atteintes à la démocratie ou aux victimes de sextorsion et demandent une réflexion juridique sur les futures questions légales que soulèvent les médias synthétiques.

solutions-pour-vivre-avec-deepfakes
Depuis leur apparition publique fin 2017, le discours qui s’articule dans la sphère publique à propos des deepfakes suit invariablement deux tendances. La première prend la forme d’un catastrophisme aigu et concerne l’effet des médias synthétiques sur la démocratie. L’alerte est sonnée. Les deepfakes, véritable marqueur de l’ère de post-vérité dans laquelle nous nous trouvons 1 accentuerait la dégradation de la confiance globale dans nos institutions démocratiques et la sécurité des personnes. Deux mots clefs sont à retenir, infocalpyse et deep-pornographie. 

La seconde prend la forme d’une chronique candide des efforts menés par différents acteurs du monde technologique pour développer puis commercialiser des solutions de détection des médias manipulés par algorithmes 2. Une vision du monde très binaire en découle où d’un côté les méchants, les créateurs et les diffuseurs de deepfakes malintentionnés, aiguisent leurs algorithmes pour faire la peau à la société et les gentils, fières entreprises de la Tech, se démènent pour débusquer les méchants et empêcher ainsi que l’innocente société ne soit victime de leurs agissements. Conformément au storytelling américain, tout se déroule dans le champ des affaires privées, l’état fédéral n’intervenant que pour s’assurer du bon financement des opérations ou des coups de tampon administratifs.

Peu de place semble fait à la nuance. Les législateurs, comme beaucoup de technologistes ou d’observateurs, agitent frénétiquement leur muleta et alimentent un sentiment de panique assez peu conforme avec la réalité de la menace immédiate.

À ce jour, les manifestations les plus évidentes du pouvoir de nuisance des médias synthétiques restent cantonnées à quelques faits divers et quelques allégations d’usage de deepfakes frauduleux. Au niveau politique, le Gabon, la Russie et certains partenaires européens ont été victimes de vrai-faux deepfakes 3. Certaines entreprises ont prétendu avoir été victime d’extorsions réalisées à l’aide de médias synthétiques vocaux, mais sans jamais fournir d’éléments solides à l’appui de ces déclarations 4. Côté victimes, les plus spectaculaires comme cette mère de famille américaine injustement accusée 5 ou le pathétique alibi de Dieudonné en France a relégué au second plan les plaintes de véritables victimes de sextorsion 6. Cependant, à l’avenir, le pouvoir transformateur des médias synthétiques va sans aucun doute nous forcer à reconsidérer nos réalités sociales, numériques, juridiques et techniques au point de transformer profondément les sociétés dans lesquelles nous vivons.

Peut-être pouvons-nous questionner les limites de l’espace dans lequel vont se développer les deepfakes. Peut-être est-il même possible d’anticiper un certain nombre de problèmes en réfléchissant collectivement sur le développement des médias synthétiques dans nos sociétés numérisées.

Des lois existent déjà pour agir sur les deepfakes

L’approche du législateur à l’égard des médias synthétiques dans les pays occidentaux consiste à prévenir, dans l’urgence du déroulement des campagnes électorales importantes, les effets potentiellement dévastateurs des deepfakes. Ce fut le cas aux États-Unis à quelques mois de l’élection présidentielle de 2020 où quelques états ont mis en place une législation interdisant la diffusion de deepfakes dans les mois précedent un scrutin clef, mais aussi en Australie, Nouvelle-Zélande ou en Angleterre. Souvent, ce package législatif était accompagné d’un volet sur la protection des victimes de deep-porns 7.

Pourtant un certain nombre de textes, au niveau national ou fédéral (en fonction des pays concernés) comme au niveau supranational encadrent d’ores et déjà différents aspects de la vie d’un deepfake malintentionné. En France particulièrement, on trouve des textes régissant le droit des personnes, notamment ce qui concerne le respect de la vie privée 8 et le droit à l’image 9, mais aussi les textes protégeant les personnes contre la diffamation 10 et l’usurpation d’identité 11. Plus récemment, la loi anti-fake news 12 promulguée en 2018 vise précisément à contrer le développement des infox en contexte électoral en renforçant l’article 4 de la loi sur la presse du 27 juillet 1849 13 qui établissait que « la publication ou reproduction, faite de mauvaise foi, de nouvelles fausses, de pièces fabriquées, falsifiées ou mensongèrement attribuées à des tiers, lorsque ces nouvelles ou pièces seront de nature à troubler la paix publique, sera punie d’un emprisonnement d’un mois à un an, et d’une amende de cinquante francs à mille francs ». Une loi relativement difficile à appliquer 14 puisqu’elle s’appliquera aux fausses informations « manifestement » illicites, laissant place aux interprétations du juge. 

Le droit pénal envisage également l’extorsion 15et puni sévèrement le fait « d’obtenir par la contrainte, soit une signature, un engagement ou une renonciation, soit la révélation d’un secret, soit la remise de fonds, de valeurs ou d’un bien quelconque ». Enfin il faut noter que le Règlement général sur la protection des données (RGPD) protège les données 16 que constitue une image ou un son si cette image ou ce son peuvent être rattachés à un nom, et donc à ce titre, protège l’image et les voix des personnes en cas d’utilisation non consenties.

La justice dispose donc des moyens techniques dans les textes existants de qualifier une infraction et de condamner un auteur de deepfake malintentionné. La police en revanche reste encore relativement mal équipée pour retrouver sur internet les auteurs de cybercrimes malgré de net progrès 17. Malgré une amélioration certaine des moyens et des effectifs policiers, traduire en justice un auteur peut s’avérer très compliqué, voire dans certains cas impossible, ce qui rend toute nouvelle législation au mieux peu efficace, au pire inopérant.

Les effets d’opportunisme politique ne sont pas non plus à négliger, puisqu’on a vu fleurir ici ou là un certain nombre de déclarations visant davantage à capitaliser des points de crédibilité politique qu’à véritablement mener une action de concertation capable de déboucher sur un texte efficace. 18

L’usage des doubles synthétiques

La vision court-termiste de parlementaires chargés de légiférer sur ces sujets et leur manque de compréhension de ces matières ne permettent pas de dépasser les problématiques compassées pour envisager les enjeux à venir.

La première des questions, me semble-t-il, est de déterminer quel est le statut juridique des doubles synthétiques et plus précisément de cette « ressemblance », de cette « essence » ou de l’« âme » 19 qui est au cœur de la problématique des deepfakes.

En effet, doit-on considérer les doubles synthétiques comme une simple reproduction haute définition de la personne physique ou peut-on les envisager comme le prolongement de l’identité dans la sphère numérique ? Doit-on voir dans cette réplique, un avatar virtuel auquel on attacherait des droits proches de ceux attachés à l’original ? La question très actuelle de l’identité numérique et de son statut juridique, par ailleurs introduite dès 2010 dans le débat public à l’apogée de Second Life 20 donne aux juristes l’occasion de se pencher sur le lien entre médias synthétiques et identité. Les usages numériques en pleine évolution permettent, en extrapolant à peine, d’entrevoir la façon dont l’espace numérique sera au même titre que l’espace tangible, un lieu clef dans nos vies futures. Il n’est donc pas inutile d’envisager d’ores et déjà les conséquences juridiques de la prolifération des doubles synthétiques dans cet espace numérique et les interactions qu’il pourrait y avoir entre eux. Comment s’assurer de l’identité d’une personne si son double synthétique ne lui ressemble pas ? Doit-on forcer l’usage d’un double synthétique réaliste pour les transactions ou les représentations officielles ?

Par ailleurs, quelle pourrait-être la relation entre une personne et son double synthétique, l’un pourrait-il mourir et l’autre lui survivre et avoir une activité économique, sociale ou culturelle par exemple ? 21 Ce double numérique peut-il être cessible à un tiers ou reste-t-il attaché à la personne ? Ne peut-on pas même considérer qu’un double synthétique, à partir du moment où il a été originellement imaginé et conçu par son créateur (même s’il ne lui ressemble pas en tous points) constitue une projection du moi numérique et qu’ainsi il reste attaché à la personnalité de celui qui l’incarne ? Si un média synthétique dégrade l’e-réputation d’une personne, quels recours seront possibles pour réparer ou améliorer la crédibilité perdue ? Les questions se multiplient.

Les conditions de la création des médias synthétiques

La multiplication de nos représentations sur les réseaux sociaux peut désormais former une base de données suffisante pour fabriquer avec ou sans notre consentement un double synthétique. Il suffit pour s’en convaincre de naviguer sur les sub-Reddit dédiés à la création de deepfakes ou sur les forums de Mr Deepfake, un des nombreux sites de deep-porns où la communauté se retrouve pour échanger sur la création de deepfakes 22.

Dans le registre du divertissement ou de la pure création de contenu, quid de la propriété intellectuelle des deepfakes réalisés avec des contenus existants ? Le média synthétique généré par un algorithme est-il une œuvre originale ou une synthèse de plusieurs sous-produits  dont il faut reconnaitre les droits ? La base de données d’entrainement des algorithmes fait-elle objet de référence pour déterminer de combien de pour cent se compose le deepfake final ?

Si un acteur ou une actrice apparait dans un deepfake, est-il éligible à recevoir dommages et intérêts au titre de l’utilisation de son image ? Doit-on distinguer le préjudice subit par une personne anonyme qui voit son corps ou son visage, ou sa voix être utilisé sans son consentement de la personne connue, qui exerce une profession publique (acteur, chanteuse, politique) ou qui en tire des bénéfices substantiels ? Il y a-t-il facteur aggravant ? Si un acteur professionnel décide d’être numérisé afin de conserver numériquement une copie de son apparence, qui dispose des droits sur cette numérisation ?

La personne a-t-il un droit inaliénable au contrôle de son apparence, de sa ressemblance ou doit-elle céder des droits d’exploitation aux entreprises de numérisation pour qu’elles puissent intégrer cette copie synthétique à un catalogue d’avatars commercialement exploitable ? Quid de l’évolution dans le temps de ces droits ? Doit-on envisager un délai pendant lequel l’avatar ne peut-être exploitée que par la personne dont la copie synthétique a été réalisée ? Dans le cadre de la création de deepfakes originaux, quels sont les droits à céder ? Pour combien de temps ? Dans le cadre de la propagation de deepfakes non consentis, condamne-t-on la fabrication, la distribution, les deux ? Quid de la sécurité des données, du stockage et de leur conservation sur le temps long ? Fait-on face à une obligation de maintien des supports numériques contenant la copie numérique de l’apparence d’un individu ? etc.

Le travail des juristes ne fait que commencer. Nombre de textes existants peuvent d’ores et déjà prémunir la société des effets indésirables les plus évidents que pourraient causer les médias synthétiques. Il s’agit dès lors de ne pas aborder la question simplement de façon négative, mais d’envisager également les applications positives des médias synthétiques. Une réponse législative équilibrée favorisant les dispositifs permettant le développement des deepfakes bienveillants et utiles d’une part, et d’autre part renforçant les outils coercitifs à l’encontre des productions mal intentionnées, semble nécessaire pour assainir l’espace numérique de demain.

Il est certain que les approches doctrinales seront très variées et que les États-Unis joueront un grand rôle dans la mise en place de normes internationales. Mais l’Europe a certainement un mot à dire dans l’élaboration de ces règles normatives, ne serait-ce que pour éviter l’établissement d’une nouvelle hégémonie autour des questions numériques.

Dans une seconde partie, nous nous poserons la question des solutions techniques à envisager pour vivre avec les deepfakes. En attendant, n’hésitez pas à partager ce post s’il vous a plu.

Cet article a été publié pour la première fois sur deepfake.media

Références


1. La post-vérité est-elle un nouveau phénomène, si le terme date des années 1990, il désigne probablement quelque chose de plus ancien ? Je vous renvoie à l’écoute de « L’ère de la post-vérité ? » par Anastasia Colosimo sur France Culture pour en apprendre plus.

2. La « C2PA » ou Coalition for Content Provenance and Authenticity réunit Adobe, Arm, Intel, Microsoft et Truepic au travers de deux autres regroupements. « Project Origin » regroupe BBC, CBC/Radio-Canada, The New York Times et Microsoft. « The Content Authenticity Initiative » compte Adobe, l’AFP, ARM, la BBC, Camera Bits, CBC, Gannett, Getty Images, Microsoft, le New York Times, Qualcomm, Synthesia, Truepic, Twitter, USA Today, l’agence photo VII, le Washington Post et enfin l’ONG Witness.org

3. Leonid Volkov a-t-il été victime d’un deepfake ?, journalism.design, 2021

4. La crédibilité de ces allégations reste assez faible et pour cause: 1. à l’époque des faits (2019) les deepfakes vocaux sont encore rares et très chers à produire. 2. Même avec une voix synthétique parfaite, le dispositif permettant de conduire une conversation longue et improvisée n’existe pas encore. 3. Pourquoi réaliser un deepfake quand un imitateur suffit ? 4. Aucune preuve n’a jamais été publiquement avancée. Fake voices “help cyber-crooks steal cash,” BBC, 8 juillet 2019

5. Faits divers et deepfakes, journalism. design, 2021

6. Nth Room : des deepfakes comme arme d’exploitation sexuelle, journalism. design, 2020

7. Deepfakes laws and proposals flood US, Malwarebytes Lab, 2020

8. En France, l’article 9 du Code civil9Code civil : articles 7 à 16-14, respect de la vie privée (article 9) | Code pénal : articles 226-1 à 226-7 atteinte à la vie privée | Code pénal : articles 226-8 à 226-9, atteinte à la représentation de la personne et la procédure de référé pour faire cesser le trouble manifeste Code de procédure civile : articles 484 à 492-1

10. La loi du 29 juillet 1881 sur la liberté de la presse : article 32 établit les peines encourues en cas de diffamation publique. La loi du 29 juillet 1881 sur la liberté de la presse : article 33 établit la peine encourue en cas d’injure publique. En cas de diffamation non publique, c’est l’article R625-8 du Code pénal qui donne les peines encourues en cas de diffamation non publique et l’article R621-2 du Code pénal qui indique les peines encourues en cas d’injure non publique.

11. En France, l’article 226-4-1 du Code pénal réprime le délit d’usurpation d’identité en sanctionnant d’un an de prison et de 15 000 euros d’amende : « Le fait d’usurper l’identité d’un tiers ou de faire usage d’une ou plusieurs données de toute nature permettant de l’identifier en vue de troubler sa tranquillité ou celle d’autrui, ou de porter atteinte à son honneur ou à sa considération ». L’adoption de la Loi no 2002-1094 du 29 août 2002 d’orientation et de programmation pour la performance de la sécurité intérieure, dite LOPSI, dont la dernière réforme a été opérée par la loi no 2011-267 du 14 mars 2011 d’orientation et de programmation pour la performance de la sécurité intérieure, aboutissant à LOPSI 2. Cette dernière évolution, insérée dans le Code pénal à l’article 226-4-1, sanctionne l’usurpation d’identité sur internet

12. LOI n° 2018-1202 du 22 décembre 2018 relative à la lutte contre la manipulation de l’information

13. Délits commis par la voie de la presse ou par toute autre voie de publication, Gallica (BNF), 27 juillet 1849.

14. Validée par le Conseil constitutionnel, la loi « Fake news » s’annonce délicate à appliquer, Nextimpact, décembre 2018

15. Code pénal : De l’extorsion (Articles 312-1 à 312-9)

16. Droit à l’image et données personnelles : des deux faces de la médaille, Adrien Aulas, Aeon 2018

17. Berthelet Pierre, « Aperçus de la lutte contre la cybercriminalité dans l’Union européenne », Revue de science criminelle et de droit pénal comparé, 2018/1 (N° 1), p. 59-74. DOI: 10,391 7/rsc.1801.0059. URL : https://www.cairn.info/revue-de-science-criminelle-et-de-droit-penal-compare-2018-1-page-59.htm

18. Olivia Grégoire a-t-elle raison de craindre que les deepfakes influencent les présidentielles en 2022 ? journalism. design, 2021

19. En anglais on parle de « Likeness », un terme qui montre la similitude entre deux choses. On dit souvent « It’s alike », c’est identique. Mais « Likeness » apporte une dimension supplémentaire, il ne s’agit pas simplement d’une ressemblance physique, mais bien de l’ensemble des traits qui compose une personne. Façon de bouger, ton de la voix, gestuelle, expressions, micromouvement faciaux, bref, les critères qui nous rendent uniques. Dans Faegre & Benson, LLP v. Purday, 367 F. Supp. 2 d 1238 (D. Minn. 2005), la cour du Minnesota définit le terme de la façon suivante : Le terme « ressemblance » désigne une image visuelle du plaignant, qu’il s’agisse d’une photographie, d’un dessin, d’une caricature ou de toute autre présentation visuelle. Il n’est pas nécessaire que l’image visuelle reproduise précisément l’apparence du plaignant, ni même qu’elle montre son visage, tant qu’elle suffit à évoquer l’identité du plaignant aux yeux du public.

20. Le droit des avatars, un droit en marche ? Iteanu Olivier, Battisti Michèle, Manara Cédric, « Droit de l’information », Documentaliste-Sciences de l’Information, 2010/1 (Vol. 47), p. 22-27. DOI: 10,391 7/docsi.471.0022. URL : https://www.cairn.info/revue-documentaliste-sciences-de-l-information-2010-1-page-22.htm

21. Dans ce cadre la loi votée le 30 novembre 2020 par Andrew Cuomo, gouverneur de l’état de New York, entérine qu’un double synthétique puisse avoir une vie autonome après le décès de la personne sur lequel il est basé, du moment que celle-ci est consentie. New York’s Right to Publicity and Deepfakes Law Breaks New Ground, Matthew F. Ferraro, Louis W. Tompros, December 2020

22. ⚠️ RISQUE DE CONTENUS PORNOGRAPHIQUE ⚠️ How to create artificial faces to use as deepfakes, Forum de MrDeepfake

Le Club est l'espace de libre expression des abonnés de Mediapart. Ses contenus n'engagent pas la rédaction.