gilles.sainati (avatar)

gilles.sainati

juriste ayant pour devise Liberté, Egalité, Fraternité,

Abonné·e de Mediapart

140 Billets

1 Éditions

Billet de blog 7 février 2024

gilles.sainati (avatar)

gilles.sainati

juriste ayant pour devise Liberté, Egalité, Fraternité,

Abonné·e de Mediapart

L'acte juridictionnel sous le feu des IA

L'arrivée des IA génératives adossée à l'Open Data va révolutionner les pratiques juridictionnelles et professionnelles des acteurs de justice. Le texte de cette intervention a été présentée lors deux colloques d'experts judiciaires en novembre 2023 et janvier 2024.

gilles.sainati (avatar)

gilles.sainati

juriste ayant pour devise Liberté, Egalité, Fraternité,

Abonné·e de Mediapart

Ce blog est personnel, la rédaction n’est pas à l’origine de ses contenus.

L’acte juridictionnel sous le feu des IA

Bonjour,

Avant de commencer cette petite intervention, je tiens à remercier la compagnie des experts de Montpellier, qui me permet d’intervenir sur ce thème. Alors que je m’approche d’une fin de carrière, cette intervention est un peu un retour aux sources, puis qu’avant d’entamer ma carrière dans la magistrature, en 1986 je soutenais une thèse sur l’utilisation de systèmes experts en matière de droit de l’urbanisme. Cet travail scientifique soutenu à l’époque par le CNRS ( IRETIJ Michel Vivant) et l’INSA de Lyon ( Robert Laurini) était semble t-il trop précurseur.. Et c’est dans les locaux de cette faculté de droit que j’ai soutenu cette thèse Cette expérience et qualification ne fut acquise qu’en pure perte dans ma carrière judiciaire.

Au cours de cette carrière de magistrat je fus donc essentiellement un observateur et utilisateur et si certains outils numériques nous ont permis d’améliorer le traitement des dossiers judiciaires que ce soit au pénal ou au civil, je pense au RPVA, aux bases de données juridiques, Opalexe , des bases de données juridiques.

Nous y reviendrons mais alors que nous sommes toujours aussi affublé majoritairement par certaines application anté diluviennes et peu ergonomiques ( Word Perfect) la justice plonge aussi dans l’expérimentation sociale et juridique avec l’Open Data.

Pourtant il ne faut pas être dans le déni, tout comme l’informatique des années 1990 s’est généralisée certes de manière déformée dans l’ensemble des pratiques professionnelles

on parle encore en jargon de logiciel métier ( plateforme intégrée conçue pour adresser les besoins précis d’un secteur d’activité donné), les applications d’IA vont impacter le cœur de la décision de justice.,

Encore faut-il savoir ce que l’on veut ?

A quoi sert la justice civile ? Si ce n’est que tous le justiciables puissent accéder dans un délai raisonnable à une décision pertinente rendue de manière contradictoire et en toute transparence.

Face à cet enjeu, l’informatique, la numérisation, la communication et maintenant les diverses techniques d’intelligences artificielles nous proposent des aides et certaines envisagent même de se substituer à l’avocat, au juge.

Pour résumer les technologies en réseau type plateforme Opalexe ouvraient la voie aux Intelligences Artificielles, plus encore IA générative et le machine learning versus ChatGpt qui vont envahir l’espace professionnel d’abord des avocats puis des magistrats...

Mais avant d’explorer rapidement avec un regard contemplatif, enthousiaste ou critique cette évolution envisageons la méthode actuelle de résolution judiciaires des affaires ou en terme plus branché le « problem solving. »

A) rappel succinct des principes fondamentaux juridictionnels.

1) Respect primordial sur le principe de procédure civile.

La procédure est mère de la liberté aussi de l’équité au cœur duquel un principe essentiel le contradictoire (en laissant à sa juste place les procédures de médiation )

Contradictoire ce qui implique de la transparence :

- dans les échanges de pièces et conclusions

- de la loyauté dans la communication de pièces et dans l’obtention de celles-ci

- de la précision ( respect des délais) et de la motivation juridique

2) la Civil Law le droit civil comme principe d’interprétation et de raisonnement juridique

Comme l’on doit toujours se définir par rapport à un autre système il est courant de mettre en parallèle, le droit civil français et la Common Law :

Pour la Common Law, les décisions judiciaires ont une force exécutoire et les juges ont un rôle prépondérant dans la création du droit. La jurisprudence a toujours été l’élément fondamental du système de la Common Law. C’est incontestablement un système fondé sur le précédent. Par conséquent, les décisions antérieures s’imposent aux tribunaux de la Common Law (stare decisis).

Le droit civil français sous le système droit civil, les décisions judiciaires n’ont pas de force exécutoire sur les tiers au procès et ce droit est caractérisé par un fort élément de codification. La doctrine en droit civil est indéniable mais ce sont principalement des jurisprudences de la Cour de Cassation qui ont un rôle d’unification non impérative mais pertinente de la jurisprudence. Le raisonnement est descendant : la loi puis les jurisprudences puis l’analyse de la doctrine juridique.

Le syllogisme judiciaire du juge français c’est d’abord l’application in concreto de la loi que l’on trouve dans un code puis un élément réflexif qui est la consultation de la doctrine et de la jurisprudence (la sienne et celle de la Cour de Cassation de la CEDH et des normes supra nationales qui s’imposent en France) avec un résultat souvent hybride : les cas n’étant jamais identiques. Raisonnement descendant de la loi vers le cas à interpréter. Le principe étant l’égalité devant la loi, et nul n’est censé ignorer la loi.

Ces systèmes politiques, qui ont fait des articles de loi la source principale de leur droit sont très largement majoritaires en Europe et dans les pays historiquement contrôlés par des puissances européennes. Dans cette approche, les juges sont théoriquement considérés comme des « bouches de la loi » et leurs décisions ne sont pas créatrices de droit.

La Common Law est avant tout un raisonnement ascendant en utilisant la jurisprudence  antérieure.

La Common Law, par contraste avec le droit civil, est beaucoup plus récente, puisqu’elle proviendrait d’une tradition apparue en Angleterre suite à la conquête normande de 1066, remplaçant le droit coutumier germanique qui lui préexistait. Le terme désigne les systèmes de « droit coutumier », dans lequel la majorité du cadre juridique est créé par précédent jurisprudentiel et non pas par législation. L’information circulant mal, et la formation étant inégale, les magistrats avaient tendance à se prononcer selon leur bon sens plutôt qu’une quelconque règle de droit. Les décisions de justice ont donc été collectées pour former un socle commun. L’idéal sous-tendant la règle du précédent normatif est donc principalement celui de stabilité et de sécurité juridique. Ce système perdure en Grande Bretagne, aux États-Unis, au Canada, en Alaska et en Australie.

3) les principes de l’acte juridictionnel.

Ces principes s’imposent normalement à toute Cour de justice en France :

-précision et motivation (explicabilité de la décision)

-Transparence & collégialité

- délai

- décision exécutoire

Nous voyons tout de suite que ces principes d’une bonne justice sont battus en brèche par le productivisme judiciaire et la clochardisation de la justice en France (expression d’un passé Garde des Sceaux)

Ainsi la majorité des décisions pénales de première instance ne sont pas motivées sauf quand il y a appel. La plupart des décisions civiles et pénales sont rendus en juge unique et 60 % d’entre elles sans même de publicité des débats, je fais allusion au nombre croissant de décisions rendues par les parquets et leurs délégués du procureur avec parfois l’intervention d’un juge du siège qui valide.

Ne parlons pas des délais....

Enfin la notion de décision exécutoire a vécu :

- Les juges des enfants ont toutes les peines du monde a voir exécuter leur décisions par

les services éducatifs par faute de moyen mais aussi d’imbroglio administratifs

- Au pénal il en va de même pour les JAP

- Au civil, Cf les difficultés classiques d’exécution d’un plaideur gagnant, si bien que l’on a créé un juge de l’exécution.

Etc...

B) La révolution numérique

1) Open Data

Les citoyens doivent avoir accès aux décisions de justice : c’est la base d’un Etat de droit. Ces droits d'accès et de réutilisation s'inscrivent dans la pensée qui considère l'information publique comme un bien commun dont la diffusion est d’intérêt public et général. L'ouverture des données est ainsi à la fois une philosophie de l'accès à l'information, un mouvement de défense des libertés et une politique publique.

Certains pays ont été pionniers, dont les USA, le Royaume Uni, l’Australie, la Canada et la France.

L'article 15 de la DUDH de 1789 mentionne que la société a le droit de demander des comptes à tout agent public de son administration. Cet article constitue le fondement juridique du droit d'accès aux informations publiques

L’objectif de l’open data des décisions de justice est de favoriser l’accès au droit et de renforcer la transparence de la justice avec la mise en ligne à terme de 300 000 décisions administratives et de 3 millions de décisions judiciaires chaque année.

Selon l'arrêté du 28 avril 2021, la consultation des décisions de justice en ligne sera possible progressivement d'ici décembre 2025 comme l'indique également le calendrier diffusé sur le site du ministère de la justice. Les dates de mise à disposition au plus tard des décisions de justice sont :

• septembre 2021 pour les décisions du Conseil d’État et de la Cour de cassation ;

• mars 2022 pour les cours administratives d'appel, avril 2022 pour les cours d’appel en matière civile, sociale et commerciale et juin 2022 pour les tribunaux administratifs ;

• juin 2023 pour les conseils de prud'hommes ;

• décembre 2024 pour les tribunaux de commerce et les décisions en première instance en matière pénale ;

• septembre 2025 pour les décisions en première instance en matière civile et décembre 2025 pour les procédures criminelles et les cours d'appel en matière pénale.

Cet élément va être fondamental et révolutionner le conseil juridique et conduire à un nouveau traitement de l’information jurisprudentielle et judiciaire.

En effet, cet Open DATA va permettre des traitements algorithmiques, c’est à dire permettre à industriels de la jurisprudence d’enraciner des pratiques aventureuses :

- Le forum shopping

- le traçage des juges et des jurisprudences.

- la création de tarifications majoritaires et par-delà un risque de cristallisation de la jurisprudence

Pour certains auteurs, ces innovations remettent en question la notion même de jurisprudence, puisque « pour les big data, le droit et la jurisprudence sont des faits au même titre que les caractéristiques du dossier ou le tempérament d'un juge » (Garapon, Antoine, « Les enjeux de la justice prédictive », JCP G. 2017. Doctr. 31, n°14). Pour d’autres et malgré les garde-fous, il subsiste un risque que la justice prédictive devienne

une « prophétie auto-réalisatrice » (Croze, Hervé, « La factualisation du droit », JCP G 2017, 175, n° 5).

2) les techniques d’IA

L’intégration de l’IA générative dans ce traitement grâce une révolution technologique, notamment celle des algorithmes d’apprentissage automatique (machine learning), et plus spécifiquement du traitement automatique du langage (natural langage processing). Ces algorithmes, qui ne fonctionnent pas uniquement sur la base d’instructions descriptives, mais apprennent par l’exemple, sont ainsi capable de lire et de comprendre le sens à une vitesse de deux millions de décisions de justice par seconde avec une fiabilité de 96%.

Cela provoque un changement de taille : « car ils analysent, compilent puis synthétisent une immense quantité d’information, ils sont certes un vecteur d’information, mais aussi un créateur de contenu. Les algorithmes sont devenus un medium ».

Ces technologies ont donné naissance, de façon presque concomitante aux États-Unis et en France aux outils dit de justice prédictive.

Le terme de « justice prédictive » désigne, selon le rapport Cadiet , « l’ensemble d’instruments développés grâce à l’analyse de grandes masses de données de justice qui proposent, notamment à partir d’un calcul de probabilités, de prévoir autant qu’il est possible l’issue d’un litige ».

Principalement à destination des professionnels du droit, ces outils servent en réalité d’abord à se repérer dans l’information. Ce sont des super-moteurs de recherche, qui autorisent le tri en fonction de filtres sémantiques (par sens de la décision, ou par caractéristiques spécifiques, comme le montant du salaire, le taux de dépendance économique...). Ils permettent ensuite, en s’appuyant sur un panel de décisions similaires à celui qui est soumis, de calculer le taux d’acceptation ou de rejet d’une demande ainsi que le montant d’indemnité et de faire varier ces calculs en fonction de plusieurs paramètres, comme la juridiction.

Cette ouverture s’accompagne partout de la diffusion des outils technologiques permettant de les analyser., déjà des start up se sont emparés de ce marché : Prédictice, Ordalie.IA...

Cette conjonction de deux phénomènes va modifier l’équilibre et le fonctionnement des systèmes juridiques et in fine entraîner une convergence : Le passage rapidement vers un système mixte civil law / common law, certains avancent l’expression droit isométrique.

Du big data judiciaire et des outils de compréhension du langage naturel naît une force centrifuge rapprochant la civil law et la common law vers un nouveau système : l’isometric law; système qui présente des risques et des avantages.

Le système juridique et judiciaire devient un système de droit dans lequel l’intégralité des décisions de justice est mesurée de façon égale par un programme informatique, dont la synthèse finit par devenir la norme. L’open data allié aux technologies d’analyses quantitative des décisions de justice créerait donc un pouvoir normatif du fait des décisions du fond. Cette idée puise évidemment ses racines dans « cet imaginaire cybernétique (qui) conduit à penser la normativité non plus en termes de législation mais en termes de programmation. ». Pour reprendre la formulation d’Antoine Garapon, qui est un des premiers auteurs à avoir perçu le glissement, « l’informatisation du droit modifie les moyens de diffusion de celui-ci mais également son élaboration. C’est une source alternative de normativité juridique ».

Ce changement de paradigme a plusieurs prérequis :

- la collecte et la diffusion de l’intégralité des décisions de justice, ce qui va être le cas en France

- l’acceptation tacite de la fin de l’individualisation la décision de justice, la création d’un homo juridicus moyen et la supériorité de la norme arithmétique sur l’individu. Le droit se prête bien à cette fusion entre normalité et normativité.

Pour Alain Supiot en effet, « le qualificatif de « loi normale » marque l’émergence d’une normativité induite de l’observation des faits, qui aura vocation à se substituer ou à s’imposer à la légalité du système juridique ».

Selon certains auteurs optimistes, l’effet collatéral, le droit isométrique échapperait en partie à l’arbitraire politique, pour devenir plus démocratique puisque produit par les magistrats et ceux qui les influencent, au premier rang desquels les avocats et la doctrine, qui eux-mêmes doivent apprendre à maîtriser les outils de la justice prédictive. Plus transparent, plus démocratique, plus équitable, plus souple et en apparence plus objectif, le droit isométrique constituerait une réponse à l’aspiration citoyenne de renouvellement de la justice, globalement considérée comme fonctionnant mal.

L’hybridation des deux systèmes juridiques étudiés, sous l’influence de la justice prédictive, aboutirait à l’émergence d’un système dit isométrique garantissant à la fois une meilleure connaissance de l’application de la règle de droit, une homogénéisation de la justice qui renforce la confiance des citoyens, et une stabilité de la norme par une prise en compte de la pensée collective des magistrats.

Je nuancerai cet optimisme :

- Par les dangers connus d’une attitude techno solutionniste: A force de vouloir automatiser tout et n’importe quoi les systèmes automatiseront aussi la bêtise naturelle et pourront donc se revendiquer de la bêtise artificielle, je veux parler là de la notion de biais en matière de programmation algorithmique.

Exemple en matière pénale aux USA ou avec le deep learning, les chercheurs ne fournissent aucune indication de ce genre. Google l'a découvert à ses dépens en 2015, lorsqu'un utilisateur afro-américain s'est plaint sur twitter que Google Photos avait identifié un cliché de lui et une amie en tant que gorilles g... L'erreur provient très certainement d'un manque de diversité dans les photos de visage utilisées pour l'apprentissage. Google a corrigé l'erreur... en retirant les termes gorille, singe et chimpanzé du service d'identification automatique. Les biais ne se limitent pas uniquement aux minorités, mais apparaissent également au niveau du genre, de la classe sociale, de la politique...

Voir aussi, exemple sur la notion de dangerosité au US et des résultats en terme de racisme intégré.

- Il y a aussi les dangers de croire à une intelligence supra-naturelle et de voir émoussé l’esprit critique tant nécessaire en matière judiciaire, la recherche de la vérité serait oblitérée par l’usage routinier des solutions proposées par l’IA.

Lorsque le connaît le contentieux civil, on sait que l’information d’un procès civil peut être empoisonnée par des pièces fausses ou incomplètes, il en sera de même sur une base de données et un traitement IA qui reposera sur un corpus sujet à caution et par des contre-sens sciemment introduits par piratage par exemple. La question se pose actuellement concernant Wikipedia assaillie par la sphère complotiste et leur utilisation détournée de ChatGPT.

Enfin,l’hypothèse de plus en plus réaliste que la technologie soit aux mains de puissants monopoles (les Gafa), ce qui indubitablement pose un problème de souveraineté s’agissant de compétences régaliennes. ( exemple de twitter devenu X qui par son rachat récent et le licenciement de 90 % de ses modérateurs change totalement de finalité)

C) Les Garde Fous Européens

Pour terminer et alors qu’il est la mode de critiquer les travaux et législation provenant de l’échelle européenne, je vais vous présenter, à mon sens, comme l’un des législations en devenir les plus protectrices de droit

Dans le cadre de sa stratégie numérique, l'UE souhaite réglementer l'intelligence artificielle (IA) pour garantir de meilleures conditions de développement et d'utilisation de cette technologie innovante.

En avril 2021, la Commission européenne a proposé le premier cadre réglementaire de l'UE pour l'IA. Il propose que des systèmes d'IA qui peuvent être utilisés dans différentes applications soient analysés et classés en fonction du risque qu'ils présentent pour les utilisateurs. Les différents niveaux de risque impliqueront plus ou moins de réglementation. Une fois approuvées, ces règles seront les premières au monde sur l'IA.

La priorité du parlement est de veiller à ce que les systèmes d'IA utilisés dans l'UE soient sûrs, transparents, traçables, non discriminatoires et respectueux de l'environnement. Les systèmes d'IA devraient être supervisés par des personnes plutôt que par l'automatisation, afin d'éviter des résultats néfastes.

Loi sur l'IA : des règles différentes pour différents niveaux de risque. Les nouvelles règles établissent des obligations pour les fournisseurs et les utilisateurs en fonction du niveau de risque lié à l'IA. Bien que de nombreux systèmes d'IA présentent un risque minimal, ils doivent être évalués.

Risque inacceptable

Les systèmes d'IA à risque inacceptable sont des systèmes considérés comme une menace pour les personnes et seront interdits. Ils comprennent:

• la manipulation cognitivo-comportementale de personnes ou de groupes vulnérables spécifiques : par exemple, des jouets activés par la voix qui encouragent les comportements dangereux chez les enfants

• un score social : classer les personnes en fonction de leur comportement, de leur statut socio-économique, de leurs caractéristiques personnelles

• des systèmes d'identification biométrique en temps réel et à distance, tels que la reconnaissance faciale

Certaines exceptions peuvent être autorisées : par exemple, les systèmes d'identification biométrique à distance "a posteriori", où l'identification se produit après un délai important, seront autorisés à poursuivre des crimes graves et seulement après l'approbation du tribunal.

Risque élevé

Les systèmes d'IA qui ont un impact négatif sur la sécurité ou les droits fondamentaux seront considérés comme à haut risque et seront divisés en deux catégories.

1. Les systèmes d'IA qui sont utilisés dans les produits relevant de la législation de l’UE sur la sécurité des produits. Cela comprend les jouets, l'aviation, les voitures, les dispositifs médicaux et les ascenseurs.

2. Les systèmes d'IA relevant de huit domaines spécifiques qui devront être enregistrés dans une base de données de l'UE :

• l'identification biométrique et la catégorisation des personnes physiques

• la gestion et l'exploitation des infrastructures critiques

• l'éducation et la formation professionnelle

• l'emploi, la gestion des travailleurs et l'accès au travail indépendant

• l'accès et la jouissance des services privés essentiels et des services et avantages publics

• les forces de l'ordre

• la gestion de la migration, de l'asile et du contrôle des frontières

• l'aide à l'interprétation juridique et à l'application de la loi.

Tous les systèmes d'IA à haut risque seront évalués avant leur mise sur le marché et tout au long de leur cycle de vie.

IA générative

L'IA générative, comme ChatGPT, devrait se conformer aux exigences de transparence :

• indiquer que le contenu a été généré par l'IA

• concevoir le modèle pour l'empêcher de générer du contenu illégal

• publier des résumés des données protégées par le droit d'auteur utilisées pour la formation

Risque limité

Les systèmes d'IA à risque limité doivent respecter des exigences de transparence minimales qui permettraient aux utilisateurs de prendre des décisions éclairées. Après avoir interagi avec les applications, l'utilisateur peut alors décider s'il souhaite continuer à l'utiliser. Les utilisateurs doivent être informés lorsqu'ils interagissent avec l'IA. Cela inclut les systèmes d'IA qui génèrent ou manipulent du contenu image.

                                                                                                     *******

En conclusion, les techniques IA conduisent à la fusion de l’algorithmique avec le droit ou plutôt l’information juridique et judiciaire et la confrontation de l’analyse quantitative avec le cas d’espèce.. « Vaste sujet » pour paraphraser le général de Gaulle,( mais il parlait d’un

autre domaine de la pensée humaine)... en tout cas nous allons en voir rapidement les conséquences en terme judiciaire. Il faut aborder cette période, loin d’un catastrophisme qui sent souvent le complotisme mais en restant les yeux ouverts en ne transigeant pas

sur les principes qui fondent l’Etat de Droit.

Montpellier le 2 février 2024

Gilles Sainati

Ce blog est personnel, la rédaction n’est pas à l’origine de ses contenus.

L’auteur n’a pas autorisé les commentaires sur ce billet