Saviez-vous que c’est peut-être une Intelligence Artificielle qui a approuvé votre prêt immobilier ? Qu’un algorithme a probablement décidé du sort de votre demande d’emploi ?
Le monde entier semble avoir découvert l'Intelligence Artificielle il y a un peu plus de deux ans, avec l'avènement de ChatGPT. Mais l'IA est avec nous depuis bien plus longtemps. Outre les algorithmes de recommandation de films ou de musique, les applications de l'IA aujourd'hui sont légion ! L'IA a un impact sur nos vies, que nous le voulions ou non, et elle n'est pas neutre. Les systèmes d'IA sont créés afin de résoudre un problème, par exemple une trop grande quantité de prêts à approuver ou de CV à traiter. Mais le résultat obtenu dépend fortement du contexte social dans lequel le système d’IA a été créé : comment ses créateurs ont pensé la solution, quelles données ils ont utilisées, quelles valeurs ils ont voulu promouvoir… Et les créateurs de systèmes d'IA n'anticipent pas toujours les conséquences de leurs choix.
Le Biais Algorithmique est le concept selon lequel un algorithme favorise systématiquement un groupe de personnes au détriment d'un autre, généralement d'une manière imprévue. On peut citer le cas d'Amazon, qui a utilisé une IA pour trier les CV reçus par les recruteurs : leur IA défavorisait systématiquement les femmes par rapport aux hommes. Comme autre exemple, prenez les systèmes de reconnaissance faciale, qui échouent à faire la différence entre des personnes noires, alors qu’ils y arrivent très bien pour des personnes blanches. Les biais algorithmiques peuvent avoir de nombreuses causes. Celle le plus souvent invoquée est le biais des données : si les données utilisées pour créer le système présentent des biais, alors le système sera biaisé. C’est vrai, mais ce serait une erreur de penser que les données sont les seules sources de biais.
Prenons l'exemple d'un système utilisé dans les hôpitaux aux États-Unis. Le but de ce système est d'aider le personnel soignant à décider si un patient donné doit être admis aux urgences ou en salle d'attente, en fonction de ses antécédents médicaux. Il a été démontré que ce système sous-estimait systématiquement les besoins des patients noirs, alors que ce problème n'existait pas pour les patients blancs. D’où vient le problème ? Estimer les antécédents médicaux d'un patient est complexe, car ils dépendent de nombreux facteurs. Les développeurs du système ont fait l'hypothèse qu’un patient avec des antécédents graves dépenserait plus en frais médicaux qu’un patient sans antécédents, et ils ont donc utilisé le montant dépensé en frais médicaux comme indicateur d’antécédents graves. Mais à cause du contexte socio-économique, les américains noirs dépensent moins en moyenne que les américains blancs, même avec des besoins similaires. Dans cet exemple, les données ne sont pas la cause du biais algorithmique. La source du biais est l'hypothèse utilisée pour créer le système. Les biais algorithmiques vont bien au-delà des biais sexistes ou racistes, et touchent également d’autres caractéristiques personnelles. Des chercheurs ont récemment étudié les biais linguistiques de ChatGPT : ils ont démontré que ce système stéréotype les dialectes. En conséquence, non seulement les locuteurs des dialectes d'anglais autre que l'américain ou le britannique se sont sentis mal à l'aise en interagissant avec le système, mais le système était également moins performant pour eux.
Tout cela étant dit, pourquoi est-ce si important ? Si l'on sait que ces systèmes sont biaisés, ne pouvons-nous pas vérifier les résultats produits, et décider ou non de les utiliser ? Malheureusement, ce n'est pas aussi simple. Nous avons tous une propension à faire davantage confiance aux décisions automatisées qu’à celles faites sans automatisation. Ceci s'appelle ”le biais d'automatisation”, et est très étudié en psychologie. En pratique, cela signifie que lorsqu'une IA nous présente une solution, nous sommes naturellement enclins à l'adopter. Et oui, cela s'applique même si vous savez que ce biais existe.
Ce n'est pas tout. Des chercheurs ont découvert qu'utiliser une IA peut avoir un impact direct sur nos opinions. Dans une étude, des participants ont utilisé un modèle de langage (la technologie derrière ChatGPT ou Mistral le Chat) programmé pour promouvoir un certain point de vue sur les réseaux sociaux. Il s'est avéré que non seulement les textes écrits ont été influencés par le modèle, mais l'opinion même des participants a été modifiée. Ces résultats sont inquiétants. Aujourd'hui, de plus en plus d'articles sont rédigés avec l'aide d'IAs. Des IA génèrent des images, font de la modération de contenu. Et pourtant, nous ne savons pas comment elles ont été programmées. Elles sont en général gouvernées par des règles et des algorithmes contrôlés par petit groupe d'individus très riches. Ce que nous regardons, ce que nous lisons, la vision du monde que nos enfants développent, tout cela nous est imposé par des IAs, sans que nous ayons notre mot à dire.
Cela doit changer.
L'IA doit devenir un sujet citoyen. Nous votons déjà pour décider de nos orientations en matière d'économie, d'environnement, de politiques sociales. Nous devons aussi voter pour l'IA, sur son développement et son déploiement. Nous ne sommes pas tous des experts ou expertes en IA. Et alors ? Nous ne sommes pas tous des experts ou expertes en géopolitique ou économie non plus. Mais nous avons le devoir de nous informer, de comprendre qui prend la parole à ce sujet, et quelles sont les conséquences de ce qu'ils et elles proposent. Nous devons réfléchir au futur que nous souhaitons pour l'IA et comment nous souhaitons l'atteindre.
L'IA est aujourd'hui, plus que jamais, un sujet citoyen et politique. Nous ne pouvons pas nous permettre de rester de simples spectateurs alors que l'IA nous concerne tous. Nous pouvons et nous devons faire entendre notre voix.