Derrière le mot "IA", une simple boîte à outils
Le premier mérite de Luc Julia est de nous libérer de nos illusions.
L’Intelligence Artificielle (IA), dit-il, n’est pas cette créature toute-puissante que Hollywood nous a vendue. Elle n’a rien d’un cerveau autonome ou d’une conscience naissante. "L'IA n'existe pas en tant qu'entité monolithique", nous rappelle-t-il avec justesse. Il s'agit plutôt d'une «boîte à outils» sophistiquée, composée d'instruments mathématiques spécialisés, chacun conçu pour des tâches spécifiques. Rien de magique là-dedans.
Il pousse même le clin d’œil historique jusqu’à 1642, évoquant la Pascaline de Blaise Pascal, un calculateur mécanique qui, déjà, "semblait faire des choses intelligentes dans des domaines particuliers".
La date officielle de naissance de l’IA reste 1956, mais cette perspective plus large a le mérite de recadrer les choses; on parle d’instruments, pas d’êtres pensants.
Surtout, Luc Julia nous explique pourquoi l'Intelligence Artificielle Générale (AGI) reste un mythe. Puisque l'IA repose "uniquement sur les mathématiques", qui ne sont qu'une approximation de la physique, elle ne peut atteindre «100% de certitude» ou la "perfection".
L'exemple de la voiture autonome de niveau 5 illustre parfaitement ce point; sa démonstration est simple, presque imparable; une voiture autonome de niveau 5, capable de fonctionner sans aucune intervention humaine, dans toutes les conditions de conduite et sur tous types de routes, "Ça n’existera jamais", tranche-t-il. Trop d’imprévus, trop de variables.
Parler à la machine
Julia recentre aussi le débat sur ChatGPT.
Non, l’outil n’est pas une rupture technologique majeure. Il s’agit d’une évolution dans la continuité des IA statistiques.
Ce qui change tout, en revanche, c’est l’interface : le "prompt", c’est-à-dire notre manière de dialoguer avec la machine, qui devient soudain naturelle, accessible à tous. C’est cela, la révolution.Cette interface en langage naturel a permis à ChatGPT 3.5 de conquérir 100 millions d'utilisateurs en seulement deux mois.
Cette accessibilité démocratique est à la fois une chance et un piège. Quand "n'importe qui peut faire n'importe quoi" avec un outil qui se trompe 36% du temps, les dégât peuvent être considérables.
L'anecdote de cet avocat qui a utilisé ChatGPT pour rédiger un réquisitoire citant des précédents juridiques totalement inexistants illustre parfaitement ce que Julia appelle les « hallucinations » de l'IA. Avec seulement 64% de pertinence, ces systèmes nous "racontent n'importe quoi" plus d'une fois sur trois.
Parler d’"information artificielle" plutôt que d’"intelligence artificielle".
L’expression "intelligence artificielle" prête à confusion, elle suggère l’existence d’une pensée autonome, voire d’une conscience, là où il ne s’agit que de traitement algorithmique de données.
À y regarder de plus près, le cœur du débat ne porte pas sur une quelconque intelligence des machines, mais bien sur notre rapport à l’information, quelle qu’en soit la source ou l’interface utilisée.
Ce qui a véritablement changé avec des outils comme ChatGPT, ce n’est pas une percée en "intelligence", mais une révolution d’interface.
Cette démocratisation de l’accès à l’information ne fait que masquer une réalité plus simple :
La machine est un relai d’information, pas une entité pensante.
Ce n’est pas l’intelligence de la machine qu’il faut craindre ou vénérer, mais notre propre capacité à en faire un usage éclairé. L’outil ne rend pas intelligent, il nécessite une intelligence humaine pour être bien utilisé.
C'est effectivement une question qui se pose aujourd'hui comme elle s'est posée il y a 4000 ans lors que Moise est revenu avec les tables de la loi, obtenu pour les uns de manière divine aujourd'hui on dirait artificielle
Que l’information soit perçue comme d’origine divine ou artificielle, la problématique reste inchangée :
Que faisons-nous de l’information reçue ?
Qui en détient l’autorité ?
Comment la comprendre, la transmettre, la remettre en question ?
Renommer cette technologie en "information artificielle" permettrait de recentrer le débat sur l’essentiel : Notre rapport à l’information, à sa véracité, à son contrôle et à son interprétation, loin des fantasmes d’une machine intelligente
Le grand angle mort : L’empreinte écologique
Là où Luc Julia marque un vrai point, c’est en attirant l’attention sur le coût environnemental colossal de cette technologie.
Les chiffres donnent le vertige : 10 à 30 requêtes ChatGPT consomment 1,5 litre d'eau pour refroidir les centres de données, ce qui représente des millions de litres utilisés quotidiennement à l'échelle mondiale. Cette dimension écologique mérite d'être au cœur des débats politiques.
Faut-il vraiment mobiliser autant de ressources pour générer des poèmes ou corriger des mails ?
Cette question, que Luc Julia pose avec insistance, devrait figurer au sommet des préoccupations politiques. Il est grand temps d’interroger la pertinence écologique de nos usages numériques.
L'Europe face à ses contradictions réglementaires
Luc Julia ne mâche pas ses mots sur le projet de régulation européenne; pour lui, l’AI Act est une "aberration". Réguler une technologie "à priori", avant de la comprendre, c'est comme légiférer sur l'automobile avant d'avoir vu une voiture.
Force est de reconnaître que ses arguments portent.
L'exemple des contradictions entre l'AI Act et le RGPD illustre parfaitement les dangers de cette approche précipitée.
Le RGPD (Règlement général sur la protection des données) est une législation européenne stricte qui encadre la collecte, le traitement et la protection des données à caractère personnel des personnes physiques dans l’Union européenne.
L’AI Act est la première réglementation européenne complète visant à encadrer le développement, la mise sur le marché et l’utilisation des systèmes d’intelligence artificielle (IA) au sein de l’Union européenne. Adopté officiellement en 2024 et entré en vigueur le 1er août 2024, ce règlement a pour objectif de garantir que l’IA respecte les droits fondamentaux, la sécurité, la santé et les valeurs européennes, tout en favorisant une IA éthique et centrée sur l’humain
L'existences simultanée des deux textes créent des problèmes juridiques "absolument insolubles" qui poussent certains entrepreneurs français à ignorer purement et simplement l'AI Act, se contentant d'embaucher des avocats pour gérer les conflits.
Quand Luc Julia prédit que le conflit Apple vs Meta durera "10 à 20 ans" à cause de ces contradictions réglementaires, il pointe du doigt un système bureaucratique qui étouffe l'innovation.
Il appelle à une régulation "à posteriori", fondée sur l’observation, l’expertise et la concertation. Une approche pragmatique, à rebours des réflexes bureaucratiques actuels.
La France, géant mathématique aux pieds d'argile
Paradoxalement, la France dispose d'atouts considérables dans cette course à l'IA.
Troisième pays mondial en termes de chercheurs spécialisés, champion du monde en mathématiques avec le plus grand nombre de médailles Fields, notre pays possède les cerveaux nécessaires pour briller dans ce domaine fondamentalement mathématique.
Mais sur le terrain, les freins sont nombreux : Peu de capital-risque, une peur chronique de l’échec, une réticence à investir dans l’inconnu.
Quand on voit que seuls 5% des 170 projets d'IA générative lancés par les grandes entreprises françaises du CAC 40 dépassent le stade expérimental, on mesure l’écart entre potentiel et réalisation.
Assumer les biais culturels
L'idée la plus stimulante de Luc Julia réside dans sa proposition de développer des IA "régionalement biaisées", française, européenne, africaine. Face à la domination des modèles américains nourris à 70% de données américaines, cette approche offrirait une alternative culturellement plus diversifiée.
Pourquoi s’acharner à vouloir des IA universelles, quand la neutralité est illusoire ?
Mieux vaut, selon lui, créer des modèles alignés sur nos contextes locaux, nos langues, nos références. "Assumons le biais", nous dit-il en substance.
Pas pour se replier sur soi, mais pour enrichir la diversité des perspectives.
Il cite l'exemple de Mistral AI, une start-up française spécialisée dans l’intelligence artificielle générative, fondée en 2023 par trois chercheurs issus de Google DeepMind, Meta et de l’École Polytechnique (Arthur Mensch, Guillaume Lample et Timothée Lacroix).
Mistral, avec ses modèles frugaux et efficaces, incarne peut-être cette voie alternative à l’hégémonie américaine.
Ce que l’IA ne remplacera pas
Luc Julia conclut en rappelant ce que l’IA ne fera jamais : Comprendre, inventer, ressentir.
Luc Julia s'avance peut-être un peu, de manière péremptoire. Il n'en reste pas moins que l'IA ne pourra se passer de la présence humaine.
Aujourd'hui, en tous les cas, l'IA peut assister, accélérer, trier, suggérer. Mais elle ne remplace pas la part humaine des métiers, au contraire, elle la rend plus visible. Un médecin épaulé par l’IA gagnera du temps, qu’il pourra consacrer à l’écoute, à l’empathie, à la pédagogie.
Au final, l'IA restera ce qu'elle est : Un outil puissant mais imparfait, qui "ne comprend pas", "n'invente pas" et "ne fait que ce qu'on lui demande".
Dans ce contexte, les enseignants ont un rôle clé. Il ne s’agit pas d’interdire l’IA, mais d’apprendre à l’utiliser avec discernement : Vérifier les résultats, repérer les erreurs, développer l’esprit critique. Le vrai défi éducatif est là.
Redonner à l’utilisateur la maîtrise
Enfin, Luc Julia plaide pour une souveraineté numérique où les données appartiennent à l’utilisateur, et non aux géants du Web.
Une vision simple, presque de bon sens : Celui qui produit l’information en reste maître, et choisit à qui il en délègue l’usage.
C'est peut-être là la vraie intelligence artificielle; celle qui nous aide à rester intelligents, critiques et humains