Juillet 1989, Toronto, un jeune Français de 28 ans invente (avec Yoshua Bengio et Geoffrey Hintonle), le premier réseau de neurones convolutifs – Le cœur battant de l'intelligence artificielle moderne... Qu'en est-il aujourd'hui?
Ce blog est personnel, la rédaction n’est pas à l’origine de ses contenus.
Agrandissement : Illustration 1
Yann LeCun, le pionnier discret du deep learning
Né le 8 juillet 1960 à Soisy-sous-Montmorency, en banlieue parisienne, Yann LeCun est un chercheur franco-américain reconnu comme l’un des fondateurs du deep learning, cette branche de l’intelligence artificielle qui imite le fonctionnement du cerveau humain à travers des réseaux de neurones artificiels. Diplômé de l’ESIEE Paris en 1983, il soutient sa thèse en 1987 à l’Université Pierre-et-Marie-Curie (Paris 6) sur les modèles connexionnistes de l’apprentissage, avant de rejoindre l’Université de Toronto pour un postdoctorat sous la direction de Geoffrey Hinton, autre figure majeure du domaine.
À la fin des années 1980, alors qu’il travaille chez AT&T Bell Labs dans le New Jersey, LeCun conçoit avec son équipe les premières versions des réseaux de neurones convolutifs (LeNet), une technologie utilisée pour la reconnaissance automatique de l’écriture manuscrite, notamment sur les chèques bancaires. Ces travaux, présentés en 1989 lors de la conférence NIPS (aujourd’hui NeurIPS), marquent une étape décisive dans l’histoire de l’intelligence artificielle moderne.
Installé aux États-Unis depuis la fin des années 1980, Yann LeCun est aujourd’hui professeur à l’Université de New York (NYU) et Chief AI Scientist chez Meta (ex-Facebook). En 2018, il a reçu le prix Turing — considéré comme l’équivalent du Nobel en informatique — aux côtés de Geoffrey Hinton et Yoshua Bengio, pour leurs contributions fondamentales au développement du deep learning.
Marié (son épouse se prénomme Isabelle) et père de trois fils, LeCun reste une figure scientifique respectée, à la fois pour ses avancées théoriques et pour son engagement en faveur d’une intelligence artificielle accessible et transparente.
LLaMA 3 : un modèle ouvert, mais sous conditions
En avril 2024, Meta a publié LLaMA 3, un modèle d’intelligence artificielle que l’on peut télécharger, cloner et exécuter localement. Disponible en versions 8 et 70 milliards de paramètres, il s’installe sur un ordinateur ou un serveur sans nécessiter de cloud. Cette accessibilité a contribué à sa large adoption dans la recherche et les startups.
Cependant, l’ouverture de LLaMA 3 n’est pas totale. Le modèle est distribué sous la LLaMA 3 Community License, une licence qui autorise l’usage libre des poids, mais impose plusieurs conditions : mention obligatoire de “Built with Meta LLaMA 3”, interdiction de s’en servir pour entraîner un autre grand modèle, et obligation d’obtenir une autorisation pour tout service dépassant 700 millions d’utilisateurs mensuels. L’accès aux fichiers nécessite également une authentification via Hugging Face.
LLaMA 3 se distingue donc comme un modèle “open-weight”, mais non open-source au sens strict défini par l’Open Source Initiative (OSI). Contrairement à un logiciel libre, ses données d’entraînement, son code et ses clauses d’usage ne sont pas publiés intégralement.
En comparaison, OpenAI a longtemps conservé ses modèles sous licences propriétaires avant d’ouvrir certains poids sous Apache-2.0, tandis que la société française Mistral diffuse plusieurs modèles — dont Mistral 7B et Mixtral 8×7B — sous licences open-source réelles, permettant une modification et une redistribution complètes.
En pratique, LLaMA 3 combine accessibilité technique et encadrement juridique. Il marque une étape importante dans la démocratisation de l’intelligence artificielle, tout en illustrant les limites du terme “ouvert” lorsqu’il s’applique aux modèles développés par les grandes plateformes technologiques.
Une licence ouverte, mais pas libre au sens classique
La licence de LLaMA 3, appelée Community License, est un cas particulier dans le monde du logiciel libre. Meta autorise quiconque à télécharger, exécuter et modifier les poids du modèle, mais encadre ces usages par des conditions contractuelles. L’accès est donc “ouvert”, mais pas libre au sens juridique établi par la Free Software Foundation (FSF) ou l’Open Source Initiative (OSI).
Contrairement aux licences historiques comme la GPL/GNU, qui imposent la redistribution du code source et la préservation des libertés d’usage à chaque modification, la licence de Meta reste unilatérale : elle accorde des droits sans garantir de réciprocité. Quant à la BSD ou à l’Apache 2.0, elles offrent une liberté quasi totale (utilisation commerciale, modification, redistribution) tant que la paternité est citée ; elles n’imposent pas de contraintes sur la taille des projets ou le nombre d’utilisateurs. Meta, elle, a ajouté une clause inédite : toute entreprise dépassant 700 millions d’utilisateurs actifs doit obtenir une autorisation spécifique pour exploiter LLaMA 3.
En pratique, cette licence navigue entre deux mondes : elle se veut aussi permissive que BSD, mais conserve des verrous stratégiques propres à un acteur industriel. Autrement dit, LLaMA 3 peut être librement étudié, modifié et exécuté, mais son usage massif reste sous contrôle. C’est une ouverture pragmatique : la liberté de coder, oui ; celle de concurrencer Meta, non.
Le sacrifice de nos convictions
Yann LeCun, pionnier du deep learning et figure tutélaire de l’intelligence artificielle moderne, occupe aujourd’hui un poste de prestige chez Meta, l’entreprise autrefois connue sous le nom de Facebook. Ce rapprochement peut sembler paradoxal : l’un des esprits les plus brillants de la recherche en IA travaille sous la bannière d’un groupe souvent critiqué pour sa gestion des données personnelles, son influence sur les opinions publiques, et ses atteintes supposées à la vie privée.
Pourtant, c’est bien au sein de cette structure, à la réputation controversée, qu’a vu le jour LLaMA 3, le modèle de langage le plus ouvert jamais publié par un acteur majeur du numérique. Là où OpenAI, Google (Gemini) ou Anthropic (Claude) gardent leurs architectures et leurs données d’entraînement secrètes, Meta a pris une direction opposée : ouvrir le code, partager les poids, et permettre à quiconque de l’exécuter localement.
Ce choix ne s’explique pas uniquement par la stratégie d’entreprise. Il reflète aussi une conviction scientifique profonde : celle que la connaissance progresse par la circulation du savoir, pas par son enfermement. Yann LeCun a toujours défendu cette idée, rappelant que la recherche publique en IA s’est construite sur la transparence, l’échange et la reproduction des résultats.
Ainsi, même si le cadre institutionnel semble en contradiction avec les idéaux d’ouverture et de liberté, le produit lui-même — LLaMA 3 — vient réaffirmer ces valeurs. C’est le paradoxe de notre époque : les géants du numérique, souvent perçus comme les gardiens d’un monde fermé, se retrouvent parfois à produire les outils les plus ouverts de leur génération.
En signant avec Meta, LeCun n’a peut-être pas renoncé à ses convictions. Il les a simplement déplacées là où elles peuvent encore peser sur le réel — dans le cœur même de la machine.
À votre avis ?
Le mot “OpenAI” contient “open”, mais où est l’ouverture ? Depuis la création de ChatGPT, aucun fragment du code source n’a été rendu public. Les modèles sont fermés, les poids sont inaccessibles, et les données d’entraînement restent un secret industriel. Pourtant, à l’origine, Elon Musk voulait qu’OpenAI soit une organisation ouverte et transparente, au service du bien commun. Déçu par la tournure prise, il a claqué la porte et fondé xAI, avec son propre modèle : Grok. Mais là encore, même mystère : où est le code ? Quelle est la recette ? Rien n’a filtré.
Et chez nous, en France, le fleuron national Mistral, souvent présenté comme le champion de l’open-source européen ? Officiellement, oui, ses modèles sont diffusés sous licence Apache 2.0, libre et réutilisable. Mais dans les faits, peu de gens savent réellement comment les déployer de A à Z. On parle de liberté, mais les portes restent entrouvertes, parfois verrouillées par la complexité technique ou le manque de documentation.
Alors, qui joue vraiment le jeu de l’ouverture ? Meta, paradoxalement, semble aujourd’hui le plus transparent avec LLaMA 3, dont le code et les poids circulent librement. Mais la vraie question dépasse les entreprises : pourquoi si peu de voix s’interrogent publiquement sur ces contradictions ?
Nous sommes à un tournant technologique majeur, peut-être le plus déterminant depuis l’invention d’Internet. Ce que nous décidons aujourd’hui — ouvrir, fermer, partager ou garder — dessinera le visage de l’intelligence artificielle et notre civilisation pour les 100 prochaines années.
Ce blog est personnel, la rédaction n’est pas à l’origine de ses contenus.