Dans une industrie de l’IA où la course à la performance s’intensifie chaque jour, Meta vient de lancer sa plus récente série de modèles d’intelligence artificielle, Llama 4. Annoncée le 5 avril 2025 par Mark Zuckerberg lui-même, cette nouvelle génération d’IA représente une avancée significative dans la stratégie d’intelligence artificielle de Meta et pourrait bien bouleverser l’équilibre des forces dans ce secteur en pleine effervescence.
Un « troupeau » d’IA aux capacités impressionnantes
La famille Llama 4, que Meta décrit comme un « troupeau de modèles », comprend trois modèles distincts : Scout, Maverick et Behemoth. Chacun possède des caractéristiques et des forces particulières.
Llama 4 Scout est un modèle plus petit mais extrêmement efficace, conçu pour fonctionner sur une seule carte graphique haut de gamme. Il dispose de 17 milliards de paramètres actifs avec 16 « experts » spécialisés, pour un total de 109 milliards de paramètres. Sa particularité la plus remarquable est sa capacité à traiter jusqu’à 10 millions de tokens (unités de texte), ce qui équivaut à environ 15 000 pages de texte en une seule fois. Pour mettre cette prouesse en perspective, GPT-4o d’OpenAI ne peut traiter que 128 000 tokens.
Llama 4 Maverick, plus puissant, compte également 17 milliards de paramètres actifs mais avec 128 experts, totalisant 400 milliards de paramètres. Il est spécialement conçu pour des tâches comme la programmation, l’écriture créative, la résolution de problèmes mathématiques et la compréhension d’images et de vidéos.
Quant à Llama 4 Behemoth, il s’agit d’un modèle colossal encore en développement, avec près de 2 billions (2 000 milliards) de paramètres. Mark Zuckerberg n’a pas hésité à le qualifier de futur « modèle de base le plus performant au monde ».
Les ambitions de Zuckerberg : démocratiser l’IA de pointe
Dans une vidéo publiée sur Instagram, Mark Zuckerberg a clairement exposé sa vision : « Notre objectif est de construire l’IA la plus performante au monde, de la rendre open source et universellement accessible afin que tout le monde dans le monde en bénéficie ».
Le PDG de Meta a également affirmé sa conviction que « l’IA open source va produire les modèles les plus performants, et avec Llama 4, cela commence à se produire ». Cette déclaration marque un positionnement stratégique clair face aux modèles propriétaires comme ceux d’OpenAI ou de Google.
Les nouveaux modèles Llama 4 sont désormais accessibles via Meta AI sur WhatsApp, Messenger, Instagram Direct ou sur le site web meta.ai. Ils sont également téléchargeables via le site Llama et la plateforme Hugging Face, bien que Behemoth reste en phase d’entraînement.
Une architecture révolutionnaire
Ce qui distingue véritablement Llama 4 des générations précédentes est son architecture multimodale native. Contrairement aux modèles antérieurs qui traitaient séparément le texte et les images, Llama 4 utilise une approche de « fusion précoce » qui intègre immédiatement les informations provenant de différentes modalités (texte, images, vidéos) en une représentation unifiée.
« La fusion précoce représente une avancée majeure, car elle nous permet d’entraîner conjointement le modèle avec de grandes quantités de texte, d’images et de vidéos », explique Meta dans son blog officiel.
Les modèles Llama 4 utilisent également une architecture de « Mixture of Experts » (MoE), qui divise le modèle en composants spécialisés, chacun se concentrant sur des domaines spécifiques comme la physique, la poésie, la biologie ou la programmation. Lors d’une tâche donnée, seuls les modules d’experts les plus pertinents sont activés, ce qui améliore l’efficacité et réduit les coûts d’entraînement.
Llama 4 face à la concurrence : performances et limitations
Meta affirme que ses nouveaux modèles surpassent plusieurs concurrents de premier plan sur divers benchmarks. Selon l’entreprise, Llama 4 Maverick dépasse des modèles comparables comme GPT-4o de OpenAI et Gemini 2.0 de Google en matière de codage, de raisonnement, de multilinguisme, de contexte long et de benchmarks d’images.
Cependant, certains utilisateurs ont souligné sur les réseaux sociaux que Meta a omis les comparaisons avec des modèles de raisonnement de pointe comme OpenAI o1 et o3 ou Google Gemini 2.5 Pro, ainsi que des benchmarks où d’autres modèles comme DeepSeek V3.1 surpassent Llama 4.
Une controverse a également éclaté peu après la sortie des modèles. Meta a été critiqué pour avoir utilisé une version expérimentale de Llama 4 optimisée pour les benchmarks, différente de celle rendue publique, pour obtenir des scores élevés sur le benchmark LMArena AI.
Open source ou « open weight » ?
Bien que Meta présente Llama 4 comme « open source », l’entreprise a en réalité qualifié ses modèles d' »open weight » après avoir été critiquée pour ne pas correspondre à la définition officielle de l’Open Source Initiative. Cette nuance s’explique principalement par le fait que Meta ne révèle pas les données sur lesquelles les modèles ont été entraînés.
De plus, les conditions de licence de Llama 4 comportent certaines restrictions. Les particuliers et les entreprises basés dans l’Union européenne ne sont pas autorisés à utiliser ou à distribuer ces modèles, probablement en raison des exigences réglementaires découlant de la législation européenne sur l’IA et la protection des données. Par ailleurs, les entreprises comptant plus de 700 millions d’utilisateurs actifs mensuels doivent obtenir une licence spéciale de Meta, que l’entreprise peut approuver ou rejeter à sa discrétion.
L’impact sur l’industrie de l’IA
Le lancement de Llama 4 pourrait avoir des répercussions importantes sur l’industrie de l’IA, notamment en réduisant potentiellement le coût de déploiement de l’intelligence artificielle pour les entreprises9.
« Malgré le fait qu’il ne soit pas le meilleur modèle disponible dans l’absolu, Llama 4 surpasse plusieurs alternatives propriétaires de premier plan sur divers benchmarks », a souligné un expert cité par PYMNTS.
Meta a également indiqué que Llama 4 est moins enclin à refuser de répondre aux questions qu’il juge trop sensibles, le rendant « plus comparable à Grok », le modèle d’IA de la startup xAI d’Elon Musk. Selon Meta, « notre objectif est d’éliminer les biais de nos modèles d’IA et de nous assurer que Llama peut comprendre et articuler les deux côtés d’une question controversée ».
L’avenir de Llama et la stratégie de Meta
Ce lancement n’est que le début de la stratégie de Meta en matière d’IA. L’entreprise a teasé un autre modèle à venir, Llama 4 Reasoning, qui se concentrera spécifiquement sur les capacités logiques et la résolution de problèmes.
« Ce n’est que le début de la gamme Llama 4 », a écrit Meta dans un billet de blog. « Nous croyons que les systèmes d’IA les plus avancés doivent être capables d’entreprendre des actions généralisées, d’engager des conversations naturelles avec des humains et de s’attaquer à des problèmes qu’ils n’ont jamais rencontrés auparavant ».
Meta organisera sa première conférence annuelle LlamaCon sur l’IA le 29 avril, où l’entreprise pourrait bien dévoiler le modèle Llama 4 Behemoth et annoncer une application autonome pour son assistant Meta AI.
Avec plus d’un milliard de téléchargements des modèles Llama juste deux semaines avant le lancement de Llama 4, et des investissements prévus entre 60 et 65 milliards de dollars pour l’infrastructure d’IA en 2025, Meta démontre clairement son engagement à long terme dans la course à l’IA.
Que Llama 4 parvienne ou non à détrôner les géants actuels de l’IA, une chose est certaine : la compétition dans ce domaine ne fait que s’intensifier, et les utilisateurs pourraient bien être les grands gagnants de cette course à l’innovation.