3 min de lecture
GLM-5 : Zhipu AI sort un modèle frontier open source sans puce NVIDIA
Zhipu AI a publié GLM-5 le 13 février 2026, un modèle de 744 milliards de paramètres sous licence MIT, entraîné exclusivement sur des puces Huawei Ascend.
GLM-5 : Zhipu AI sort un modèle frontier open source sans puce NVIDIA
Le 13 février 2026, la startup chinoise Zhipu AI a mis en ligne GLM-5, un modèle de langage de 744 milliards de paramètres distribué sous licence MIT. Ce qui le distingue d'emblée des autres sorties de modèles de ce calibre : il a été entraîné intégralement sur des puces Huawei Ascend, sans recours aux GPU NVIDIA ou AMD.
Un modèle de pointe aux performances vérifiables
GLM-5 adopte une architecture Mixture-of-Experts (MoE) : sur ses 744 milliards de paramètres totaux, seuls 40 milliards sont activés par inférence. Ce compromis entre taille et efficacité est désormais une approche standard pour les grands modèles, qu'on retrouve dans GPT-4o ou Mistral. L'originalité ici tient à l'échelle et à la souveraineté matérielle.
Sur les benchmarks publiés, GLM-5 obtient 77,8% sur SWE-bench Verified, référence pour l'évaluation du code, 92,7% sur AIME 2026 en mathématiques, et 86% sur GPQA-Diamond pour le raisonnement scientifique. Sur Humanity's Last Exam, l'épreuve la plus difficile du secteur, il atteint 50,4%. Ces chiffres le placent dans la même catégorie que les meilleurs modèles américains et européens du moment.
Le modèle prend en charge une fenêtre de contexte de 200 000 tokens via le mécanisme DeepSeek Sparse Attention, adapté à la gestion efficace des longues séquences. Il est disponible sur Hugging Face sous licence MIT, sur OpenRouter, et via l'API Z.ai. Son prix de 1 dollar le million de tokens en entrée et 3,20 dollars en sortie représente environ cinq fois moins cher en entrée que Claude Opus 4.6.
Le contexte : indépendance technologique et ouverture commerciale
Zhipu AI est devenue le 8 janvier 2026 la première société chinoise de modèles de fondation cotée en bourse, via une introduction à Hong Kong qui a levé 558 millions de dollars à une valorisation de 7,1 milliards. Le choix d'une introduction à Hong Kong plutôt qu'à Shanghai s'explique en partie par la volonté d'attirer des investisseurs internationaux tout en restant dans l'orbite réglementaire chinoise.
L'entraînement exclusif sur puces Huawei Ascend est une réponse directe aux restrictions américaines sur les exportations de GPU haute performance vers la Chine. Zhipu démontre qu'il est possible de produire un modèle frontier sans passer par l'écosystème NVIDIA, ce que les analyses occidentales tendaient à nier il y a encore un an. Cela ne signifie pas que les restrictions américaines sont sans effet : l'entraînement est plus coûteux et plus complexe sur Ascend que sur H100, mais le résultat est là.
La licence MIT tranche avec les approches plus fermées d'OpenAI ou Google. Elle autorise une utilisation commerciale sans restriction, ce qui élargit considérablement le bassin des adoptants potentiels.
Ce que ça signifie pour vous
Pour les développeurs à la recherche d'une alternative aux modèles propriétaires, GLM-5 est une option sérieuse. Ses performances sur le code et les mathématiques en font un candidat pour des tâches d'automatisation complexes, à un coût inférieur à la plupart des modèles comparables. La licence MIT garantit une liberté d'usage en production.
Sur le plan géopolitique, GLM-5 change la lecture des restrictions à l'exportation. Si la Chine peut produire des modèles de ce niveau sans semi-conducteurs américains ou taïwanais, la question de l'efficacité réelle de ces mesures se pose. Pour le secteur de l'IA, cela confirme que la frontière entre les écosystèmes occidentaux et chinois va continuer à s'épaissir, avec des modèles de plus en plus performants des deux côtés.
Sources : Hugging Face (Maxime Labonne) · Hugging Face (zai-org/GLM-5) · Evrimagaci · NxCode Guide
