Logo Techpacquito

TECHPACQUITO

← Retour à l'actualité
13 avril 2026

3 min de lecture

MiniMax M2.7 : le premier modèle open source qui s'est développé lui-même

MiniMax a publié M2.7 le 12 avril, un modèle open source qui a conduit 30 à 50 % de son propre cycle de développement en autonomie, avec seulement 10 milliards de paramètres actifs.

Modèles IAOpen Source

MiniMax M2.7 : le premier modèle open source qui s'est développé lui-même

Le 12 avril 2026, la startup chinoise MiniMax a publié M2.7 sous licence open source. Ce qui distingue ce modèle des dizaines de sorties similaires de ces derniers mois : M2.7 a participé activement à son propre développement. Pendant l'entraînement, il a conduit plus de 100 cycles d'optimisation de manière autonome, sans intervention humaine.


Réseau de neurones stylisé en auto-amélioration sur fond très sombre


Un modèle qui s'est entraîné lui-même

M2.7 repose sur le cadre OpenClaw, un système d'orchestration d'agents développé en interne par MiniMax. Durant la phase d'entraînement, le modèle exécutait un cycle répété : analyser ses propres trajectoires d'échec, planifier des modifications, ajuster le code d'échafaudage, lancer des évaluations, comparer les résultats, puis décider de conserver ou d'annuler les changements. Ce processus s'est déroulé plus de 100 fois de façon entièrement automatisée.

Le résultat : une amélioration de 30 % sur les évaluations internes sans aucune intervention d'ingénieur. MiniMax indique que M2.7 a géré entre 30 et 50 % de son propre cycle de développement. Un chiffre qui interroge directement ce que signifie encore "construire un modèle d'IA" quand le modèle commence à s'en charger lui-même.

Sur le plan technique, M2.7 n'active que 10 milliards de paramètres par passage, une architecture de type mélange d'experts qui lui permet de limiter les coûts de calcul. Il est conçu autour de trois capacités principales : le génie logiciel, le travail de bureau professionnel, et la collaboration multi-agents native.

Des performances qui bousculent les repères

Les résultats sur les classements publics sont difficiles à ignorer. M2.7 obtient 56,22 % sur SWE-Pro, un test couvrant plusieurs langages de programmation, et 57,0 % sur Terminal Bench 2. Ces scores le placent au niveau de modèles comme Claude Opus 4.6 et GPT-5 sur les tâches d'ingénierie, pour une fraction du coût : environ 50 fois moins cher à l'utilisation selon MiniMax, avec une vitesse d'exécution trois fois supérieure.

Ces chiffres méritent d'être pris avec précaution. Les benchmarks sont souvent présentés de façon sélective par les équipes qui publient les modèles, et les conditions d'évaluation varient selon les laboratoires. MiniMax reste peu connu en dehors des cercles de développeurs spécialisés, et ses affirmations n'ont pas encore été vérifiées de façon indépendante à grande échelle.

Ce qui est plus difficile à contester : M2.7 s'inscrit dans une tendance plus large. Depuis plusieurs mois, les modèles chinois captent une part croissante du trafic IA mondial, portés par leurs tarifs compétitifs et une performance technique en rapide progression. M2.7 ajoute un angle inédit à cette dynamique : l'auto-amélioration pendant l'entraînement. Si cette approche est reproductible et généralisable, elle modifie une partie du processus de développement des modèles lui-même.

Ce que ça signifie pour vous

Pour les développeurs, M2.7 propose une alternative open source sérieuse aux modèles propriétaires sur les tâches d'ingénierie logicielle. Son coût très bas et sa vitesse en font un candidat pour les déploiements à grande échelle, notamment dans les systèmes d'agents autonomes. Pour les équipes qui suivent l'état de l'art, le concept de formation autonome est la vraie nouveauté à surveiller : un modèle capable de conduire son propre cycle d'amélioration réduit le rôle de l'ingénieur dans la boucle, avec des conséquences encore difficiles à évaluer sur le long terme.


Sources : MiniMax · VentureBeat · MarkTechPost