3 min de lecture
Mistral Medium 3.5 ouvre ses 128 milliards de paramètres avec agents distants
Mistral publie un modèle dense open source de 128 milliards de paramètres avec agents de codage distants et Work Mode dans Le Chat.
Mistral Medium 3.5 ouvre ses 128 milliards de paramètres avec agents distants
Mistral AI a publié le 29 avril son nouveau modèle phare : Medium 3.5. Cent vingt-huit milliards de paramètres denses, poids ouverts sous licence MIT modifiée, et deux nouveautés majeures côté outillage. C'est la mise à jour la plus ambitieuse de la startup parisienne depuis Voxtral TTS en avril.
Un modèle qui réunit chat, raisonnement et code
La particularité de Medium 3.5 est d'unifier dans un seul jeu de poids ce que beaucoup de modèles séparent encore : dialogue, raisonnement et programmation. La fenêtre de contexte atteint 256 000 tokens. L'effort de raisonnement est configurable par requête, ce qui permet d'utiliser le même modèle pour une réponse rapide ou une tâche multi-étapes prolongée.
Sur le benchmark SWE-Bench Verified, référence de l'ingénierie logicielle autonome, Medium 3.5 atteint 77,6 %. C'est mieux que Devstral 2, le précédent modèle de codage de Mistral, et mieux aussi que Qwen3.5 397B A17B d'Alibaba, pourtant bien plus grand en nombre de paramètres. Le modèle dépasse également Claude Sonnet 4.5 sur plusieurs évaluations multilingues, avec support natif de onze langues dont le français, le chinois et l'arabe.
La licence MIT modifiée permet un usage commercial libre sous réserve d'attribution. Les poids sont disponibles sur Hugging Face dès le lancement.
Vibe passe dans le cloud
Parallèlement au modèle, Mistral annonce deux changements d'outillage concrets. Le premier concerne Vibe, son environnement de codage agentique : jusqu'ici limité à des sessions locales, il bascule vers le cloud. Les agents de codage peuvent désormais tourner en arrière-plan pendant que le développeur fait autre chose, avec plusieurs sessions en parallèle.
Le second changement touche Le Chat, l'interface grand public de Mistral. Un nouveau mode appelé Work Mode prend en charge des tâches autonomes multi-étapes : recherche, rédaction, synthèse de documents ou manipulation de fichiers, sans intervention manuelle entre chaque étape. Medium 3.5 devient le modèle par défaut dans les deux environnements.
Pour les équipes qui utilisent déjà des terminaux agentiques comme Warp, cette bascule vers l'exécution distante représente un changement de paradigme tangible : la machine locale n'est plus le goulot d'étranglement sur les longues tâches.
Un prix qui divise
La sortie n'est pas sans friction. Mistral facture 1,50 dollar par million de tokens en entrée et 7,50 dollars en sortie via son API. Ces tarifs sont jugés élevés par une partie de la communauté, notamment face à Qwen 3.6 Plus d'Alibaba : ce dernier score 72,4 % sur SWE-Bench Verified avec seulement 27 milliards de paramètres, sous licence Apache 2.0, à un coût nettement inférieur.
Ce décalage illustre une tension persistante dans l'écosystème open source entre accessibilité des poids et rentabilité de l'inférence commerciale. Mistral, qui compte sur son API pour financer sa recherche, assume ce positionnement. Reste à savoir si les développeurs préféreront héberger les poids eux-mêmes, d'autant que les modèles chinois captent déjà 45 % du trafic mondial sur les plateformes d'inférence tierces, signe que l'appétit pour l'open source bon marché est réel.
Ce que ça signifie pour vous
Medium 3.5 est un modèle à tester en priorité si vous avez besoin d'un modèle ouvert polyvalent, sans jongler entre plusieurs jeux de poids spécialisés. Les agents Vibe en mode cloud ouvrent une nouvelle façon de déléguer des tâches de développement longues. La question du coût reste centrale : héberger 128 milliards de paramètres nécessite une infrastructure conséquente, mais plusieurs fournisseurs comme Ollama ou des plateformes d'inférence tierces proposent déjà le modèle dans les heures qui suivent chaque sortie.
Sources : Mistral AI · MarkTechPost · GIGAZINE · AlternativeTo
