Logo Techpacquito

TECHPACQUITO

← Retour à l'actualité
4 avril 2026

3 min de lecture

Google Gemma 4 : un modèle frontier open source qui tient sur un smartphone

Google a publié Gemma 4 le 2 avril, quatre modèles open source sous licence Apache 2.0. Le plus léger tourne sur téléphone, le plus grand se classe troisième mondial parmi les modèles ouverts.

GoogleModèles IAOpen Source

Google Gemma 4 : un modèle frontier open source qui tient sur un smartphone

Le 2 avril 2026, Google DeepMind a publié Gemma 4, une famille de quatre modèles de langage ouverts construite sur les mêmes recherches que Gemini 3. Quatre tailles, une licence Apache 2.0, et la capacité pour le plus léger de fonctionner en temps réel sur un téléphone. Ces modèles entrent directement en compétition avec Llama de Meta et Qwen d'Alibaba sur le segment open source, désormais l'un des fronts les plus disputés de l'industrie de l'IA.


Illustration éditoriale de Gemma 4, famille de modèles open source Google DeepMind


Quatre variantes pour quatre usages distincts

Gemma 4 se décline en E2B (2 milliards de paramètres effectifs), E4B (4 milliards), 26B en architecture MoE (mélange d'experts), et 31B dense. Les deux premiers modèles ciblent les appareils mobiles. Le E2B est présenté comme trois fois plus rapide que le E4B et consomme 60 % moins de batterie que les précédentes versions de Gemma. Le 31B dense, lui, est dimensionné pour les postes de travail et les serveurs.

Tous les modèles intègrent nativement la compréhension du texte, des images et de la vidéo à des résolutions variables. Les variantes mobiles ajoutent la reconnaissance vocale directe. La fenêtre de contexte atteint 128 000 tokens pour les petits modèles, 256 000 pour les grands. Ces capacités, qui étaient réservées aux modèles propriétaires il y a encore un an, sont désormais disponibles sans restriction de licence pour les développeurs.

Google a également publié une intégration via l'AICore Developer Preview sur Android, permettant aux applications d'accéder aux modèles E2B et E4B directement depuis l'appareil, sans appel réseau.

Des benchmarks solides, avec des nuances

Sur l'Arena AI, le classement communautaire de référence, le 31B se positionne en troisième position parmi les modèles ouverts, et le 26B MoE en sixième. Les scores sont précis : 89,2 % sur AIME 2026 (mathématiques de compétition), 84,3 % sur GPQA Diamond (sciences), et un score Codeforces passant de 110 avec Gemma 3 à 2 150 avec Gemma 4, soit un facteur vingt en programmation compétitive.

Ces résultats se situent dans la catégorie frontier pour des modèles open source. Cependant, plusieurs observateurs notent que Gemma 4 reste derrière certains modèles chinois récents, dont GLM-5 de Zhipu AI, sur des benchmarks de raisonnement avancé. La concurrence internationale sur l'open source est devenue structurelle, et aucun acteur ne peut aujourd'hui prétendre dominer toutes les catégories.

La licence Apache 2.0 est un choix significatif. Elle autorise une utilisation commerciale sans restriction, contrairement à des licences comme celle de Llama 4 de Meta, qui imposent des conditions selon le nombre d'utilisateurs. Pour une startup ou un développeur indépendant, cela change concrètement la faisabilité d'un projet.

Ce que ça signifie pour vous

Pour un développeur ou un créateur, Gemma 4 ouvre plusieurs cas d'usage concrets. Un modèle multimodal de niveau frontier, disponible gratuitement, intégrable dans une application Android via l'AICore ou déployable localement sur un ordinateur personnel sans frais d'API ni dépendance à un service cloud.

Les limites sont réelles : sur smartphone, les tâches complexes resteront plus lentes qu'un appel API distant. Et sur serveur, les modèles 26B et 31B exigent une infrastructure GPU. Mais pour du traitement d'image embarqué, de la transcription hors connexion, ou de l'assistance à la rédaction sur des marchés à connectivité limitée, Gemma 4 propose une option que peu de modèles open source offraient jusqu'ici à ce niveau de performance.


Sources : Google DeepMind · 9to5Google · Hugging Face · WaveSpeedAI