Logo Techpacquito

TECHPACQUITO

← Retour à l'actualité
10 avril 2026

3 min de lecture

Google parie sur Intel pour l'inférence IA : les CPU reviennent en grâce

Google déploie les puces Xeon 6 d'Intel dans ses datacenters et co-développe des IPUs. Un partenariat qui redonne un rôle central aux CPU dans l'infrastructure IA.

HardwareGoogle

Google parie sur Intel pour l'inférence IA : les CPU reviennent en grâce

Le 9 avril 2026, Google et Intel ont annoncé l'extension de leur partenariat autour des puces destinées à l'infrastructure IA. Google s'engage à déployer plusieurs générations de processeurs Intel, dont le dernier Xeon 6, dans ses centres de données. Les deux entreprises approfondissent également la co-conception d'IPUs, des unités de traitement d'infrastructure en développement commun depuis 2022.


Serveur de datacenter éclairé par une lueur terracotta dans un environnement sombre quasi-noir


Les CPU, oubliés de la course IA, reprennent du terrain

Depuis 2022, la narration dominante autour de l'infrastructure IA tourne presque exclusivement autour des GPU. NVIDIA a capté l'essentiel de l'attention et des budgets d'investissement, tandis qu'Intel traversait une période difficile, marquée par des retards de production et des restructurations internes.

Ce partenariat avec Google change partiellement ce récit. Google s'engage à utiliser les Xeon 6 d'Intel pour des charges variées : l'inférence IA, les tâches de calcul général et les opérations réseau. Les IPUs, quant à eux, servent à décharger les CPU hôtes des fonctions réseau, stockage et sécurité. Lip-Bu Tan, directeur général d'Intel, a formulé la position clairement : "Faire passer l'IA à l'échelle demande plus que des accélérateurs ; cela demande des systèmes équilibrés."

L'accord intervient dans un contexte précis. La capacité de production en 3nm de TSMC est réservée jusqu'en 2028, ce qui pousse plusieurs acteurs à diversifier leurs fournisseurs. Intel, qui avance en parallèle sur sa propre fonderie avec un investissement de 14,2 milliards de dollars rachetés sur sa co-entreprise en Irlande, se repositionne comme alternative crédible.

Un virage structurel dans l'usage de l'IA

Le choix de Google n'est pas uniquement tactique. Il reflète une mutation dans la manière dont les grandes entreprises utilisent l'IA. En 2023 et 2024, la priorité était l'entraînement : des GPU par milliers, des clusters à plusieurs milliards de paramètres. En 2026, l'inférence domine. Les modèles sont entraînés une fois ; ils tournent en continu, à chaque requête utilisateur.

Pour l'inférence, les GPU restent pertinents, mais leur coût et leur consommation électrique pèsent lourd à l'échelle. Les CPU modernes, avec leur polyvalence et leur rapport coût-performance pour des charges mixtes, retrouvent une place dans les architectures hybrides. Les IPUs co-développés par Google et Intel s'inscrivent dans cette logique : externaliser les tâches périphériques pour libérer les accélérateurs spécialisés.

Ce réequilibrage ne signifie pas la fin du GPU comme pièce maîtresse de l'infrastructure IA. Il indique plutôt que la stack complète se complexifie. À côté des GPU NVIDIA (Blackwell, puis Vera Rubin), des TPU Google, des puces Trainium d'Amazon et des futurs processeurs TERAFAB de SpaceX et Tesla, les CPU Intel retrouvent un espace défini.

Ce que ça signifie pour vous

Pour un développeur ou une équipe qui construit sur des APIs IA, ce partenariat a une conséquence concrète : les coûts d'inférence chez Google Cloud pourraient baisser à moyen terme, à mesure que les architectures mixtes CPU-GPU optimisent les ressources. Pour les entreprises qui internalisent leur infrastructure, cela ouvre la voie à des déploiements on-premise moins dépendants des GPU haut de gamme, en substituant des charges légères sur des Xeon 6. Le message plus large reste celui de la diversification : aucun fournisseur unique ne contrôle la chaîne IA.


Sources : TechCrunch · CNBC · Knowledge Hub Media