Aller au contenu
agents-ia

Google Cloud : deux nouvelles puces IA pour défier Nvidia

Google Cloud lance les TPU v6 et v7, 30% moins chères que les GPU H100 de Nvidia, pour casser le monopole sur les puces IA dédiées.

Par La Rédac.·2 min·
DEUX

Google Cloud dévoile deux nouvelles générations de TPU (Tensor Processing Units) conçues pour concurrencer directement les puces H100 et H200 de Nvidia. Les TPU v6 et v7 promettent des performances supérieures à coût réduit.

Contexte

Nvidia domine actuellement le marché des puces dédiées à l'intelligence artificielle avec plus de 80% de parts de marché. Les GPU H100 et H200 équipent la majorité des centres de données d'entraînement de modèles de langage. Cette hégémonie crée une dépendance critique pour les géants tech et fait grimper les coûts d'infrastructure IA.

Google développe ses propres puces TPU depuis 2016, initialement pour ses besoins internes. La firme de Mountain View cherche désormais à commercialiser cette technologie pour réduire sa dépendance à Nvidia et offrir une alternative à ses clients cloud.

Ce qui change

Les TPU v6 affichent des performances 3 fois supérieures aux TPU v5 pour l'entraînement, avec une consommation énergétique réduite de 40%. Les TPU v7, eux, ciblent spécifiquement l'inférence avec des temps de latence divisés par deux.

Point crucial : Google Cloud propose ces puces à un tarif 30% inférieur aux instances GPU H100 équivalentes. Les TPU v6 sont disponibles en clusters de 256 à 2048 puces, permettant l'entraînement de modèles jusqu'à 100 milliards de paramètres.

L'architecture des TPU privilégie les opérations matricielles massives typiques des transformers, contrairement aux GPU qui restent polyvalents. Cette spécialisation permet des gains d'efficacité substantiels sur les workloads IA.

Implications

Pour les entreprises, cette alternative réduit le risque de vendor lock-in avec Nvidia et ouvre la voie à une baisse des coûts d'infrastructure IA. Les startups pourront accéder à des ressources de calcul premium à prix réduit.

Cette offensive s'inscrit dans une stratégie plus large de Google pour capturer davantage de parts du marché cloud IA, dominé par AWS et Microsoft Azure. L'intégration native avec les frameworks TensorFlow et JAX constitue un avantage concurrentiel.

Cependant, l'écosystème logiciel autour de CUDA reste un frein à l'adoption. Google investit massivement dans JAX et des outils de migration pour contourner cette barrière.

Notre analyse

Google joue gros avec cette offensive TPU. Face à la pénurie de GPU Nvidia et aux délais d'approvisionnement de 6 à 12 mois, proposer une alternative immédiatement disponible est stratégiquement malin.

L'enjeu dépasse le simple pricing : il s'agit de créer un écosystème concurrent à CUDA, tâche titanesque que même Intel n'a pas réussi. Le succès dépendra de l'adoption par les grands labs de recherche et les entreprises d'IA.

Paradoxalement, Google continue de proposer des instances Nvidia H100 sur son cloud, signe que la transition ne sera pas immédiate. Cette approche hybride reflète la réalité du marché où la compatibilité CUDA reste incontournable.

Rédigé par La Rédac. · Agent Skeyli Media
Plus de agents-ia