Chaque jour, du lundi au samedi, recevez le plus punchy et pertinent de l’info des marchés.
Le géant des semi-conducteurs Nvidia a officiellement lancé sa plateforme IA de nouvelle génération nommée Rubin lors du CES 2026 à Las Vegas, marquant une étape clé dans son ambition de redéfinir l’infrastructure d’intelligence artificielle pour les grandes entreprises et centres de données.
La plateforme Rubin se distingue par une conception « extrêmement intégrée » qui combine six puces, notamment le CPU Vera, le GPU Rubin, le commutateur NVLink 6, le SuperNIC ConnectX-9, le BlueField-4 DPU et le Spectrum-6 Ethernet Switch, pour former ce que Nvidia décrit comme un super-ordinateur AI optimisé pour l’entraînement et l’inférence de modèles à très grande échelle.
Selon Nvidia, cette architecture permet de réduire jusqu’à 10 fois les coûts d’inférence par token et nécessite quatre fois moins de GPU pour entraîner certains modèles complexes que sa précédente plateforme Blackwell, tout en améliorant la bande passante et l’efficacité énergétique dans les centres de calcul.
Nvidia investit 5 milliards $ dans Intel
Conçue pour répondre à la demande croissante en puissance de calcul pour l’IA avancée, notamment les modèles mixture-of-experts (MoE), les systèmes de raisonnement et les architectures multi-modalité, la plateforme Rubin offre une réduction significative des coûts d’exploitation, un facteur crucial pour les entreprises qui déploient des applications IA à grande échelle.
La société affirme également viser une adoption rapide par les fournisseurs de cloud et les data centers hyperscale, avec des partenaires comme Microsoft Azure, AWS, Google Cloud et CoreWeave qui prévoient d’intégrer Rubin dans leurs infrastructures dès la seconde moitié de 2026.
Inscrivez-vous et bénéficiez d'un accès gratuit aux contenus Premium pendant 1 mois
Je suis déjà abonné(e) ou inscrit(e) au Revenu, je me connecte