🚀 Partenariat AWS et NVIDIA : la mise en place de l'infrastructure la plus avancée pour les charges de travail d'IA générative avec des GPU
Le partenariat entre AWS et NVIDIA est de longue date et a permis la mise en place de l'infrastructure la plus avancée pour les charges de travail d'IA générative avec des GPU. Les deux entreprises ont travaillé en étroite collaboration pour intégrer leurs capacités de mise en réseau et de virtualisation avec les puces de NVIDIA afin de proposer des instances GPU aux clients. Et maintenant, elles étendent leur partenariat avec plus d'innovations qui vont offrir une infrastructure encore plus avancée pour les charges de travail d'IA générative avec des GPU.
💻 Extension du partenariat avec NVIDIA
La collaboration entre AWS et NVIDIA a lieu depuis de nombreuses années et a donné lieu à des statistiques incroyables. Au cours des dernières années seulement, pour les générations Ampere et Hopper, ils ont déployé deux millions de GPU dans AWS, ce qui équivaut à trois zettaflops ou trois mille supercalculateurs exascale. Et ils ne font que commencer.
Le partenariat commence avec de grands GPU et ils se développent incroyablement rapidement. Chaque trimestre, ils déploient plus d'un zettaflops supplémentaire dans AWS. Et tout cela est rendu possible grâce aux bibliothèques de calcul accéléré. Les deux équipes ont mis en place une multitude de nouvelles infrastructures, mais elles intègrent également leurs bibliothèques les plus populaires, la pile d'IA NVIDIA, leur cadre de modèle de langue large NeMo LLM, le modèle d'inférence Retriever pour RAGs, leur biologie numérique BioNeMo, les modèles de fondation de langue large, Isaac Sim sur Omniverse pour la robotique, et plus encore. Toutes ces piles de logiciels et bibliothèques vont être intégrées dans AWS.
🎉 Présentation de la nouvelle famille de GPU
La collaboration entre AWS et NVIDIA va permettre aux développeurs d'accéder à une technologie incroyable, et ils en auront besoin pour innover avec l'IA générative. L'une des grandes annonces est qu'AWS va être le premier fournisseur de cloud à proposer les dernières superpuces NVIDIA GH200 Grace Hopper avec un nouveau NVLink multi-nœuds dans le cloud. Le GH200 connecte deux processeurs révolutionnaires de manière unique en utilisant une interconnexion puce à puce appelée NVLink à une téraoctet par seconde. Il est connecté de manière cohérente de sorte que le GPU peut accéder à toute la mémoire du CPU et que le CPU peut accéder à toute la mémoire du GPU. Les deux processeurs peuvent travailler ensemble de manière très rapide.
La deuxième chose qu'ils ont faite est d'inventer une nouvelle façon d'étendre NVLink à un domaine très large. Maintenant, 32 Grace Hoppers peuvent être connectés par un tout nouveau commutateur NVLink, et cela devient une unité. Et avec Nitro, AWS Nitro, cela devient essentiellement une seule instance virtuelle de GPU géante. Imaginez avoir 32 H200, une puissance incroyable dans une seule instance virtuelle grâce à AWS Nitro. Et ensuite, ils le connectent avec AWS EFA, leur mise en réseau incroyablement rapide, et toutes ces unités peuvent maintenant créer un UltraCluster, un AWS UltraCluster.
🌟 NVIDIA DGX Cloud vers AWS
Dans le monde de l'IA générative, de nombreuses entreprises cherchent à intégrer l'IA dans leur entreprise. Et il est formidable de voir l'infrastructure, mais elle s'étend au logiciel, aux services et à tous les autres flux de travail qu'ils ont. Cela conduit à la deuxième grande annonce, la collaboration entre AWS et NVIDIA pour amener le NVIDIA DGX Cloud vers AWS.
DGX Cloud est l'usine d'IA de NVIDIA. C'est ainsi que leurs chercheurs font avancer l'IA. Ils utilisent l'IA pour faire de la graphique neuronale. La façon dont ils font la graphique informatique aujourd'hui est impossible sans l'IA. Ils utilisent leurs usines d'IA pour faire avancer leurs modèles de biologie numérique, leurs grands modèles de langue, les utiliser pour la robotique, pour les voitures autonomes. Ils l'utilisent pour simuler Earth Two, un jumeau numérique de la Terre pour prédire la météo et le climat. Et donc DGX Cloud est vraiment important pour eux. Ils sont incroyablement excités de construire la plus grande usine d'IA que NVIDIA ait jamais construite. Ils vont annoncer, à l'intérieur de leur entreprise, qu'ils l'appellent le projet Ceiba. Ceiba sera composé de 16 384 GPU connectés en un seul superordinateur d'IA géant. C'est absolument incroyable. Ils seront en mesure de réduire le temps de formation des plus grands modèles de langue, les prochaines générations de MOE, ces grands modèles extrêmement grands de mélange d'experts, et de les former en seulement la moitié du temps. Essentiellement, réduisant le coût de la formation en seulement un an de moitié. Maintenant, ils seront en mesure de former des modèles de MOE multi-modaux beaucoup plus grands, ces grands modèles de langue de prochaine génération. Ces 16 000 GPU seront de 65 exaflops. C'est comme 65 supercalculateurs exascale en un seul.
🤖 Amener l'IA aux entreprises
La collaboration entre AWS et NVIDIA va apporter d'incroyables avantages aux clients qui en auront vraiment besoin. L'infrastructure s'étend au logiciel, aux services et à tous les autres flux de travail que les entreprises ont. Il est formidable de pouvoir utiliser des modèles prêts à l'emploi, et il y aura toute une série de modèles prêts à l'emploi dans les clouds publics, les entreprises de plateforme logicielle, les entreprises SaaS, par exemple, Salesforce qu'ils ont mentionné plus tôt, ils auront toutes sortes de copilotes prêts à l'emploi et de modèles d'IA générative. Mais de nombreuses entreprises ont besoin de construire leurs propres modèles exclusifs. Et donc, ils ont mis en place l'usine d'IA pour pouvoir collaborer avec eux pour les aider à créer leurs propres IA personnalisées, et maintenant tout cela fonctionnera sur AWS. Ils développeront le modèle sur AWS, collaboreront avec leurs clients sur AWS, les connecteront tous à leurs services et services de stockage, services de sécurité, toutes sortes d'autres services d'IA générative, et les déploieront tous sur AWS. Ils seront en mesure de le faire pour la toute première fois sur AWS.
🎉 Points forts
- AWS et NVIDIA étendent leur partenariat pour offrir l'infrastructure la plus avancée pour les charges de travail d'IA générative avec des GPU.
- AWS va être le premier fournisseur de cloud à proposer les dernières superpuces NVIDIA GH200 Grace Hopper avec un nouveau NVLink multi-nœuds dans le cloud.
- NVIDIA DGX Cloud arrive sur AWS, et il va être