🚀 Asociación entre AWS y NVIDIA: La infraestructura más avanzada para cargas de trabajo de IA generativa con GPUs
La asociación entre AWS y NVIDIA ha sido duradera y ha dado lugar a una de las infraestructuras más avanzadas para cargas de trabajo de IA generativa con GPUs. Ambas compañías han trabajado estrechamente para integrar sus capacidades de redes y virtualización con los chips de NVIDIA para ofrecer instancias de GPU a los clientes. Hoy en día, la asociación se está expandiendo con más innovaciones que proporcionarán una infraestructura aún más avanzada para cargas de trabajo de IA generativa con GPUs.
💻 Ampliando la asociación con NVIDIA
La colaboración entre AWS y NVIDIA ha sido increíble y ha estado ocurriendo durante muchos años. Los dos equipos han estado colaborando estrechamente y la colaboración se está profundizando aún más. La asociación ha resultado en la implementación de dos millones de GPUs en AWS solo en los últimos años, lo cual es una estadística asombrosa. Las dos compañías están empezando y anuncian la implementación de una nueva familia completa de GPUs, incluyendo la L4, la L40S y la nueva H200.
🤖 La H200: Un cambio de juego para la IA generativa
La H200 es un cambio de juego para la IA generativa. La combinación de los nuevos compiladores optimizados Tensor RT LLM para IA generativa y la H200 mejora el rendimiento de la inferencia, la inferencia de modelos de lenguaje grandes, en un factor de cuatro, reduciendo el costo en solo un año en un factor de cuatro. La colaboración entre AWS y NVIDIA comienza con excelentes GPUs y las dos compañías están aumentando rápidamente. Cada trimestre, están implementando más de un zettaflop adicional en AWS.
📚 NVIDIA AI Stack y bibliotecas
Las bibliotecas de cómputo acelerado han hecho posible todo esto. Los dos equipos han implementado una gran cantidad de nueva infraestructura, pero también están trayendo sus bibliotecas más populares, el conjunto de herramientas de IA de NVIDIA, su NeMo LLM, un marco de modelos de lenguaje grandes, el modelo de inferencia Retriever para RAGs, su BioNeMo de biología digital, modelos fundamentales de lenguaje grandes, Isaac Sim en Omniverse para robótica y más. Todos estos conjuntos de software y bibliotecas se integrarán en AWS.
💪 NVIDIA GH200 Grace Hopper Superchips
AWS será el primer proveedor de servicios en la nube en ofrecer los últimos superchips NVIDIA GH200 Grace Hopper con un nuevo NVLink multinodo en la nube. Los GH200 van a potenciar lo que los clientes están haciendo y lo necesitarán para innovar con IA generativa. Los GH200 estarán disponibles próximamente en instancias EC2.
🌩️ NVIDIA DGX Cloud
AWS y NVIDIA se asocian para llevar la NVIDIA DGX Cloud a AWS. La DGX Cloud es la fábrica de IA de NVIDIA y es cómo sus investigadores avanzan en la IA. Utilizan la IA para hacer gráficos neuronales y utilizan sus fábricas de IA para avanzar en sus modelos de biología digital, sus modelos de lenguaje grandes, utilizarla en robótica, en autos autónomos y más. La DGX Cloud es realmente importante para NVIDIA y están muy emocionados de construir la fábrica de IA más grande que NVIDIA haya construido. Van a anunciar el Proyecto Ceiba, que consistirá en 16,384 GPUs conectadas en un supercomputador de IA gigante. Esto es absolutamente increíble y reducirá el tiempo de entrenamiento de los modelos de lenguaje más grandes, los MOEs de próxima generación, estos modelos grandes y extremadamente grandes de mezcla de expertos, y podrán entrenarlos en solo la mitad del tiempo.
🤔 Preguntas frecuentes
P: ¿Cuál es la asociación entre AWS y NVIDIA?
R: La asociación entre AWS y NVIDIA ha dado lugar a una de las infraestructuras más avanzadas para cargas de trabajo de IA generativa con GPUs.
P: ¿Qué es la H200?
R: La H200 es un cambio de juego para la IA generativa. La combinación de los nuevos compiladores optimizados Tensor RT LLM para IA generativa y la H200 mejora el rendimiento de la inferencia, la inferencia de modelos de lenguaje grandes, en un factor de cuatro, reduciendo el costo en solo un año en un factor de cuatro.
P: ¿Qué es la NVIDIA DGX Cloud?
R: La NVIDIA DGX Cloud es la fábrica de IA de NVIDIA y es cómo sus investigadores avanzan en la IA. Utilizan la IA para hacer gráficos neuronales y utilizan sus fábricas de IA para avanzar en sus modelos de biología digital, sus modelos de lenguaje grandes, utilizarla en robótica, en autos autónomos y más.
P: ¿Qué es el Proyecto Ceiba?
R: El Proyecto Ceiba consistirá en 16,384 GPUs conectadas en un supercomputador de IA gigante. Esto reducirá el tiempo de entrenamiento de los modelos de lenguaje más grandes, los MOEs de próxima generación, estos modelos grandes y extremadamente grandes de mezcla de expertos, y podrán entrenarlos en solo la mitad del tiempo.
P: ¿Qué son los superchips NVIDIA GH200 Grace Hopper?
R: Los superchips NVIDIA GH200 Grace Hopper van a potenciar lo que los clientes están haciendo y lo necesitarán para innovar con IA generativa. Los GH200 estarán disponibles próximamente en instancias EC2.
P: ¿Qué es el conjunto de herramientas de IA y las bibliotecas de NVIDIA?
R: El conjunto de herramientas de IA y las bibliotecas de NVIDIA se integrarán en AWS. Incluyen el NeMo LLM, un marco de modelos de lenguaje grandes, el modelo de inferencia Retriever para RAGs, su BioNeMo de biología digital, modelos fundamentales de lenguaje grandes, Isaac Sim en Omniverse para robótica y más.
P: ¿Qué es la colaboración entre AWS y NVIDIA?
R: La colaboración entre AWS y NVIDIA ha sido increíble y ha estado ocurriendo durante muchos años. Los dos equipos han estado colaborando estrechamente y la colaboración se está profundizando aún más.
P: ¿Qué es la NVIDIA DGX Cloud?
R: La NVIDIA DGX Cloud es la fábrica de IA de NVIDIA y es cómo sus investigadores avanzan en la IA. Utilizan la IA para hacer gráficos neuronales y utilizan sus fábricas de IA para avanzar en sus modelos de biología digital, sus modelos de lenguaje grandes, utilizarla en robótica, en autos autónomos y más.
P: ¿Qué es la asociación entre AWS y NVIDIA?
R: La asociación entre AWS y NVIDIA ha dado lugar a una de las infraestructuras más avanzadas para cargas de trabajo de IA generativa con GPUs.