Rendimiento, escalabilidad y seguridad extraordinarios en todos los centros de datos.
Aprovecha el rendimiento, la escalabilidad y la seguridad excepcionales para cada carga de trabajo con la GPU NVIDIA H100 Tensor Core. El NVIDIA NVLink™ Switch Systempermite conectar hasta 256 GPU H100 para acelerar las cargas de trabajo de exaescala. La GPU también incluye un motor transformador dedicado para resolver modelos lingüísticos de billones de parámetros. Las innovaciones tecnológicas combinadas de H100 pueden multiplicar por 30 la aceleración de los modelos lingüísticos de gran tamaño (LLM), algo increíble con respecto a la generación anterior, para ofrecer IA conversacional líder del sector.
Para LLM con hasta 175 000 millones de parámetros, el puente H100 NVL basado en PCIe con NVLink utiliza el motor transformador, NVLink y memoria HBM3 de 188 GB para ofrecer un rendimiento óptimo y un escalado sencillo en cualquier centro de datos, lo que favorece la adopción generalizada de los LLM. Los servidores equipados con GPU H100 NVL aumentan el rendimiento del modelo GPT-175B hasta 12 veces con respecto a los sistemas NVIDIA DGX™ A100, al tiempo que mantienen una baja latencia en entornos de centros de datos con restricciones energéticas.
La adopción empresarial de la IA ahora es convencional y las organizaciones necesitan una infraestructura integral lista para la IA que los acelere en esta nueva era.
H100 para servidores convencionales incluye una suscripción de cinco años, incluido el soporte empresarial, al conjunto de software NVIDIA AI Enterprise, lo que simplifica la adopción de IA con el mayor rendimiento. Esto garantiza que las organizaciones tengan acceso a los marcos de IA y a las herramientas que necesitan para crear flujos de trabajo de IA acelerados por H100, como chatbots de IA, motores de recomendación, IA de visión y mucho más.
Rendimiento previsto sujeto a cambios. Entrenamiento en GPT-3 175B clúster A100: red HDR IB, clúster H100: red NDR IB | Combinación de entrenamiento de expertos (MoE) variante de Switch-XXL del transformador con parámetros de 395B en conjunto de datos de token 1T, Clúster A100: red HDR IB, Clúster H100: red NDR IB con sistema de conmutación NVLink donde se indique.
La H100 cuenta con Tensor Cores de cuarta generación y un motor transformador con precisión FP8 que ofrece un entrenamiento hasta 4 veces más rápido con respecto a la generación anterior para modelos GPT-3 (175B). La combinación de NVLink de cuarta generación, que ofrece 900 gigabytes por segundo (GB/s) de interconexión GPU a GPU; la red InfiniBand NDR Quantum-2, que acelera la comunicación de cada GPU entre nodos; PCIe Gen5; y el software NVIDIA Magnum IO™ que proporciona escalabilidad eficiente desde pequeños sistemas empresariales hasta clústeres de GPU masivos y unificados.
La implementación de GPU H100 a escala de centro de datos ofrece un rendimiento sin precedentes y pone al alcance de todos los investigadores la nueva generación de computación de alto rendimiento (HPC) a exaescala y una IA con billones de parámetros.
La IA resuelve una amplia variedad de desafíos empresariales, utilizando una amplia gama de redes neuronales. Un gran acelerador de inferencia de IA no solo ofrece el mayor rendimiento, sino también la versatilidad para acelerar estas redes.
H100 amplía el liderazgo de inferencia líder en el mercado de NVIDIA con varios avances que aceleran la inferencia hasta 30 veces y ofrecen la latencia más baja. Los Tensor Cores de cuarta generación aceleran todas las precisiones, incluidas FP64, TF32, FP32, FP16, INT8 y, ahora, FP8, para reducir el uso de memoria y aumentar el rendimiento sin perder precisión para los LLM.
Inferencia de Megatron Chatbot (530 000 millones de parámetros)
Rendimiento previsto sujeto a cambios. Inferencia en un chatbot basado en el modelo de parámetros Megatron 530B para longitud de secuencia de entrada= 128, longitud de secuencia de salida= 20 | Clúster A100: red HDR IB | Clúster H100: sistema de conmutadores NVLink, NDR IB
Rendimiento previsto sujeto a cambios. Rendimiento 3D FFT (4K^3) | Clúster A100: red HDR IB | Clúster H100: sistema de conmutaciones NVLink, NDR IB | Secuenciación del genoma (Smith-Waterman) | 1 A100 | 1 H100
La plataforma de centros de datos NVIDIA ofrece constantemente mejoras de rendimiento más allá de la ley de Moore. Y las nuevas y revolucionarias capacidades de IA de H100 amplían aún más la potencia de HPC+IA para acelerar el tiempo de descubrimiento para científicos e investigadores que trabajan en resolver los retos más importantes del mundo.
H100 triplica las operaciones de punto flotante por segundo (FLOPS) de Tensor Cores de doble precisión, lo que ofrece 60 teraflops de computación FP64 para HPC. Las aplicaciones HPC fusionadas con IA también pueden aprovechar la precisión TF32 de H100 para lograr un petaflop de rendimiento para operaciones de multiplicación de matriz de precisión única, sin cambios de código.
H100 también incorpora nuevas instrucciones DPX que multiplican por 7 el rendimiento de A100 y por 40 el de las CPU en algoritmos de programación dinámicos como Smith-Waterman para la alineación de secuencias de ADN y de proteínas para la predicción de su estructura.
Comparación de instrucciones de DPX de 4 GPU NVIDIA HGX™ H100 frente a 32 núcleos IceLake de doble socket
El análisis de datos suele consumir la mayor parte del tiempo en el desarrollo de aplicaciones de IA. Dado que los conjuntos de datos de gran tamaño se encuentran dispersos en varios servidores, las soluciones de escalado horizontal con servidores con solo CPU básica se detienen por la falta de rendimiento computacional escalable.
Los servidores acelerados con H100 ofrecen la potencia de computación, junto con 3 terabytes por segundo (TB/s) de ancho de banda de memoria por GPU y escalabilidad con NVLink y NVSwitch™, para abordar el análisis de datos con alto rendimiento y escala para admitir conjuntos de datos masivos. En combinación con NVIDIA Quantum-2 InfiniBand, el software Magnum IO, Spark 3.0 acelerado por GPU y NVIDIA RAPIDS™, la plataforma de centro de datos NVIDIA es la única capaz de acelerar estas enormes cargas de trabajo con mayor rendimiento y eficiencia.
Los responsables de TI buscan maximizar el uso (tanto máximo como medio) de los recursos de computación en el centro de datos. A menudo, emplean reconfiguración dinámica de computación a recursos de tamaño adecuado para cargas de trabajo en uso.
H100 con MIG permite a los administradores de infraestructura estandarizar su infraestructura acelerada por GPU al mismo tiempo que tienen la flexibilidad de aprovisionar recursos de GPU con mayor granularidad para proporcionar de forma segura a los desarrolladores la cantidad adecuada de computación acelerada y optimizar el uso de todos sus recursos de GPU.
Las soluciones de computación confidencial tradicionales se basan en la CPU, lo que resulta demasiado limitado para cargas de trabajo intensivas en computación como la IA a escala. La computación confidencial de NVIDIA es una característica de seguridad integrada en la arquitectura NVIDIA Hopper™ que ha convertido a H100 en el primer acelerador del mundo con estas capacidades. Con NVIDIA Blackwell, la oportunidad de aumentar exponencialmente el rendimiento al tiempo que se protege la confidencialidad e integridad de los datos y las aplicaciones en uso tiene la capacidad de desvelar información sobre los datos como nunca antes. Ahora los clientes pueden utilizar un entorno de ejecución de confianza (TEE) basado en hardware que protege y aísla toda la carga de trabajo de la forma más eficaz.
La GPU Hopper Tensor Core impulsará la arquitectura CPU+GPU NVIDIA Grace Hopper, diseñada específicamente para la computación acelerada a escala de terabytes y que proporciona 10 veces más rendimiento en modelos de gran tamaño de IA y HPC. La CPU NVIDIA Grace aprovecha la flexibilidad de la arquitectura Arm® para crear una arquitectura de CPU y servidor diseñada desde cero para la computación acelerada. La GPU Hopper se combina con la CPU Grace utilizando la interconexión ultrarrápida chip a chip de NVIDIA, que ofrece 900 GB/s de ancho de banda, 7 veces más rápido que PCIe Gen5. Este innovador diseño ofrecerá hasta 30 veces más ancho de banda agregado de memoria del sistema a la GPU en comparación con los servidores más rápidos de hoy en día y un rendimiento hasta 10 veces superior para aplicaciones que ejecutan terabytes de datos.
Formato | H100 SXM | H100 PCIe | H100 NVL1 |
---|---|---|---|
FP64 | 34 teraFLOPS | 26 teraFLOPS | 68 teraFLOPs |
Tensor Core de FP64 | 67 teraFLOPS | 51 teraFLOPS | 134 teraFLOPs |
FP32 | 67 teraFLOPS | 51 teraFLOPS | 134 teraFLOPs |
Tensor Core de TF32 | 989 teraFLOPS2 | 756 teraFLOPS2 | 1979 teraFLOPs2 |
Tensor Core de BFLOAT16 | 1979 teraFLOPS2 | 1513 teraFLOPS2 | 3958 teraFLOPs2 |
Tensor Core de FP16 | 1979 teraFLOPS2 | 1513 teraFLOPS2 | 3958 teraFLOPs2 |
Tensor Core de FP8 | 3958 teraFLOPS2 | 3026 teraFLOPS2 | 7916 teraFLOPs2 |
Tensor Core de INT8 | 3958 TOPS2 | 3026 TOPS2 | 7916 TOPS2 |
Memoria de la GPU | 80GB | 80GB | 188GB |
Ancho de banda de memoria de la GPU | 3.35TB/s | 2TB/s | 7.8TB/s3 |
Decodificadores | 7 NVDEC 7 JPEG |
7 NVDEC 7 JPEG |
14 NVDEC 14 JPEG |
Potencia máxima de diseño térmico (TDP) | Hasta 700 W (configurable) | 300-350 W (configurable) | 2 de 350 a 400 W (configurable) |
GPU de varias instancias | Hasta 7 MIG a 10 GB cada uno | Hasta 14 MIGS a 12 GB cada uno | |
Formato | SXM | PCIe Refrigeración por aire de dos ranuras |
2 PCIe con refrigeración por aire de dos ranuras |
Interconexión | NVLink: 900GB/s PCIe Gen5: 128GB/s |
NVLink: 600GB/s PCIe Gen5: 128GB/s |
NVLink: 600GB/s PCIe Gen5: 128GB/s |
Opciones del servidor | Sistemas partners de NVIDIA HGX™ H100 y NVIDIA-Certified Systems™ con 4 u 8 GPU NVIDIA DGX™ H100 con 8 GPU | Sistemas certificados por NVIDIA y partners con entre 1 y 8 GPU | Sistemas certificados por NVIDIA y partners con 2-4 pares |
NVIDIA AI Enterprise | Complemento | Incluido | Incluido |
Sumérgete en la arquitectura NVIDIA Hopper.