Expanda as fronteiras da inovação e otimização de negócios com NVIDIA DGX™ H100. Parte da plataforma DGX, o DGX H100 é a potência de IA que é baseada no NVIDIA DGX SuperPOD™, acelerada pelo desempenho inovador da GPU NVIDIA H100 Tensor Core.
Key Features
>NVIDIA HGX H100 and HGX H200 ( variações )
> Transformer Engine
> Fourth-generation NVIDIA NVLink
> NVIDIA Confidential Computing
> NVIDIA Multi-Instance GPU (MIG)
> DPX Instructions
Em estoque no nosso parceiro, no entanto, os prazos de entrega podem ser de cerca de 8 a 12 semanas, independentemente, devido ao arquivamento da certificação EUS sobre os requisitos de exportação. Disponibilidade, preços e alocações podem flutuar diariamente. Todas as vendas são finais. Sem devoluções ou cancelamentos.
Desenvolvido especificamente para IA e computação de alto desempenho
IA, simulações complexas e conjuntos de dados massivos exigem várias GPUs com interconexões extremamente rápidas e uma pilha de software totalmente acelerada.
A plataforma de supercomputação NVIDIA HGXTM AI reúne todo o poder das GPUs NVIDIA, NVIDIA NVLinkTM, rede NVIDIA e pilhas de software de IA e computação de alto desempenho (HPC) totalmente otimizadas para fornecer o mais alto desempenho de aplicativo e gerar o tempo mais rápido para insights.
Plataforma de computação acelerada de ponta a ponta incomparável
A NVIDIA HGX H200 combina GPUs H200 Tensor Core com interconexões de alta velocidade para formar os servidores mais poderosos do mundo.
Configurações de até oito GPUs oferecem aceleração sem precedentes, com até 1,1 terabytes (TB) de memória de GPU e 38 terabytes por segundo (TB/s) de largura de banda de memória agregada.
Isso combinado com impressionantes 32 petaFLOPS de desempenho cria a plataforma de servidor de expansão acelerada mais poderosa do mundo para IA e HPC.
Tanto o HGX H200 quanto o HGX H100 incluem opções de rede avançadas — em velocidades de até 400 gigabits por segundo (Gb/s) — utilizando NVIDIA Quantum-2 InfiniBand e SpectrumTM-X Ethernet para o mais alto desempenho de IA. O HGX H200 e o HGX H100 também incluem unidades de processamento de dados (DPUs) NVIDIA® BlueField®-3 para habilitar rede em nuvem, armazenamento componível, segurança de confiança zero e elasticidade de computação de GPU em nuvens de IA em hiperescala.
Inferência de aprendizado profundo: desempenho e versatilidade
A IA resolve uma ampla gama de desafios de negócios usando uma gama igualmente ampla de redes neurais.
Um ótimo acelerador de inferência de IA precisa não apenas fornecer o mais alto desempenho, mas também a versatilidade necessária para acelerar essas redes em qualquer local que os clientes escolherem para implantá-las, do data center à borda.
HGX H200 e HGX H100 estendem a liderança de mercado em inferência da NVIDIA.
Treinamento de Deep Learning: Desempenho e Escalabilidade
As GPUs NVIDIA H200 e H100 apresentam o Transformer Engine, com precisão FP8, que fornece treinamento até 5X mais rápido em relação à geração anterior de GPU para modelos de linguagem grandes.
A combinação do NVLink de quarta geração — que oferece 900 GB/s de interconexão GPU-a-GPU — PCIe Gen5 e o software NVIDIA Magnum IOTM oferece escalabilidade eficiente, de pequenas empresas a enormes clusters de GPU unificados.
Esses avanços de infraestrutura, trabalhando em conjunto com o pacote de software NVIDIA AI Enterprise, tornam o HGX H200 e o HGX H100 a plataforma de computação de IA líder mundial.