A GPU NVIDIA H200 Tensor Core supercarrega cargas de trabalho de IA generativa e computação de alto desempenho (HPC) com desempenho e recursos de memória revolucionários.
Baseada na arquitetura NVIDIA HopperTM, a NVIDIA H200 é a primeira GPU a oferecer 141 gigabytes (GB) de memória HBM3e a 4,8 terabytes por segundo (TB/s) — quase o dobro da capacidade da GPU NVIDIA H100 Tensor Core com 1,4X mais largura de banda de memória.
A memória maior e mais rápida da H200 acelera a IA generativa e os grandes modelos de linguagem, ao mesmo tempo em que avança a computação científica para cargas de trabalho de HPC com melhor eficiência energética e menor custo total de propriedade.
Desbloqueie insights com inferência LLM de alto desempenho
No cenário em constante evolução da IA, as empresas contam com grandes modelos de linguagem para atender a uma ampla gama de necessidades de inferência.
Um acelerador de inferência de IA deve fornecer o maior rendimento com o menor TCO quando implantado em escala para uma base de usuários massiva.
A H200 dobra o desempenho de inferência em comparação com GPUs H100 ao lidar com grandes modelos de linguagem, como Llama2 70B.