NVIDIA Anuncia a Arquitetura Hopper, a Plataforma de Computação Acelerada de Última Geração

O Novo Motor para a Infraestrutura de AI do Mundo, a GPU NVIDIA H100 Dá Grande Salto no Desempenho
por NVIDIA

GTC—Para impulsionar a nova onda de data centers de AI, a NVIDIA anunciou sua plataforma de computação acelerada de última geração com a arquitetura NVIDIA Hopper™, proporcionando um imenso salto de desempenho em relação à antecessora.

Batizada em homenagem a Grace Hopper, uma cientista da computação pioneira nos EUA, a nova arquitetura é a sucessora da arquitetura NVIDIA Ampere, lançada há dois anos.

A empresa também anunciou sua primeira GPU baseada na Hopper, a NVIDIA H100, com 80 bilhões de transistores. O maior e mais potente acelerador do mundo, a H100 tem recursos inovadores, como um revolucionário engine Transformer e uma interconexão NVIDIA NVLink® altamente dimensionável para o avanço de gigantescos modelos de linguagem de AI, sistemas de recomendação profundos, genômica e digital twins complexos.

“Os data centers estão se tornando fábricas de AI, processando e refinando montanhas de dados para produzir inteligência”, conta Jensen Huang, fundador e CEO da NVIDIA. “A NVIDIA H100 é o motor da infraestrutura de AI utilizado por empresas de todo o mundo para acelerar seus negócios orientados por AI.”

Avanços Tecnológicos da H100

A GPU NVIDIA H100 estabelece um novo padrão na aceleração de AI e HPC em grande escala, oferecendo seis inovações revolucionárias:

  • O Chip Mais Avançado do Mundo: construído com 80 bilhões de transistores usando um processo TSMC 4N de ponta projetado para as necessidades de computação aceleradas da NVIDIA, a H100 apresenta grandes avanços para acelerar AI, HPC, largura de banda de memória, interconexão e comunicação, incluindo quase 5 terabytes por segundo de conectividade externa. A H100 é a primeira GPU a oferecer suporte para PCIe 5.0 e a primeira a usar o HBM3, possibilitando uma largura de banda de memória de 3TB/s. Vinte GPUs H100 são capazes de sustentar o equivalente ao tráfego de Internet de todo o mundo, possibilitando que os clientes ofereçam sistemas de recomendação avançados e grandes modelos de linguagem executando inferência de dados em tempo real.
  • Novo Engine Transformer: atualmente o modelo padrão para o processamento de linguagem natural, o Transformer é um dos mais importantes modelos de deep learning já criados. O engine Transformer do acelerador H100 foi desenvolvido para acelerar essas redes em até 6 vezes, em relação à geração anterior sem prejuízos à precisão.
  • GPU Multi-Instância Segura de 2ª Geração: a tecnologia MIG permite particionar uma única GPU em sete instâncias menores e totalmente isoladas para executar diferentes tarefas. A arquitetura Hopper amplia os recursos da MIG em até 7 vezes em relação à geração anterior, oferecendo configurações seguras multitenant em ambientes de cloud em cada instância de GPU.
  • Computação Confidencial: a H100 é o primeiro acelerador do mundo com recursos de computação confidenciais para proteger modelos de AI e dados de clientes durante o processamento. Os clientes também podem aplicar computação confidencial à aprendizagem federada em setores que dependem de privacidade, como a área de saúde e serviços financeiros, bem como em infraestruturas de cloud compartilhadas.
  • NVIDIA NVLink de 4ª geração: para acelerar grandes modelos de AI, o NVLink trabalha com um novo Switch NVLink externo para estender o NVLink como uma rede para ampliação além do servidor, conectando até 256 GPUs H100 com uma largura de banda 9 vezes maior em relação à geração anterior, utilizando o NVIDIA HDR Quantum InfiniBand.
  • Instruções DPX: usadas em diversos algoritmos, incluindo otimização de rotas e genômica, as novas instruções DPX aceleram a programação dinâmica em até 40 vezes, em comparação com CPUs, e até 7 vezes em comparação com as GPUs da geração anterior. Isso inclui o algoritmo de Floyd-Warshall para encontrar as rotas ideais para frotas de robôs autônomos em ambientes dinâmicos de depósito e o algoritmo de Smith-Waterman usado no alinhamento de sequências para classificação e enovelamento de DNA e proteínas.

As inovações tecnológicas combinadas da H100 ampliam a liderança de inferência e treinamento em AI da NVIDIA para permitir aplicações imersivas e em tempo real usando modelos de AI de escala gigante. Com a H100, é possível ter chatbots que usam o modelo de linguagem monolítico de transformadores mais avançado do mundo, o Megatron 530B, com taxa de processamento até 30 vezes maior do que a geração anterior, além de atingir a latência de menos de um segundo necessária para AI conversacional em tempo real. A H100 também permite que pesquisadores e desenvolvedores treinem modelos enormes, como o Mixture of Experts, com 395 bilhões de parâmetros, até 9 vezes mais rápido, reduzindo de semanas para dias o tempo de treinamento.

Ampla Adoção da NVIDIA H100

A NVIDIA H100 pode ser implantada em todos os tipos de data center, incluindo on-premises, no cloud, no cloud híbrido e no edge. Ainda este ano, ela poderá ser encontrada diretamente na NVIDIA e em todo o mundo, nos principais fornecedores de serviço em cloud e fabricantes de computadores.

O sistema DGX™ de quarta geração da NVIDIA, o DGX H100, conta com oito GPUs H100 para oferecer 32 petaflops de desempenho de AI com nova precisão de FP8, proporcionando a escala necessária para os enormes requisitos computacionais de grandes modelos de linguagem, sistemas de recomendação, pesquisas na área da saúde e ciência climática.

Todas as GPUs de sistemas DGX H100 são conectadas pela NVLink de quarta geração, oferecendo conectividade de 900GB/s, 1,5 vez maior que a geração anterior. O NVSwitch™ permite que todas as oito GPUs H100 se conectem por NVLink. Um novo switch externo NVLink pode conectar até 32 nós DGX H100 nos supercomputadores NVIDIA DGX SuperPOD™ de última geração.

A Hopper recebeu amplo apoio do setor dos principais provedores de serviço em cloud, Alibaba Cloud, Amazon Web Services, Baidu AI Cloud, Google Cloud, Microsoft Azure, Oracle Cloud e Tencent Cloud, que planejam oferecer instâncias baseadas em H100.

Vários servidores com aceleradores H100 são esperados dos principais fabricantes de sistemas do mundo, incluindo Atos, BOXX Technologies, Cisco, Dell Technologies, Fujitsu, GIGABYTE, New H3C Information Technologies, Hewlett Packard EnterpriseInspur Electronic Information, Lenovo, Nettrix e Supermicro.

NVIDIA H100 em Todas as Escalas

A H100 virá em formatos SXM e PCIe para oferecer suporte a diversos requisitos de design de servidor. Também haverá um acelerador convergente disponível, emparelhando uma GPU H100 com uma NVIDIA ConnectX®-7 de 400Gb/s InfiniBand e Ethernet SmartNIC.

A H100 SXM da NVIDIA estará disponível em placas de servidores HGX™ H100 com configurações de quatro e oito vias para empresas com aplicações dimensionadas para várias GPUs em um servidor e em vários servidores. Os servidores baseados em HGX H100 oferecem o mais alto desempenho de aplicações para treinamento e inferência de AI, além de aplicações de análise de dados e HPC.

A H100 PCIe, com NVLink para conectar duas GPUs, oferece uma largura de banda 7 vezes maior do que o PCIe 5.0, proporcionando excelente desempenho para aplicações executadas em servidores empresariais tradicionais. O formato facilita a integração à infraestrutura de data center existente.

O H100 CNX, um novo acelerador convergente, combina uma H100 com um SmartNIC ConnectX-7 para oferecer desempenho inovador para aplicações com uso intensivo de I/O, como treinamento de AI de vários nós em data centers empresariais e processamento de sinais 5G no edge.

As GPUs com arquitetura baseada na NVIDIA Hopper também podem ser pareadas com CPUs NVIDIA Grace™ com uma interconexão NVLink-C2C ultrarrápida para uma comunicação mais de 7 vezes mais rápida entre a CPU e a GPU em relação ao PCIe 5.0. Essa combinação, a Grace Maximize Superchip, é um módulo integrado projetado para atender a aplicações de HPC e AI em escala gigante.

Suporte de Software da NVIDIA

A GPU NVIDIA H100 é compatível com avançadas ferramentas de software que permitem que desenvolvedores e empresas criem e acelerem aplicações de AI a HPC. Isso inclui grandes atualizações para o pacote de software NVIDIA AI para cargas de trabalho como fala, sistemas de recomendação e inferência de hiperescala.

A NVIDIA também lançou mais de 60 atualizações para sua coleção CUDA-X™ de bibliotecas, ferramentas e tecnologias para a aceleração de trabalhos em computação quântica e pesquisa em 6G, cibersegurança, genômica e descoberta de medicamentos.

Disponibilidade

O NVIDIA H100 estará disponível a partir do terceiro trimestre.