Centros de HPC de Todo o Mundo Adotam Supercomputação de AI da NVIDIA

Saiba como a arquitetura NVIDIA Ampere e as redes Mellanox InfiniBand estão contribuindo para os avanços na supercomputação de AI ao redor do mundo.
por Dion Harris

Centros de supercomputação de todo o mundo estão adotando a Arquitetura de GPU NVIDIA Ampere para atender às demandas cada vez mais exigentes dos modelos maiores de AI em todas as atividades, desde a descoberta de medicamentos até a pesquisa energética.

Participante do movimento, a Fujitsu anunciou um novo sistema de exaescala para o AI Bridging Cloud Infrastructure (ABCI), que se encontra no Japão e oferece um desempenho de 600 petaflops no National Institute of Advanced Industrial Science and Technology.

O sistema foi lançado devido ao crescimento da complexidade dos modelos nos últimos cinco anos, que aumentou em 30.000 vezes, com o uso cada vez maior da AI em pesquisas. Com aplicações científicas, esses grandes conjuntos de dados podem ser armazenados na memória, ajudando a minimizar o processamento em lote e a garantir uma maior taxa de transferência.

Para incentivar essa nova iniciativa de pesquisa, recentemente a NVIDIA divulgou a GPU NVIDIA A100 de 80GB com tecnologia HBM2e. Ela apresenta o dobro da memória de alta largura de banda da GPU A100 de 40GB e oferece uma largura de banda de memória de mais de 2Tb/s.

Com as novas GPUs NVIDIA A100 de 80GB, é possível executar modelos e conjuntos de dados maiores na memória com uma largura de banda de memória mais rápida, possibilitando uma computação maior e resultados mais rápidos nas cargas de trabalho. A redução da comunicação entre nós pode aumentar o desempenho do treinamento da AI em 1,4 vez com metade das GPUs.

A NVIDIA também divulgou a nova arquitetura NVIDIA Mellanox InfiniBand de 400G, que oferece o dobro da taxa de transferência de dados e mecanismos de computação em rede que aumentam a aceleração.

Europa Entra na Onda da Supercomputação

A Europa está entrando no jogo. O consórcio italiano de universidades CINECA anunciou o sistema Leonardo, o supercomputador de AI mais rápido do mundo. Ele usa 14 mil GPUs com arquitetura NVIDIA Ampere e redes NVIDIA Mellanox InfiniBand, oferecendo um desempenho de AI de 10exaflops. A francesa Atos será responsável pela construção do sistema.

O Leonardo é mais um dos sistemas europeus em plataformas de AI da NVIDIA apoiados pela iniciativa EuroHPC, que são cada vez mais comuns. Recentemente, seu vizinho alemão, o Jülich Supercomputing Center, lançou o primeiro sistema de AI de exaescala com tecnologia das GPUs NVIDIA a ser disponibilizado na Europa, oferecendo a plataforma de AI mais potente da região. O novo sistema do Jülich, desenvolvido pela Atos e chamado de JUWELS, é um supercomputador de AI de 2,5exaflops que ocupa o 7º lugar na lista TOP500 mais atual.

Outros que também estão seguindo essa tendência são o supercomputador MeluXina, em Luxemburgo; o IT4Innovations National Supercomputing Center, o supercomputador mais potente da República Tcheca; e o supercomputador Vega do Institute of Information Science em Maribor, na Eslovênia.

A Universidade de Linköping planeja construir o supercomputador de AI mais rápido da Suécia, chamado de BerzeLiUs e baseado na infraestrutura NVIDIA DGX SuperPOD. A expectativa é que ele ofereça um desempenho de AI de 300 petaflops para pesquisas avançadas.

A NVIDIA está construindo o Cambridge-1, um DGX SuperPOD de 80 nós com um desempenho de AI de 400 petaflops. Será o supercomputador de AI mais rápido do Reino Unido. O plano é que ele seja usado em pesquisas colaborativas da comunidade nacional de profissionais de AI e da área da saúde em parceria com o meio acadêmico, o setor e startups.

A Todo Vapor na América do Norte

A América do Norte está entrando na onda da supercomputação de AI da exaescala. O National Energy Research Scientific Computing Center (NERSC) dos Estados Unidos está adotando a AI da NVIDIA para criar projetos no Perlmutter, um sistema com 6,2 mil GPUs A100. Agora, o NERSC tem um desempenho de AI de 3,9exaflops.

O NVIDIA Selene, um cluster baseado na infraestrutura DGX SuperPOD, oferece uma arquitetura de referência pública para clusters de GPUs de grande escala que pode ser implantada em poucas semanas. O sistema NVIDIA DGX SuperPOD garantiu o primeiro lugar na lista Green500 de supercomputadores mais eficientes do mundo, estabelecendo um novo recorde mundial de eficiência energética, com 26,2gigaflops por watt, e atingindo mais oito marcos de desempenho na categoria de inferência do MLPerf.

A Universidade da Flórida (UF) e a NVIDIA estão construindo o supercomputador de AI do meio acadêmico mais rápido do mundo, que deve oferecer um desempenho de AI de 700 petaflops. A parceria coloca a UF entre as principais universidades dos EUA que usam AI, incentiva pesquisas acadêmicas e ajuda a enfrentar alguns dos desafios mais difíceis da Flórida.

No Argonne National Laboratory, os pesquisadores usarão um cluster de 24 sistemas NVIDIA DGX A100 para estudar bilhões de medicamentos à procura de tratamentos para a COVID-19.

O Los Alamos National Laboratory, a Hewlett Packard Enterprise e a NVIDIA estão colaborando para criar tecnologias de última geração que acelerarão a computação científica.

Todos a Bordo na Região Ásia-Pacífico

Os supercomputadores da Ásia-Pacífico também serão acelerados com a arquitetura NVIDIA Ampere. O mecanismo de pesquisa coreano NAVER e o serviço japonês de mensagens LINE estão usando um SuperPOD DGX criado com 140 sistemas DGX A100 e um desempenho máximo de AI de 700 petaflops para incentivar a pesquisa e o desenvolvimento de modelos de processamento de linguagem natural e serviços de AI conversacional.

A Japan Agency for Marine-Earth Science and Technology (JAMSTEC) atualizou o Earth Simulator com GPUs NVIDIA A100 e redes NVIDIA InfiniBand. A expectativa é que o supercomputador apresente um desempenho máximo de AI de 39petaflops, com um desempenho teórico máximo de HPC de 1,2petaflops, o que hoje garantiria a posição de um dos principais supercomputadores da TOP500.

O Centre for Development of Advanced Computing (C-DAC), na Índia, solicitou a construção do maior e mais rápido supercomputador de AI do país, chamado de PARAM Siddhi – AI. Criado com 42 sistemas DGX A100, ele oferece um desempenho de AI de 200 exaflops e pode ser usado para enfrentar desafios nas áreas da saúde, educação, energia, segurança cibernética, espaço, automóveis e agricultura.

Prepare-se. A pesquisa científica mundial nunca foi tão veloz.