A GPU NVIDIA A100 Tensor Core chegou ao Google Cloud.
Disponível em Alpha no Google Compute Engine cerca de um mês após seu lançamento, a A100 chegou ao cloud mais rápido do que qualquer GPU NVIDIA da história.
Com o lançamento da família de instâncias de máquinas virtuais (VM) otimizadas para aceleração (A2) com a A100, o Google se tornou o primeiro prestador de serviço no cloud a oferecer a nova GPU NVIDIA.
Desenvolvida com a nova arquitetura NVIDIA Ampere, a A100 representa o maior salto de gerações da NVIDIA. Seu desempenho em computação de treinamento e inferência é 20 vezes maior do que que das GPUs anteriores, acelerando consideravelmente as cargas de trabalho para possibilitar a revolução em AI.
“Geralmente, os clientes do Google Cloud nos procuram quando precisam de serviços de hardware e software atuais que os ajudem a promover inovações em cargas de trabalho de AI e computação científica”, afirmou Manish Sainani, Diretor de Gestão de Produtos do Google Cloud. “Com a nova família de VMs A2, podemos dizer com orgulho que somos o primeiro provedor de cloud a oferecer as GPUs NVIDIA A100, como foi com as GPUs NVIDIA T4. Estamos curiosos para ver o que os clientes farão com os novos recursos.”
Em data centers no cloud, a A100 pode ser usada em diversas aplicações de uso intensivo de computação, como treinamento e inferência de AI, análise de dados, computação científica, genômica, análise de vídeos no edge, serviços de 5G e muito mais.
Os principais setores dinâmicos conseguirão agilizar suas descobertas com o desempenho revolucionário da A100 no Google Compute Engine. Desde o dimensionamento do treinamento de AI, da computação científica e de aplicações de inferência até a disponibilização de chatbots em tempo real, a A100 acelera cargas de trabalho complexas e imprevisíveis de todos os portes no cloud.
A NVIDIA CUDA 11, que será lançada em breve, disponibiliza aos desenvolvedores os novos recursos das GPUs NVIDIA A100, como Tensor Cores, modos de precisão mista, GPU de várias instâncias, gerenciamento avançado de memória e construções padrão de linguagens C++/Fortran paralelas.
Desempenho Revolucionário da A100 no Cloud para Cargas de Trabalho de Todos os Portes
As novas instâncias de VMs A2 oferecem diferentes níveis de desempenho que aceleram as cargas de trabalho com eficiência nas aplicações de treinamento e inferência de machine learning, análise de dados e computação de alto desempenho com CUDA.
No caso de cargas de trabalho exigentes de grande porte, o Google Compute Engine oferece aos clientes a instância a2-megagpu-16g, que vem com 16 GPUs A100, totalizando 640 GB de memória de GPUs e 1,3 TB de memória do sistema, todas conectadas pela NVSwitch com até 9,6 TB/s de largura de banda agregada.
No caso de cargas de trabalho menores, o Google Compute Engine também oferece VMs A2 em configurações menores de acordo com as exigências de aplicações específicas.
O Google Cloud anunciou que, em breve, a NVIDIA A100 será compatível com o Google Kubernetes Engine, o Cloud AI Platform e outros serviços do Google Cloud. Para se inscrever e saber mais informações, como os detalhes técnicos da nova família de VMs A2, acesse o blog do Google Cloud.