Passe de Mágica: NVIDIA Merlin é Adotado para Treinamento e Inferência

A internet está ficando mais personalizada, sendo executada em plataformas de AI da NVIDIA para GPUs e ajudando a Snap, a Postmates e a Tencent.
por Even Oldridge

Os sistemas de recomendação personalizam a internet. Eles sugerem vídeos, comidas, tênis e anúncios que parecem adivinhar seus gostos e interesses.

É uma AI que deixa as experiências on-line mais prazerosas e eficientes, pois ela mostra o que você quer ver em questão de segundos. Além de oferecer conteúdo de seu interesse, ela exibe anúncios de jeans chamativos e recomenda um lanche delicioso quando bate aquela fome de madrugada.

Porém, nem todos os sistemas conseguem cumprir os requisitos de dados para fazer sugestões mais inteligentes. Por causa disso, os treinamentos ficam mais lentos, e a experiência do usuário da internet, menos intuitiva.

O NVIDIA Merlin potencializa esses sistemas, melhorando o treinamento e a inferência. Líderes de mídia, entretenimento e entrega sob demanda usam o framework de recomendação livre para executar deep learning acelerado em GPUs. Com recomendações melhores, as taxas de cliques, as compras e a satisfação aumentam.

Recomendações Aceleradas pelo Merlin

Com o NVIDIA Merlin, empresas de todos os tipos podem criar recomendações aceleradas por GPUs NVIDIA.

A coleção de bibliotecas contém ferramentas para criar sistemas baseados em deep learning que oferecem previsões melhores que as dos métodos tradicionais e aumentam as taxas de cliques. Todas as etapas do pipeline são otimizadas para processar centenas de terabytes de dados, tudo acessível por APIs fáceis de usar.

O Merlin está sendo testado por centenas de empresas ao redor do mundo. As redes sociais e os serviços de streaming estão usando-o para sugerir outros vídeos e anúncios. Já as principais aplicações sob demanda e varejistas estão recorrendo a ele para sugerir novos itens de compra.

Vídeos com a Snap

Com o Merlin, a Snap consegue classificar conteúdo e anúncios 60% mais rápido e reduzir os custos da infraestrutura, diminuindo o tempo de carregamento e, assim, melhorando a experiência do cliente. O uso de GPUs e do Merlin oferece à Snap capacidade computacional adicional para usar modelos de classificação mais complexos e precisos. Graças a essas melhorias, a Snap pode oferecer experiências ainda mais interessantes por um custo mais baixo.

Tencent: Anúncios que Geram Cliques

A principal plataforma de mídia de vídeo on-line da China usa o HugeCTR do Merlin para veicular anúncios relevantes e chamativos para mais de 500 milhões de usuários ativos por mês. Com um enorme conjunto de dados, a velocidade de treinamento é importante e determina o desempenho do modelo de recomendação. A Tencent implementou o treinamento em tempo real com o Merlin e observou uma aceleração de mais de 7 vezes em relação à solução TensorFlow original na mesma plataforma de GPU. A empresa apresentou mais detalhes em sua apresentação no GTC.

Recomendações Culinárias da Postmates

O Merlin foi projetado para simplificar e facilitar os workflows de recomendação. A Postmates usa sistemas de recomendações para ajudar as pessoas a decidir o que comer. A empresa utiliza o NVTabular do Merlin para otimizar o tempo de treinamento, reduzindo-o de 1 hora com CPUs para apenas 5 minutos com GPUs.

Ao usar o NVTabular para a engenharia de recursos, a empresa reduziu os custos de treinamento em 95% e agora está explorando modelos de deep learning avançados. Na apresentação da empresa realizada no GTC, você confere mais detalhes.

Merlin Simplifica Workflows de Recomendação em Grande Escala

Como o Merlin é interoperável, ele oferece a flexibilidade para acelerar os pipelines do workflow de recomendação.

A versão Beta aberta do mecanismo de recomendação do Merlin melhora o carregamento de dados e o treinamento de sistemas de deep learning.

O NVTabular acelera com GPUs o pré-processamento e a transformação de recursos, diminuindo o tempo de preparação dos dados. Além de facilitar o carregamento de data lakes grandes em pipelines de treinamento, ele recebe o suporte de várias GPUs e garante maior interoperabilidade com o TensorFlow e o PyTorch.

A Mágica do Merlin para Treinamento

O HugeCTR é o principal componente de treinamento do Merlin. Ele foi projetado para treinar sistemas de recomendação com deep learning e vem com um carregador de dados otimizado próprio, apresentando um desempenho muito melhor que o de frameworks comuns de deep learning. O HugeCTR oferece um leitor de dados Parquet para resumir os dados pré-processados do NVTabular. Ele é um framework de treinamento de redes neurais profundas desenvolvido especificamente para workflows de recomendação capazes de realizar treinamento distribuído em várias GPUs e nós para maximizar o desempenho.

O Servidor de Inferência NVIDIA Triton acelera a inferência da produção em GPUs para transformações de recursos e execução de redes neurais.

Saiba mais sobre os avanços tecnológicos por trás do Merlin desde seu lançamento inicial, inclusive o suporte ao NVTabular, ao HugeCTR e ao Servidor de Inferência NVIDIA Triton.