Decodificando os Microsserviços que Aceleram a IA Generativa

Execute microsserviços NVIDIA NIM de IA Generativa localmente em Workstations NVIDIA RTX AI e Sistemas NVIDIA GeForce RTX.
por Larissa Machado

Nota do editor: Esta postagem faz parte da série IA Decodificadaque desmistifica a IA ao tornar a tecnologia mais acessível e que apresenta novos hardware, software, ferramentas e acelerações para usuários de PC RTX.

Em um mundo com a rápida evolução da inteligência artificial, a IA Generativa está cativando imaginações e transformando indústrias. Nos bastidores, um herói anônimo está tornando tudo isso possível: a arquitetura de microsserviços.

Os blocos de construção das aplicações modernas de IA

Os microsserviços surgiram como uma arquitetura poderosa, mudando fundamentalmente a maneira como as pessoas projetam, criam e implantam software.

Uma arquitetura de microsserviços divide um aplicativo em uma coleção de serviços fracamente acoplados e implantáveis ​​independentemente. Cada serviço é responsável por uma capacidade específica e se comunica com outros serviços por meio de interfaces de programação de aplicativos bem definidas, ou APIs. Essa abordagem modular contrasta fortemente com as arquiteturas tradicionais tudo-em-um, nas quais todas as funcionalidades são agrupadas em um único aplicativo firmemente integrado.

Ao desacoplar serviços, as equipes podem trabalhar em diferentes componentes simultaneamente, acelerando os processos de desenvolvimento e permitindo que as atualizações sejam lançadas de forma independente, sem afetar o aplicativo inteiro. Os desenvolvedores podem se concentrar em construir e melhorar serviços específicos, levando a uma melhor qualidade de código e resolução de problemas mais rápida. Essa especialização permite que os desenvolvedores se tornem especialistas em seu domínio específico.

Os serviços podem ser dimensionados independentemente com base na demanda, otimizando a utilização de recursos e melhorando o desempenho geral do sistema. Além disso, diferentes serviços podem usar diferentes tecnologias, permitindo que os desenvolvedores escolham as melhores ferramentas para cada tarefa específica.

Uma Combinação Perfeita: Microsserviços e IA Generativa

A arquitetura de microsserviços é particularmente adequada para desenvolver aplicações de IA Generativas devido à sua escalabilidade, modularidade aprimorada e flexibilidade.

Modelos de IA, especialmente modelos de linguagem grande, exigem recursos computacionais significativos. Microsserviços permitem dimensionamento eficiente desses componentes intensivos em recursos sem afetar o sistema inteiro.

Aplicações de IA generativas frequentemente envolvem múltiplas etapas, como pré-processamento de dados, inferência de modelo e pós-processamento. Microsserviços permitem que cada etapa seja desenvolvida, otimizada e dimensionada de forma independente. Além disso, como modelos e técnicas de IA evoluem rapidamente, uma arquitetura de microsserviços permite uma integração mais fácil de novos modelos, bem como a substituição dos existentes sem interromper todo o aplicativo.

NVIDIA NIM: Simplificando a Implantação de IA Generativa

À medida que a demanda por aplicativos com tecnologia de IA cresce, os desenvolvedores enfrentam desafios para implantar e gerenciar modelos de IA com eficiência.

Os microsserviços de inferência NVIDIA NIM fornecem modelos como contêineres otimizados para implantação na nuvem, data centers, workstations, desktops e notebooks. Cada contêiner NIM inclui os modelos de IA pré-treinados e todos os componentes de tempo de execução necessários, simplificando a integração de recursos de IA em aplicativos.

O NIM oferece uma abordagem revolucionária para desenvolvedores de aplicativos que buscam incorporar a funcionalidade de IA, fornecendo integração simplificada, prontidão para produção e flexibilidade. Os desenvolvedores podem se concentrar na construção de seus aplicativos sem se preocupar com as complexidades da preparação de dados, treinamento de modelo ou personalização, pois os microsserviços de inferência do NIM são otimizados para desempenho, vêm com otimizações de tempo de execução e oferecem suporte a APIs padrão do setor.

IA na Ponta dos Dedos: NVIDIA NIM em Workstations e PCs

Construir aplicativos de IA Generativa empresarial traz muitos desafios. Embora APIs de modelos hospedadas na nuvem possam ajudar os desenvolvedores a começar, problemas relacionados à privacidade de dados, segurança, latência de resposta do modelo, precisão, custos de API e dimensionamento geralmente atrapalham o caminho para a produção.

Workstations com NIM fornecem aos desenvolvedores acesso seguro a uma ampla gama de modelos e microsserviços de inferência com desempenho otimizado.

Ao evitar as preocupações com latência, custo e conformidade associadas a APIs hospedadas na nuvem, bem como as complexidades da implantação de modelos, os desenvolvedores podem se concentrar no desenvolvimento de aplicativos. Isso acelera a entrega de aplicativos de IA Generativos prontos para produção — permitindo dimensionamento automático e contínuo com otimização de desempenho em data centers e na nuvem.

A disponibilidade geral recentemente anunciada do modelo Meta Llama 3 8B como um NIM , que pode ser executado localmente em sistemas RTX, traz recursos de modelo de linguagem de última geração para desenvolvedores individuais, permitindo testes e experimentações locais sem a necessidade de recursos de nuvem. Com o NIM sendo executado localmente, os desenvolvedores podem criar projetos sofisticados de geração aumentada de recuperação (RAG) diretamente em suas workstations.

RAG local refere-se à implementação de sistemas RAG inteiramente em hardware local, sem depender de serviços baseados em nuvem ou APIs externas.

Os desenvolvedores podem usar o Llama 3 8B NIM em workstations com uma ou mais GPUs NVIDIA RTX 6000 Ada Generation ou em sistemas NVIDIA RTX para construir sistemas RAG de ponta a ponta inteiramente em hardware local. Esta configuração permite que os desenvolvedores aproveitem todo o poder do Llama 3 8B, garantindo alto desempenho e baixa latência.

Ao executar todo o pipeline RAG localmente, os desenvolvedores podem manter controle completo sobre seus dados, garantindo privacidade e segurança. Essa abordagem é particularmente útil para desenvolvedores que criam aplicativos que exigem respostas em tempo real e alta precisão, como chatbots de suporte ao cliente, ferramentas personalizadas de geração de conteúdo e assistentes virtuais interativos.

O RAG híbrido combina recursos locais e baseados em nuvem para otimizar o desempenho e a flexibilidade em aplicativos de IA. Com o NVIDIA AI Workbench, os desenvolvedores podem começar com o Hybrid-RAG Workbench Project — um aplicativo de exemplo que pode ser usado para executar bancos de dados vetoriais e incorporar modelos localmente enquanto realiza inferência usando NIM na nuvem ou no data center, oferecendo uma abordagem flexível para alocação de recursos.

Essa configuração híbrida permite que os desenvolvedores equilibrem a carga computacional entre recursos locais e de nuvem, otimizando o desempenho e o custo. Por exemplo, o banco de dados vetorial e os modelos de incorporação podem ser hospedados em workstations locais para garantir recuperação e processamento rápidos de dados, enquanto as tarefas de inferência mais intensivas em termos computacionais podem ser descarregadas para poderosos microsserviços de inferência NIM baseados em nuvem. Essa flexibilidade permite que os desenvolvedores dimensionem seus aplicativos perfeitamente, acomodando cargas de trabalho variadas e garantindo desempenho consistente.

Os microsserviços de inferência NVIDIA ACE NIM dão vida a humanos digitais, personagens não jogáveis ​​(NPCs) de IA e avatares interativos para atendimento ao cliente com IA generativa, executados em PCs e workstations RTX.

Os microsserviços de inferência ACE NIM para fala — incluindo reconhecimento automático de fala Riva, conversão de texto em fala e tradução automática neural — permitem transcrição precisa, tradução e vozes realistas.

O modelo de linguagem pequena NVIDIA Nemotron é um NIM para inteligência que inclui quantização INT4 para uso mínimo de memória e oferece suporte a casos de uso de RPG e RAG.

E os microsserviços de inferência ACE NIM para aparência incluem Audio2Face e Omniverse RTX para animação realista com visuais ultrarrealistas. Eles fornecem personagens de jogo mais imersivos e envolventes, bem como experiências mais satisfatórias para usuários interagindo com agentes virtuais de atendimento ao cliente.

Mergulhe no NIM

À medida que a IA avança, a capacidade de implantar e dimensionar rapidamente seus recursos se tornará cada vez mais crucial.

Os microsserviços NVIDIA NIM fornecem a base para esta nova era de desenvolvimento de aplicativos de IA, permitindo inovações revolucionárias. Seja construindo a próxima geração de jogos com tecnologia de IA, desenvolvendo aplicativos avançados de processamento de linguagem natural ou criando sistemas de automação inteligentes, os usuários podem acessar essas poderosas ferramentas de desenvolvimento na ponta dos dedos.

Maneiras de começar:

  • Experimente e interaja com os microsserviços NVIDIA NIM em ai.nvidia.com .
  • Participe do Programa de Desenvolvedores da NVIDIA e tenha acesso gratuito ao NIM para testar e criar protótipos de aplicativos com tecnologia de IA.
  • Compre uma licença NVIDIA AI Enterprise com um período de avaliação gratuito de 90 dias para implantação de produção e use o NVIDIA NIM para auto-hospedar modelos de IA na nuvem ou em data centers.

A  IA generativa está transformando jogos, videoconferências e experiências interativas de todos os tipos. Entenda o que há de novo e o que vem por aí assinando a newsletter de IA Decodificada.