A AI é a nova tecnologia mais poderosa da atualidade, mas muitas empresas têm dificuldade em implementá-la. Quer dizer, até agora.
Algumas empresas não possuem os recursos especializados, o acesso a grandes conjuntos de dados nem a computação acelerada que o deep learning exige. Outras estão vendo as vantagens da AI e querem incorporá-las rapidamente a mais produtos e serviços.
Seja qual for o caso, há um novo roteiro para a AI corporativa: ele é baseado em tecnologias já disponíveis e simplifica o workflow com o NVIDIA TAO e o NVIDIA Fleet Command para agilizar o processo e diminuir os custos.
Modelos de AI Prontos para Uso
A jornada começa com modelos pré-treinados. Você não precisa projetar nem treinar uma rede neural do zero em 2021. É possível escolher uma das várias disponíveis no catálogo do NGC.
Selecionamos modelos que oferecem recursos para impulsionar seus negócios. Eles abrangem desde tarefas de AI, como visão computacional e AI de conversação, até compreensão de linguagem natural e muito mais.
Modelos Mostram Habilidades de AI
Os usuários podem conferir as credenciais dos modelos do catálogo para saber o que vem neles. Elas são como o currículo apresentado antes da contratação.
As credenciais mostram o domínio para o qual o modelo foi treinado, o conjunto de dados usado para treiná-lo, o número de implementações e o desempenho esperado. Elas proporcionam transparência e segurança para que você saiba que está escolhendo o modelo certo para seu caso de uso.
Aproveitando um Grande Investimento
A NVIDIA investiu em milhões de horas de computação com GPU ao longo de mais de cinco anos para refinar os modelos. Fizemos isso para que você não precisasse se preocupar.
Veja três rápidos exemplos de aplicações em P&D:
Dedicamos o equivalente a 3,7 mil anos à classificação de 500 milhões de objetos de 45 milhões de frames para a visão computacional. Usamos gravações de voz para treinar os modelos de fala com GPUs por mais de 1 milhão de horas. Um banco de dados de artigos biomédicos com 6,1 bilhões de palavras foi usado para ensinar os modelos a processar linguagem natural.
Transfer Learning, Seu Configurador de AI
Depois de escolher um modelo, você pode ajustá-lo a suas necessidades específicas usando o NVIDIA TAO, a próxima etapa de nosso workflow de AI corporativa.
O TAO possibilita o transfer learning, um processo que seleciona recursos de uma rede neural existente e coloca-os em uma nova usando o Kit de Ferramentas de Transfer Learning da NVIDIA, uma parte integrada do TAO. Ele usa pequenos conjuntos de dados à disposição dos usuários para personalizar os modelos sem o custo, o tempo e os enormes conjuntos de dados necessários para criar e treinar uma rede neural do zero.
Às vezes, as empresas têm a oportunidade de aprimorar ainda mais os modelos, treinando-os com conjuntos de dados maiores e mais diversificados mantidos por parceiros fora do data center.
TAO Permite que Parceiros Colaborem com Privacidade
Com a aprendizagem federada, outra parte do TAO, as empresas podem colaborar com segurança para refinar um modelo com a mais alta precisão. Com essa técnica, os usuários podem compartilhar componentes de modelos, como pesos parciais. Os conjuntos de dados continuam no data center de cada empresa para preservar a privacidade dos dados.
Um exemplo recente é o de 20 centros de pesquisa que colaboraram para aumentar a precisão do modelo EXAM, que identifica pacientes com COVID-19. Depois de aplicar a aprendizagem federada, o modelo também conseguiu apontar a gravidade da infecção e a necessidade ou não de fornecer oxigênio ao paciente. Os dados dos pacientes não foram comprometidos, pois permaneceram nos sistemas dos parceiros.
Aplicando a AI Corporativa na Produção
Após o ajuste, o modelo precisa ser otimizado para que seja implementado.
É um processo de limpeza que deixa os modelos enxutos, mas eficazes, para que eles funcionem de modo eficiente na plataforma desejada, seja um grupo de GPUs em um servidor ou um robô com tecnologia Jetson no chão de fábrica.
O NVIDIA TensorRT, outra parte do TAO, configura as coordenadas matemáticas do modelo para garantir o equilíbrio ideal, isto é, o menor tamanho e a mais alta precisão, para o sistema em que o modelo será executado. É uma etapa fundamental, principalmente para serviços em tempo real, como reconhecimento de fala ou detecção de fraudes, que não toleram a latência do sistema.
Depois, com o Servidor de Inferência Triton, os usuários podem selecionar a configuração ideal para implementar, seja qual for a arquitetura do modelo, o framework que ele usa ou a CPU ou GPU de destino em que ele será executado.
Com o modelo otimizado e pronto para implementação, os usuários podem integrá-lo facilmente ao framework de aplicações mais adequado para o caso de uso ou setor deles. O Jarvis para AI de conversação, o Clara para área da saúde, o Metropolis para análise de vídeo ou o Isaac para robótica são só alguns dos que a NVIDIA oferece.
Com o framework selecionado, os usuários podem usar o NVIDIA Fleet Command para implementar e gerenciar a aplicação de AI em vários dispositivos com GPU. É a última etapa importante da jornada.
Do Zero à AI em Minutos
O Fleet Command conecta os Servidores Certificados pela NVIDIA implementados no edge da rede ao cloud. Com ele, os usuários podem usar um navegador para emparelhar, orquestrar e gerenciar milhões de servidores, implementar AI em qualquer local remoto e atualizar softwares conforme necessário.
Os administradores monitoram a integridade e atualizam os sistemas com apenas um clique, o que simplifica as operações de AI em grande escala.
O Fleet Command usa protocolos de segurança de ponta a ponta para garantir que os dados das aplicações e a propriedade intelectual permaneçam seguros.
A transferência dos dados entre o edge e o cloud é totalmente criptografada, o que garante a proteção deles. Além disso, as aplicações passam por varreduras para detectar malware e vulnerabilidades antes da implementação.
Um Workflow de AI que Funciona
O Fleet Command e certos elementos do TAO já estão sendo usados em depósitos, no varejo, em hospitais e no chão de fábrica. As empresas Accenture, BMW e Siemens Digital Industries são algumas das usuárias.
A demonstração (abaixo) da apresentação de abertura do GTC mostra como a combinação de modelos do NGC com o TAO e o Fleet Command pode personalizar e implementar rapidamente uma aplicação usando vários modelos de AI.
Inscreva-se hoje mesmo para ter acesso ao Fleet Command.
Os principais elementos do TAO, como o Kit de Ferramentas de Transfer Learning e a aprendizagem federada, já estão disponíveis. Inscreva-se agora para ter acesso antecipado a eles, totalmente integrados ao TAO.