Por Que o Processamento Acelerado de Dados É Crucial Para a Inovação da IA em Todos os Setores

por Ben Oliveri

Em todos os setores, a IA está turbinando a inovação com computação impulsionada por máquinas. Nas finanças, os banqueiros estão usando IA para detectar fraudes mais rapidamente e manter as contas seguras, os provedores de telecomunicações estão melhorando as redes para oferecer um serviço superior, os cientistas estão desenvolvendo novos tratamentos para doenças raras, as empresas de serviços públicos estão construindo redes de energia mais limpas e confiáveis e as empresas automotivas estão tornando os veículos autônomos mais seguros e acessíveis.

A espinha dorsal dos principais casos de uso de IA são os dados. Modelos de IA eficazes e precisos exigem treinamento em conjuntos de dados extensos. As empresas que buscam aproveitar o poder da IA devem estabelecer um pipeline de dados que envolva extrair dados de diversas fontes, transformá-los em um formato consistente e armazená-los de forma eficiente.

Os cientistas de dados trabalham para refinar conjuntos de dados por meio de vários experimentos para ajustar os modelos de IA para obter o desempenho ideal em aplicações do mundo real. Essas aplicações, de assistentes de voz a sistemas de recomendação personalizados, exigem processamento rápido de grandes volumes de dados para oferecer desempenho em tempo real.

À medida que os modelos de IA se tornam mais complexos e começam a lidar com diversos tipos de dados, como texto, áudio, imagens e vídeo, a necessidade de processamento rápido de dados se torna mais crítica. As empresas que continuam a depender da computação baseada em CPU legada estão lutando com inovação e desempenho prejudicados devido a gargalos de dados, custos crescentes de data center e recursos de computação insuficientes.

Muitas empresas estão se voltando para a computação acelerada para integrar a IA em suas operações. Esse método aproveita GPUs, hardware, software e técnicas de computação paralela especializadas para aumentar o desempenho de computação em até 150 vezes e aumentar a eficiência energética em até 42 vezes.

Empresas líderes em diferentes setores estão usando o processamento acelerado de dados para liderar iniciativas inovadoras de IA.

Instituições Financeiras Detectam Fraudes em Uma Fração de Segundo

As instituições financeiras enfrentam um desafio significativo na detecção de padrões de fraude devido à grande quantidade de dados transacionais que exigem uma análise rápida. Além disso, a escassez de dados rotulados para casos reais de fraude representa uma dificuldade no treinamento de modelos de IA. Os pipelines convencionais de ciência de dados não têm a aceleração necessária para lidar com os grandes volumes de dados associados à detecção de fraudes. Isso leva a tempos de processamento mais lentos que dificultam a análise de dados em tempo real e os recursos de detecção de fraudes.

Para superar esses desafios, a American Express, que lida com mais de 8 bilhões de transações por ano, usa computação acelerada para treinar e implantar modelos de memória de curto prazo (LSTM). Esses modelos se destacam na análise sequencial e detecção de anomalias, podendo se adaptar e aprender com novos dados, tornando-os ideais para o combate a fraudes.

Aproveitando técnicas de computação paralela em GPUs, a American Express acelera significativamente o treinamento de seus modelos LSTM. As GPUs também permitem que modelos em tempo real processem grandes volumes de dados transacionais para fazer cálculos de alto desempenho para detectar fraudes em tempo real.

O sistema opera dentro de dois milissegundos de latência para proteger melhor os clientes e comerciantes, proporcionando uma melhoria de 50 vezes em relação a uma configuração baseada em CPU. Ao combinar a rede neural profunda LSTM acelerada com seus métodos existentes, a American Express melhorou a precisão da detecção de fraude em até 6% em segmentos específicos.

As instituições financeiras também podem usar a computação acelerada para reduzir os custos de processamento de dados. Executando cargas de trabalho Spark3 pesadas em dados em GPUs NVIDIA, PayPal confirmou o potencial de reduzir os custos de nuvem em até 70% para processamento de big data e aplicações de IA.

Ao processar dados de forma mais eficiente, as instituições financeiras podem detectar fraudes em tempo real, permitindo uma tomada de decisão mais rápida sem interromper o fluxo de transações e minimizando o risco de perda financeira.

Empresas de Telecomunicações Simplificam Operações Complexas de Roteamento

Os provedores de telecomunicações geram imensas quantidades de dados de várias fontes, incluindo dispositivos de rede, interações com clientes, sistemas de faturamento e desempenho e manutenção da rede.

O gerenciamento de redes nacionais que lidam com centenas de petabytes de dados todos os dias requer roteamento técnico complexo para garantir a prestação de serviços. Para otimizar o despacho técnico, os mecanismos avançados de roteamento executam trilhões de cálculos, levando em conta fatores como clima, habilidades técnicas, solicitações de clientes e distribuição de frota. O sucesso nessas operações depende da preparação meticulosa dos dados e do poder computacional suficiente.

A AT&T, que opera uma das maiores equipes de despacho de campo do país para atender seus clientes, está aprimorando as operações de roteamento com dados pesados com o NVIDIA cuOpt, que se baseia em heurísticas, metaheurísticas e otimizações para calcular problemas complexos de roteamento de veículos.

Nos primeiros testes, o cuOpt forneceu soluções de roteamento em 10 segundos, alcançando uma redução de 90% nos custos de nuvem e permitindo que os técnicos concluíssem mais chamadas de serviço diariamente. O NVIDIA RAPIDS, um conjunto de bibliotecas de software que permite a aceleração de pipelines de ciência de dados e análises, acelera ainda mais o cuOpt, permitindo que as empresas integrem heurísticas e metaheurísticas de pesquisa local, como a pesquisa Tabu para otimização contínua de rotas.

A AT&T está adotando o NVIDIA RAPIDS Accelerator para Apache Spark para melhorar o desempenho de pipelines de dados e IA baseados em Spark. Isso ajudou a empresa a aumentar a eficiência operacional em tudo, desde o treinamento de modelos de IA até a manutenção da qualidade da rede para reduzir a rotatividade de clientes e melhorar a detecção de fraudes. Com o RAPIDS Accelerator, a AT&T está reduzindo seus gastos com computação em nuvem para cargas de trabalho alvo, permitindo um desempenho mais rápido e reduzindo sua pegada de carbono.

Pipelines e processamento de dados acelerados serão críticos, pois as empresas de telecomunicações buscam melhorar a eficiência operacional e, ao mesmo tempo, oferecer a mais alta qualidade de serviço possível.

Pesquisadores Biomédicos Condensam Cronogramas de Descoberta de Medicamentos

À medida que os pesquisadores utilizam a tecnologia para estudar os cerca de 25.000 genes do genoma humano para entender sua relação com doenças, houve uma explosão de dados médicos e artigos de pesquisa revisados por pares. Os pesquisadores biomédicos confiam nesses artigos para estreitar o campo de estudo para novos tratamentos. No entanto, realizar revisões de literatura de um corpo tão maciço e em expansão de pesquisas relevantes tornou-se uma tarefa impossível.

A AstraZeneca, uma empresa farmacêutica líder, desenvolveu um Biological Insights Knowledge Graph (BIKG) para ajudar os cientistas em todo o processo de descoberta de medicamentos, desde revisões da literatura até classificação de acertos na tela, identificação de alvos e muito mais. Este gráfico integra bases de dados públicas e internas com informações da literatura científica, modelando entre 10 milhões e 1 bilhão de relações biológicas complexas.

O BIKG tem sido efetivamente usado para classificação genética, ajudando os cientistas a hipotetizar alvos de alto potencial para novos tratamentos de doenças. No NVIDIA GTC, a equipe da AstraZeneca apresentou um projeto que identificou com sucesso genes ligados à resistência em tratamentos de câncer de pulmão.

Para restringir genes potenciais, cientistas de dados e pesquisadores biológicos colaboraram para definir os critérios e as características genéticas ideais para o direcionamento no desenvolvimento de tratamentos. Eles treinaram um algoritmo de machine learning para pesquisar nos bancos de dados BIKG genes com as características designadas mencionadas na literatura como tratáveis. Utilizando o NVIDIA RAPIDS para cálculos mais rápidos, a equipe reduziu o pool genético inicial de 3.000 para apenas 40 genes-alvo, uma tarefa que anteriormente levava meses, mas agora leva apenas segundos.

Ao complementar o desenvolvimento de medicamentos com computação acelerada e IA, as empresas farmacêuticas e os pesquisadores podem finalmente usar os enormes conjuntos de dados acumulados no campo médico para desenvolver novos medicamentos de forma mais rápida e segura, tendo um impacto que salva vidas.

Empresas de Serviços Públicos Constroem o Futuro da Energia Limpa

Houve um impulso significativo para mudar para fontes de energia neutras em carbono no setor de energia. Com o custo de aproveitar recursos renováveis, como a energia solar, caindo significativamente nos últimos 10 anos, a oportunidade de fazer progressos reais em direção a um futuro de energia limpa nunca foi tão grande.

No entanto, essa mudança em direção à integração de energia limpa de parques eólicos, parques solares e baterias domésticas introduziu novas complexidades no gerenciamento da rede. À medida que a infraestrutura de energia se diversifica e os fluxos de energia bidirecionais devem ser acomodados, o gerenciamento da rede tornou-se mais intensivo em dados. Novas redes inteligentes agora são necessárias para lidar com áreas de alta tensão para carregamento de veículos. Eles também devem gerenciar a disponibilidade de fontes de energia distribuídas armazenadas e se adaptar às variações no uso em toda a rede.

A Utilidata, uma proeminente empresa de software no edge de grade, colaborou com a NVIDIA para desenvolver uma plataforma de IA distribuída, Karman, para o edge da grade usando um módulo de IA no edge NVIDIA Jetson Orin personalizado. Este chip e plataforma personalizados, embutidos em medidores de eletricidade, transformam cada medidor em um ponto de coleta e controle de dados, capaz de lidar com milhares de pontos de dados por segundo.

A Karman processa dados em tempo real e de alta resolução de medidores no edge da rede. Isso permite que as empresas de serviços públicos obtenham insights detalhados sobre as condições da rede, prevejam o uso e integrem perfeitamente os recursos de energia distribuídos em segundos, em vez de minutos ou horas. Além disso, com modelos de inferência em dispositivos no edge, os operadores de rede podem antecipar e identificar rapidamente falhas de linha para prever possíveis interrupções e realizar manutenção preventiva para aumentar a confiabilidade da rede.

Por meio da integração de IA e análise acelerada de dados, a Karman ajuda os provedores de serviços públicos a transformar a infraestrutura existente em redes inteligentes eficientes. Isso permite uma distribuição de eletricidade personalizada e localizada para atender a padrões de demanda flutuantes sem atualizações extensas de infraestrutura física, facilitando uma modernização mais econômica da rede.

Montadoras Permitem Veículos Mais Seguros, Acessíveis e Autônomos

À medida que as empresas automobilísticas se esforçam para obter recursos completos de direção autônoma, os veículos devem ser capazes de detectar objetos e navegar em tempo real. Isso requer tarefas de processamento de dados de alta velocidade, incluindo a alimentação de dados ao vivo de câmeras, lidar, radar e GPS em modelos de IA que tomam decisões de navegação para manter as estradas seguras.

O workflow de inferência de direção autônoma é complexo e inclui vários modelos de IA, juntamente com as etapas necessárias de pré-processamento e pós-processamento. Tradicionalmente, essas etapas eram manipuladas no lado do cliente usando CPUs. No entanto, isso pode levar a gargalos significativos nas velocidades de processamento, o que é uma desvantagem inaceitável para uma aplicação em que o processamento rápido equivale à segurança.

Para melhorar a eficiência dos workflows de direção autônoma, a fabricante de veículos elétricos NIO integrou o Servidor de Inferência NVIDIA Triton em seu pipeline de inferência. O NVIDIA Triton é um software de código aberto, multi-framework, que serve inferência. Ao centralizar as tarefas de processamento de dados, a NIO reduziu a latência em 6 vezes em algumas áreas principais e aumentou a taxa de transferência geral de dados em até 5 vezes.

A abordagem centrada em GPU da NIO facilitou a atualização e a implantação de novos modelos de IA sem a necessidade de mudar nada nos próprios veículos. Além disso, a empresa poderia usar vários modelos de IA ao mesmo tempo no mesmo conjunto de imagens sem ter que enviar dados de um lado para o outro através de uma rede, o que economizou em custos de transferência de dados e melhorou o desempenho.

Ao usar o processamento de dados acelerado, os desenvolvedores de software de veículos autônomos garantem que possam atingir um padrão de alto desempenho para evitar acidentes de trânsito, reduzir os custos de transporte e melhorar a mobilidade dos usuários.

Varejistas Melhoram Previsão de Demanda

No ambiente de varejo acelerado, a capacidade de processar e analisar dados rapidamente é fundamental para ajustar os níveis de estoque, personalizar as interações com os clientes e otimizar as estratégias de preços em tempo real. Quanto maior for um varejista e quanto mais produtos ele carregar, mais complexas e intensivas em computação serão suas operações de dados.

O Walmart, o maior varejista do mundo, recorreu à computação acelerada para melhorar significativamente a precisão da previsão de 500 milhões de combinações item por loja em 4.500 lojas.

À medida que a equipe de ciência de dados do Walmart construiu algoritmos de machine learning mais robustos para enfrentar esse gigantesco desafio de previsão, o ambiente de computação existente começou a vacilar, com trabalhos não sendo concluídos ou gerando resultados imprecisos. A empresa descobriu que os cientistas de dados estavam tendo que remover recursos dos algoritmos apenas para que eles fossem executados até a conclusão.

Para melhorar suas operações de previsão, o Walmart começou a usar GPUs NVIDIA e RAPIDs. A empresa agora usa um modelo de previsão com 350 recursos de dados para prever as vendas em todas as categorias de produtos. Esses recursos englobam dados de vendas, eventos promocionais e fatores externos, como condições climáticas e grandes eventos, como o Super Bowl, que influenciam a demanda.

Modelos avançados ajudaram o Walmart a melhorar a precisão da previsão de 94% para 97%, eliminando cerca de US$ 100 milhões em resíduos de produtos frescos e reduzindo os cenários de falta de estoque e remarcação. As GPUs também rodavam modelos 100 vezes mais rápidos com trabalhos concluídos em apenas quatro horas, uma operação que levaria várias semanas em um ambiente de CPU.

Ao transferir operações com uso intensivo de dados para GPUs e computação acelerada, os varejistas podem reduzir seu custo e sua pegada de carbono, ao mesmo tempo em que oferecem as melhores opções e preços mais baixos para os compradores.

Setor Público Melhora a Preparação para Desastres

Drones e satélites capturam enormes quantidades de dados de imagens aéreas que empresas públicas e privadas usam para prever padrões climáticos, rastrear migrações de animais e observar mudanças ambientais. Esses dados são inestimáveis para pesquisa e planejamento, permitindo uma tomada de decisão mais informada em campos como agricultura, gestão de desastres e esforços para combater as mudanças climáticas. No entanto, o valor dessas imagens pode ser limitado se não houver metadados de localização específicos.

Uma agência federal que trabalha com a NVIDIA precisava de uma maneira de identificar automaticamente a localização de imagens que faltam metadados geoespaciais, o que é essencial para missões como busca e resgate, resposta a desastres naturais e monitoramento do meio ambiente. No entanto, identificar uma pequena área dentro de uma região maior usando uma imagem aérea sem metadados é extremamente desafiador, semelhante à localização de uma agulha em um palheiro. Os algoritmos projetados para ajudar na geolocalização devem abordar variações na iluminação da imagem e diferenças devido às imagens serem tiradas em vários momentos, datas e ângulos.

Para identificar imagens aéreas não geomarcadas, a NVIDIA, a Booz Allen e a agência governamental colaboraram em uma solução que usa algoritmos de visão computacional para extrair informações de dados de pixels de imagem para dimensionar o problema de pesquisa de similaridade de imagem.

Ao tentar resolver esse problema, um arquiteto de soluções NVIDIA primeiro usou uma aplicação baseada em Python. Inicialmente executado em CPUs, o processamento levava mais de 24 horas. As GPUs sobrecarregaram isso em apenas alguns minutos, realizando milhares de operações de dados em paralelo contra apenas um punhado de operações em uma CPU. Ao mudar o código da aplicação para o CuPy, uma biblioteca acelerada por GPU de código aberto, a aplicação experimentou uma notável aceleração de 1,8 milhão de vezes, retornando resultados em 67 microssegundos.

Com uma solução que pode processar imagens e dados de grandes massas de terra em apenas alguns minutos, as empresas podem obter acesso às informações críticas necessárias para responder de forma mais rápida e eficaz a emergências e planejar proativamente, potencialmente salvando vidas e protegendo o meio ambiente.

Acelere as Iniciativas de IA e Entregue Resultados de Negócios

As empresas que usam computação acelerada para processamento de dados estão avançando em iniciativas de IA e se posicionando para inovar e ter desempenho em níveis mais altos do que seus pares.

A computação acelerada lida com conjuntos de dados maiores com mais eficiência, permite o treinamento mais rápido do modelo e a seleção de algoritmos ideais e facilita resultados mais precisos para soluções de IA ao vivo.

As empresas que o usam podem alcançar relações de preço-desempenho superiores em comparação com os sistemas tradicionais baseados em CPU e melhorar sua capacidade de oferecer resultados e experiências excepcionais para clientes, funcionários e parceiros.

Saiba como a computação acelerada ajuda as empresas a atingir os objetivos de IA e impulsionar a inovação.