O Velho Oeste tinha pistoleiros, assaltos a bancos e recompensas. A fronteira digital de hoje tem roubo de identidade, fraude de cartão de crédito e estornos.
Lucrar com fraudes financeiras tornou-se uma empresa criminosa multibilionária. E a IA generativa nas mãos dos fraudadores só promete tornar isso mais lucrativo.
As perdas com cartões de crédito em todo o mundo devem chegar a US$ 43 bilhões até 2026, de acordo com o Relatório Nilson.
A fraude financeira é realizada com um número crescente de maneiras, como a coleta de dados hackeados da dark web para roubo de cartão de crédito, o uso de IA generativa para phishing de informações pessoais e a lavagem de dinheiro entre criptomoedas, carteiras digitais e moedas fiduciárias. Muitos outros esquemas financeiros estão à espreita no submundo digital.
Para acompanhar, as empresas de serviços financeiros estão usando IA para detecção de fraudes. Isso porque muitos desses crimes digitais precisam ser interrompidos em tempo real para que consumidores e empresas financeiras possam parar com as perdas imediatamente.
Então, como a IA é usada para detecção de fraudes?
A IA para detecção de fraudes usa vários modelos de machine learning para detectar anomalias nos comportamentos e conexões dos clientes, bem como padrões de contas e comportamentos que se encaixam em características fraudulentas.
IA Generativa Pode Ser Aproveitada Como Copiloto de Fraude
Grande parte dos serviços financeiros envolve texto e números. A IA generativa e os grandes modelos de linguagem (LLMs), capazes de aprender significado e contexto, prometem capacidades disruptivas em todos os setores com novos níveis de produção e produtividade. As empresas de serviços financeiros podem aproveitar a IA generativa para desenvolver chatbots mais inteligentes e capazes e melhorar a detecção de fraudes.
No lado oposto, os fraudadores podem contornar as grades de proteção da IA com solicitações de IA generativa astutas para usá-la para fraudes. E os LLMs estão entregando uma escrita semelhante à humana, permitindo que os fraudadores elaborem e-mails mais relevantes contextualmente sem erros de digitação e gramaticais. Muitas versões personalizadas de e-mails de phishing podem ser criadas rapidamente, tornando a IA generativa um excelente copiloto para a realização de golpes. Há também uma série de ferramentas da dark web, como o FraudGPT, que pode explorar IA generativa para crimes cibernéticos.
A IA generativa também pode ser explorada para danos financeiros em medidas de segurança de autenticação de voz. Alguns bancos estão usando autenticação de voz para ajudar a autorizar os usuários. A voz de um cliente bancário pode ser clonada usando tecnologia deep fake se um invasor puder obter amostras de voz em um esforço para violar esses sistemas. Os dados de voz podem ser coletados com chamadas telefônicas de spam que tentam atrair o destinatário da chamada para responder por voz.
Os golpes de chatbot são um problema tão grande que a Comissão Federal de Comércio dos EUA chamou a atenção para o uso de LLMs e outras tecnologias para simular o comportamento humano para vídeos deep fake e clones de voz aplicados em golpes de impostores e fraudes financeiras.
Como a IA Generativa Está Combatendo o Uso Indevido e a Detecção de Fraudes?
A revisão de fraudes tem uma nova ferramenta poderosa. Os trabalhadores que lidam com revisões manuais de fraude agora podem ser auxiliados com assistentes baseados em LLM executando RAG no back-end para obter informações de documentos de políticas que podem ajudar a agilizar a tomada de decisões sobre se os casos são fraudulentos, acelerando consideravelmente o processo.
LLMs estão sendo adotados para prever a próxima transação de um cliente, o que pode ajudar as empresas de pagamentos a avaliar preventivamente os riscos e bloquear transações fraudulentas.
A IA generativa também ajuda a combater fraudes em transações, melhorando a precisão, gerando relatórios, reduzindo investigações e mitigando o risco de conformidade.
A geração de dados sintéticos é outra importante aplicação da IA generativa para a prevenção de fraudes. Os dados sintéticos podem melhorar o número de registros de dados usados para treinar modelos de detecção de fraude e aumentar a variedade e a sofisticação dos exemplos para ensinar a IA a reconhecer as técnicas mais recentes empregadas pelos fraudadores.
A NVIDIA oferece ferramentas para ajudar as empresas a adotar a IA generativa para criar chatbots e agentes virtuais com um workflow que usa geração aumentada de recuperação. O RAG permite que as empresas usem prompts de linguagem natural para acessar vastos conjuntos de dados para recuperação de informações.
Aproveitar os workflows de IA da NVIDIA pode ajudar a acelerar a criação e a implantação de recursos de nível empresarial para produzir respostas com precisão para vários casos de uso, usando modelos base, o framework NVIDIA NeMo, o Servidor de Inferência NVIDIA Triton e o banco de dados vetorial acelerado por GPU para implantar chatbots impulsionados por RAG.
Há um foco da indústria na segurança para garantir que a IA generativa não seja facilmente explorada para causar danos. A NVIDIA lançou o NeMo Guardrails para ajudar a garantir que aplicativos inteligentes alimentados por LLMs, como o ChatGPT da OpenAI, sejam precisos, apropriados, no tópico e seguros.
O software de código aberto foi projetado para ajudar a evitar que aplicações impulsionadas por IA sejam exploradas para fraudes e outros usos indevidos.
Quais São As Vantagens da IA para Detecção de Fraudes?
A detecção de fraudes tem sido um desafio em bancos, finanças, varejo e comércio eletrônico. A fraude não prejudica apenas financeiramente as organizações, mas também pode causar danos à reputação.
É uma dor de cabeça para os consumidores, também, quando modelos de fraude de empresas de serviços financeiros reagem exageradamente e registram falsos positivos que encerram transações legítimas.
Assim, os setores de serviços financeiros estão desenvolvendo modelos mais avançados usando mais dados para se fortalecer contra perdas financeiras e reputacionais. Eles também visam reduzir os falsos positivos na detecção de fraudes nas transações para melhorar a satisfação do cliente e ganhar maior participação entre os comerciantes.
Empresas de Serviços Financeiros Adotam IA para Verificação de Identidade
O setor de serviços financeiros está desenvolvendo IA para verificação de identidade. Aplicações orientadas por IA usando deep learning com redes grafo neurais (GNNs), processamento de linguagem natural (NLP) e visão computacional podem melhorar a verificação de identidade para conhecer seus clientes (KYC) e requisitos de combate à lavagem de dinheiro (AML), levando a uma melhor conformidade regulatória e custos reduzidos.
A visão computacional analisa documentos fotográficos, como carteiras de motorista e passaportes, para identificar falsificações. Ao mesmo tempo, a PNL lê os documentos para medir a veracidade dos dados nos documentos enquanto a IA os analisa para procurar registros fraudulentos.
Os ganhos nos requisitos de KYC e AML têm enormes implicações regulatórias e econômicas. Instituições financeiras, incluindo bancos, foram multadas em quase US$ 5 bilhões por AML, violando sanções, bem como falhas nos sistemas KYC em 2022, de acordo com o Financial Times.
Aproveitamento de Redes Grafo Neurais e GPUs NVIDIA
Os GNNs foram adotados por sua capacidade de revelar atividades suspeitas. Eles são capazes de analisar bilhões de registros e identificar padrões de atividade anteriormente desconhecidos para fazer correlações sobre se uma conta enviou no passado uma transação para uma conta suspeita.
A NVIDIA tem uma aliança com a equipe da Deep Graph Library, bem como com a equipe da PyTorch Geometric, que fornece uma oferta em contêineres de frameworks GNN que inclui as atualizações mais recentes, bibliotecas NVIDIA RAPIDS e muito mais para ajudar os usuários a se manterem atualizados sobre técnicas de ponta.
Esses contêineres de frameworks GNN são otimizados para NVIDIA e ajustados para desempenho e testados para tirar o máximo proveito das GPUs NVIDIA.
Com acesso à plataforma de software NVIDIA AI Enterprise, os desenvolvedores podem aproveitar o NVIDIA RAPIDS, Servidor de Inferência NVIDIA Triton e o kit de desenvolvimento de software NVIDIA TensorRT para oferecer suporte a implantações corporativas em escala.
Melhorando a Detecção de Anomalias com GNNs
Os fraudadores têm técnicas sofisticadas e podem aprender maneiras de superar os sistemas de detecção de fraude. Uma maneira é desencadeando cadeias complexas de transações para evitar o aviso. É aqui que os sistemas tradicionais baseados em regras podem perder padrões e falhar.
Os GNNs se baseiam em um conceito de representação dentro do modelo de estrutura local e contexto de características. As informações dos recursos no edge e nó são propagadas com agregação e passagem de mensagens entre nós vizinhos.
Quando os GNNs executam várias camadas de convolução de grafos, os estados finais do nó contêm informações de nós a vários saltos de distância. O campo receptivo maior dos GNNs pode rastrear as cadeias de transações mais complexas e longas usadas pelos perpetradores de fraudes financeiras em tentativas de obscurecer seus rastros.
GNNs Permitem Treinamento Não Supervisionado ou Auto-Supervisionado
A detecção de padrões de fraude financeira em grande escala é desafiada pelas dezenas de terabytes de dados de transações que precisam ser analisados em um piscar de olhos e uma relativa falta de dados rotulados para atividades reais de fraude necessárias para treinar modelos.
Embora os GNNs possam lançar uma rede de detecção mais ampla sobre padrões de fraude, eles também podem treinar em uma tarefa não supervisionada ou auto-supervisionada.
Usando técnicas como o Bootstrapped Graph Latents, um método de aprendizado de representação gráfica, ou a previsão de links com amostragem negativa, os desenvolvedores do GNN podem pré-treinar modelos sem rótulos e ajustar modelos com muito menos rótulos, produzindo representações gráficas fortes. A saída deste pode ser usada para modelos como XGBoost, GNNs ou técnicas para clustering, oferecendo melhores resultados quando implantado para inferência.
Lidando com a Explicabilidade e o Viés do Modelo
Os GNNs também permitem a explicabilidade do modelo com um conjunto de ferramentas. A IA explicável é uma prática do setor que permite que as empresas usem essas ferramentas e técnicas para explicar como os modelos de IA tomam decisões, permitindo que elas se protejam contra vieses.
Transformador de grafo heterogêneo e rede de atenção de grafos, que são modelos GNN, permitem mecanismos de atenção em cada camada do GNN, permitindo que os desenvolvedores identifiquem caminhos de mensagens que os GNNs usam para chegar a uma saída final.
Mesmo sem um mecanismo de atenção, técnicas como GNNExplainer, PGExplainer e GraphMask têm sido sugeridas para explicar as saídas GNN.
Empresas Líderes de Serviços Financeiros Adotam IA para Obter Ganhos
- American Express: Melhorou a precisão de detecção de fraude em 6% com modelos de deep learning e usou o NVIDIA TensorRT no Servidor de Inferência NVIDIA Triton.
- BNY Mellon: O Bank of New York Mellon melhorou a precisão da detecção de fraudes em 20% com o aprendizado federado. O BNY construiu um framework colaborativo de detecção de fraude que executa a computação segura de várias partes do Inpher, que protege dados de terceiros em sistemas NVIDIA DGX.
- PayPal: PayPal buscou um novo sistema de detecção de fraude que pudesse operar continuamente em todo o mundo para proteger as transações dos clientes de possíveis fraudes em tempo real. A empresa entregou um novo nível de serviço, usando inferência impulsionada por GPU NVIDIA para melhorar a detecção de fraude em tempo real em 10%, reduzindo a capacidade do servidor em quase 8 vezes.
- Swedbank: Entre os maiores bancos da Suécia, o Swedbank treinou redes adversárias generativas orientadas por GPU da NVIDIA para detectar atividades suspeitas em esforços para impedir fraudes e lavagem de dinheiro, economizando US$ 150 milhões em um único ano.
Saiba como o NVIDIA AI Enterprise aborda a detecção de fraudes neste webinar.