Três Maneiras Pelas Quais a IA Generativa Pode Reforçar a Cibersegurança

A tecnologia de machine learning que toma o mundo de assalto também pode ajudar a defender as redes de intrusos.
por David Reber Jr.

Os analistas humanos não podem mais se defender efetivamente contra a crescente velocidade e complexidade dos ataques de cibersegurança. A quantidade de dados é simplesmente muito grande para ser examinada manualmente.

A IA generativa, a ferramenta mais transformadora do nosso tempo, possibilita uma espécie de jiu jitsu digital. Ele permite que as empresas transformem a força dos dados que ameaça sobrecarregá-las em uma força que torna suas defesas mais fortes.

Os líderes empresariais parecem prontos para a oportunidade em questão. Em uma pesquisa recente, os CEOs disseram que a cibersegurança é uma de suas três principais preocupações, e eles veem a IA generativa como uma tecnologia líder que fornecerá vantagens competitivas.

A IA generativa traz riscos e vantagens. Um blog anterior descreveu seis etapas para iniciar o processo de proteção da IA corporativa.

Aqui estão três maneiras pelas quais a IA generativa pode reforçar a cibersegurança.

Comece com os Desenvolvedores

Primeiro, dê aos desenvolvedores um copiloto de segurança.

Todos desempenham um papel na segurança, mas nem todos são especialistas em segurança. Então, este é um dos lugares mais estratégicos para começar.

O melhor lugar para começar a reforçar a segurança é no front-end, onde os desenvolvedores estão escrevendo software. Um assistente impulsionado por IA, treinado como especialista em segurança, pode ajudá-los a garantir que seu código siga as práticas recomendadas em segurança.

O assistente de software de IA pode ficar mais inteligente a cada dia se for impulsionado com código previamente revisado. Ele pode aprender com o trabalho anterior para ajudar a orientar os desenvolvedores sobre as práticas recomendadas.

Para dar aos usuários uma vantagem, a NVIDIA está criando um workflow para criar esses copilotos ou chatbots. Esse workflow específico usa componentes do NVIDIA NeMo, um framework para criar e personalizar grandes modelos de linguagem.

Quer os usuários personalizem seus próprios modelos ou usem um serviço comercial, um assistente de segurança é apenas o primeiro passo para aplicar IA generativa à cibersegurança.

Um Agente para Analisar Vulnerabilidades

Em segundo lugar, deixe a IA generativa ajudar a navegar no mar de vulnerabilidades de software conhecidas.

A qualquer momento, as empresas devem escolher entre milhares de patches para mitigar explorações conhecidas. Isso porque cada pedaço de código pode ter raízes em dezenas, se não milhares de ramificações de software diferentes e projetos de código aberto.

Um LLM focado em análise de vulnerabilidades pode ajudar a priorizar quais patches uma empresa deve implementar primeiro. É um assistente de segurança particularmente poderoso porque lê todas as bibliotecas de software que uma empresa usa, bem como suas políticas sobre os recursos e APIs que suporta.

Para testar esse conceito, a NVIDIA criou um pipeline para analisar contêineres de software em busca de vulnerabilidades. O agente identificou áreas que precisavam de correção com alta precisão, acelerando o trabalho dos analistas humanos em até 4 vezes.

A conclusão é clara. É hora de recrutar a IA generativa como uma resposta inicial na análise de vulnerabilidade.

Preencha a Lacuna de Dados

Finalmente, use LLMs para ajudar a preencher a crescente lacuna de dados em cibersegurança.

Os usuários raramente compartilham informações sobre violações de dados porque são muito confidenciais. Isso dificulta a antecipação de façanhas.

Os modelos de IA generativa podem criar dados sintéticos para simular padrões de ataque nunca antes vistos. Esses dados sintéticos também podem preencher lacunas nos dados de treinamento para que os sistemas de machine learning aprendam a se defender contra ataques antes que eles aconteçam.

Simulações Seguras de Preparo

Não espere que os inavasores demonstrem o que é possível. Crie simulações seguras para saber como eles podem tentar penetrar nas defesas corporativas.

Esse tipo de defesa proativa é a marca registrada de um forte programa de segurança. Os adversários já estão usando IA generativa em seus ataques. É hora de os usuários aproveitarem essa poderosa tecnologia para defesa cibernética.

Para mostrar o que é possível, outro workflow de IA usa IA generativa para se defender contra o spear phishing: e-mails falsos cuidadosamente direcionados que custaram às empresas cerca de US$ 2,4 bilhões apenas em 2021.

Esse workflow gerou e-mails sintéticos para garantir que tivesse muitos bons exemplos de mensagens de spear phishing. O modelo de IA treinado nesses dados aprendeu a entender a intenção dos e-mails recebidos por meio de recursos de processamento de linguagem natural no NVIDIA Morpheus, um framework para cibersegurança impulsionado por IA.

O modelo resultante captou 21% mais e-mails de spear phishing do que as ferramentas existentes. Confira em nosso blog do desenvolvedor ou assista ao vídeo abaixo para saber mais.

Onde quer que os usuários escolham iniciar esse trabalho, a automação é crucial, dada a escassez de especialistas em cibersegurança e os milhares e milhares de usuários e casos de uso que as empresas precisam proteger.

Essas três ferramentas (assistentes de software, analistas de vulnerabilidade virtual e simulações de dados sintéticos) são ótimos pontos de partida para aplicar IA generativa a uma jornada de segurança que continua todos os dias.

Mas isso é só o começo. As empresas precisam integrar a IA generativa em todas as camadas de suas defesas.

Participe de um webinar para obter mais detalhes sobre como começar.