IA em Terremotos: Pesquisadores Revelam Modelo de Deep Learning para Melhorar Previsões

Os pesquisadores colaboram em um novo modelo, chamado RECAST, com o objetivo de melhorar a precisão da previsão de terremotos usando conjuntos de dados maiores.
por Scott Martin

Uma equipe de pesquisa tem como objetivo abalar o status quo dos modelos de terremotos.

Pesquisadores das Universidades da Califórnia em Berkeley e Santa Cruz e da Universidade Técnica de Munique divulgaram recentemente um artigo descrevendo um novo modelo que usa deep learning na previsão de terremotos.

Apelidado de RECAST, o modelo pode usar grandes conjuntos de dados e oferecer mais flexibilidade do que o padrão de modelo atual, o ETAS, que melhorou apenas incrementalmente desde seu desenvolvimento em 1988, argumenta.

Os autores do artigo, Kelian Dascher-Cousineau, Oleksandr Shchur, Emily Brodsky e Stephan Günnemann, treinaram o modelo em workstations com GPU NVIDIA.

“Há todo um campo de pesquisa que explora como melhorar o ETAS”, disse Dacher-Cousineau, pesquisador de pós-doutorado na UC Berkeley. “É um modelo imensamente útil que tem sido muito usado, mas tem sido frustrantemente difícil de melhorar.”

IA Impulsiona a Sismologia

A promessa do RECAST é que sua flexibilidade de modelo, capacidade de autoaprendizado e capacidade de escala permitirão interpretar conjuntos de dados maiores e fazer melhores previsões durante sequências de terremotos, disse ele.

Avanços de modelos com previsões aprimoradas podem ajudar agências como o Serviço Geológico dos EUA e suas contrapartes em outros lugares a oferecer melhores informações para aqueles que precisam saber. Bombeiros e outros socorristas que entram em edifícios danificados, por exemplo, poderiam se beneficiar de previsões mais confiáveis sobre tremores secundários.

“Há muito espaço para melhorar dentro do lado da previsão. E por uma variedade de razões, nossa comunidade realmente não mergulhou no lado do machine learning das coisas, em parte por ser conservadora e em parte porque essas são decisões realmente impactantes”, disse Dacher-Cousineau.

Modelo RECAST Move a Agulha

Embora o trabalho anterior sobre previsões de tremores secundários tenha se baseado em modelos estatísticos, isso não escala para lidar com os conjuntos de dados maiores que se tornam disponíveis a partir de uma explosão de recursos de dados recém-aprimorados, de acordo com os pesquisadores.

A arquitetura do modelo RECAST baseia-se em desenvolvimentos em processos de ponto temporal neural, que são modelos generativos probabilísticos para sequências de eventos de tempo contínuo. Em poucas palavras, o modelo tem uma arquitetura de rede neural codificador-decodificador usada para prever o tempo de um próximo evento com base em um histórico de eventos passados.

Dacher-Cousineau disse que lançar e comparar o modelo no artigo demonstra que ele pode aprender rapidamente a fazer o que o ETAS pode fazer, enquanto tem um vasto potencial para fazer mais.

“Nosso modelo é um modelo generativo que, assim como um modelo de processamento de linguagem natural, você pode gerar parágrafos e parágrafos de palavras, e você pode amostrar e fazer catálogos sintéticos”, disse Dacher-Cousineau. “Parte do artigo está lá para convencer os sismólogos da velha escola de que este é um modelo que está fazendo a coisa certa, e não estamos exagerando.”

Impulsionando Dados de Terremotos com Catálogos Aprimorados

Catálogos de terremotos, ou registros de dados de terremotos, para geografias específicas podem ser pequenos. Isso porque até hoje muitos vêm de analistas sísmicos que interpretam rabiscos de dados brutos que vêm de sismômetros. Mas esta também é uma área em que os pesquisadores de IA estão construindo modelos para interpretar de forma autônoma essas ondas P e outros sinais nos dados em tempo real.

Enquanto isso, dados aprimorados estão ajudando a preencher o vazio. Com os dados rotulados em catálogos de terremotos, os engenheiros de machine learning estão revisitando essas fontes de dados brutos e construindo catálogos aprimorados para obter de 10 a 100 vezes o número de terremotos para dados e categorias de treinamento.

“Portanto, não é necessariamente que colocamos mais instrumentos para coletar dados, mas sim que aprimoramos os conjuntos de dados”, disse Dacher-Cousineau.

Aplicando Conjuntos de Grandes Dados a Outras Configurações

Com os conjuntos de dados maiores, os pesquisadores estão começando a ver melhorias do RECAST em relação ao modelo ETAS padrão.

Para avançar o estado da arte na previsão de terremotos, Dascher-Cousineau está trabalhando com uma equipe de estudantes de graduação da UC Berkeley para treinar catálogos de terremotos em várias regiões para melhores previsões.

“Tenho as analogias de processamento de linguagem natural em mente, onde parece muito plausível que sequências de terremotos no Japão sejam úteis para informar terremotos na Califórnia”, disse ele. “E você pode ver isso indo na direção certa.”

Saiba mais sobre a geração de dados sintéticos com o NVIDIA Omniverse Replicator.