Digamos que seu pedido de empréstimo on-line tenha sido recusado sem nenhuma explicação. Esse é um dos mistérios da AI.
Empresas de todos os setores usam a AI para tomar decisões computadorizadas baseadas em dados. Porém, os consumidores que usam aplicações com AI não sabem muito bem como as decisões automatizadas funcionam. Além disso, muitos dos funcionários dessas empresas não conseguem explicar o funcionamento interno da AI para os clientes.
A Fiddler Labs quer mudar isso.
Sediada em São Francisco, a startup oferece uma plataforma de AI explicável que possibilita que as empresas expliquem, monitorem e analisem seus produtos de AI.
A AI explicável é uma tecnologia cada vez mais procurada pelas empresas, pois aquelas que não estão inseridas no ramo de engenharia precisam entender como os modelos de AI funcionam.
Com a AI explicável, os bancos podem explicar aos clientes por que o empréstimo deles foi recusado a partir de pontos de dados inseridos nos modelos, como limites de cartões de crédito excedidos ou índices elevados de dívida sobre renda. Já dentro das empresas, os profissionais de marketing podem criar estratégias de relacionamento com o cliente e desenvolver produtos com um conhecimento mais aprofundado dos pontos de dados relevantes.
“Essa tecnologia estabelece um diálogo entre os cientistas de dados experientes que criam os modelos e as equipes de negócios que usam os modelos para tomar decisões”, afirmou Anusha Sethuraman, Diretora de Marketing de Produto da Fiddler Labs.
A Fiddler Labs participa do NVIDIA Inception, um programa que oferece a empresas que trabalham com AI e ciência de dados ferramentas fundamentais, conhecimento especializado e apoio no marketing, além de ajudá-las a comercializar seus produtos mais rapidamente.
O Que É AI Explicável?
A AI explicável é um conjunto de ferramentas e técnicas que ajudam a estudar a matemática interna de um modelo de AI. Com ela, é possível planejar os dados inseridos e os valores ponderados usados para chegar aos dados extraídos do modelo.
Basicamente, com todas essas ferramentas, uma pessoa leiga é capaz de entender a parte interna de um processo que geralmente não é muito transparente. Assim, a AI explicável pode apresentar informações sobre como e por que um modelo tomou uma determinada decisão.
“Geralmente, encontramos obstáculos ao tentar usar a AI na produção. A explicabilidade é um dos fatores que, a nosso ver, podem acabar com esses obstáculos”, revelou Sethuraman.
Com uma série de modelos em uso, não é fácil criar algo assim.
Porém, o CEO e Cofundador da Fiddler Labs, Krishna Gade, se lançou a esse desafio. Ele foi o líder da equipe do Facebook que criou o recurso “Por que estou vendo essa publicação?” para ajudar os consumidores e as equipes internas a entender como a AI funciona no feed de notícias do Facebook.
Ele e Amit Paka, colega de curso na Universidade de Minnesota, resolveram, juntos, sair de seus empregos e fundar a Fiddler Labs. Paka, o Diretor de Produtos da empresa, usou como motivação sua experiência na Samsung com aplicações de recomendação de compras e a falta de entendimento de como os modelos de recomendação de AI funcionam.
Explicabilidade para Aumentar a Transparência
Fundada em 2018, a Fiddler Labs oferece explicabilidade para aumentar a transparência nos negócios. Ela ajuda empresas a tomar decisões de negócios mais bem informadas por meio da reunião de dados, AI explicável e supervisão humana, de acordo com Sethuraman.
A tecnologia da Fiddler é usada pelo Hired, um site de recrutamento e seleção de profissionais que usa AI. A Fiddler gera relatórios do funcionamento dos modelos de AI do Hired em tempo real. Ela também apresenta uma explicação da avaliação dos candidatos e oferece feedback do monitoramento da parcialidade, garantindo ao Hired a possibilidade de avaliar a AI.
A AI explicável precisa ser disponibilizada o quanto antes para as aplicações de tecnologia e finanças do consumidor. Assim, os profissionais de atendimento ao cliente poderão explicar as decisões financeiras automatizadas, como recusas de empréstimos e taxas ROBO, e ganhar confiança graças à transparência no processo.
Os algoritmos usados para as explicações exigem bastante processamento. Sethuraman explicou que a Fiddler Labs usa as GPUs NVIDIA no cloud para realizar essa tarefa e afirmou que CPUs não dão conta do trabalho.
“Não dá para esperar 30 segundos para ter uma explicação. As pessoas querem explicações sobre várias coisas diferentes, dependendo dos casos de uso, em milissegundos”, comentou Sethuraman.
Acesse a página do setor de serviços financeiros da NVIDIA para saber mais.
Crédito da imagem: Emily Morter, pela Comunidade de Fotos da Unsplash.