A inteligência artificial é o futuro. A inteligência artificial é ficção científica. A inteligência artificial já faz parte de nosso cotidiano. Todas essas afirmações são verdadeiras, só depende do tipo de AI do qual estamos falando.
No início do ano, quando o programa AlphaGo da Google DeepMind derrotou o mestre sul-coreano Lee Se-dol no jogo de tabuleiro Go, por exemplo, os termos AI, machine learning e deep learning foram usados na mídia para descrever como a DeepMind garantiu a vitória. Essas três palavras são parte do motivo pelo qual o AlphaGo venceu Lee Se-Dol, mas não são a mesma coisa.
Para entender a relação entre elas com facilidade, podemos visualizá-las como círculos concêntricos: a AI, a ideia que veio primeiro, sendo o maior, depois o machine learning, que surgiu mais tarde e, finalmente, o deep learning, responsável pela expansão atual da AI e que se encaixa em ambos.
Da Queda à Ascensão
A AI faz parte de nossa imaginação e está presente nos laboratórios de pesquisa desde as Conferências de Dartmouth em 1956, quando cientistas da computação defenderam o termo e criaram o campo da AI. Nas décadas seguintes, a AI foi ora considerada a chave para o futuro mais promissor da civilização, ora descartada por ser uma ideia absurda de especialistas afoitos. Na verdade, até 2012, ela era um pouco das duas coisas.
Nos últimos anos, a AI explodiu, principalmente a partir de 2015. Esse crescimento se deve à ampla disponibilidade de GPUs que tornam o processamento paralelo cada vez mais rápido, mais barato e mais potente. Ele também está relacionado com os fenômenos do armazenamento praticamente infinito e do grande volume de dados de todos os tipos (todo esse movimento do Big Data): imagens, textos, transações, dados de mapeamento, seja o que for.
Vamos ver como os cientistas da computação transformaram uma área que, até 2012, estava em ruínas em um sucesso que gerou aplicações usadas por centenas de milhões de pessoas diariamente.
Inteligência Artificial: Inteligência Humana Exibida por Máquinas
No verão da conferência de 1956, o sonho dos pioneiros da AI era criar máquinas complexas com o poder dos computadores em desenvolvimento na época, que tinham as mesmas características da inteligência humana. Esse é o conceito de “AI geral” que temos hoje: máquinas fantásticas com todos os nossos sentidos (talvez até mais) e razão e que pensam exatamente como nós. Elas sempre aparecem em filmes como amigos, o C-3PO, e inimigos, o Exterminador do Futuro. As máquinas de AI geral continuam nos filmes e romances de ficção científica por um bom motivo: ainda não chegamos a esse nível.
O que conseguimos fazer se encaixa no conceito de “AI estreita”. São tecnologias capazes de realizar tarefas específicas tão bem quanto nós, seres humanos, ou até melhor. São exemplos de AI estrita a classificação de imagens em um serviço como o Pinterest e o reconhecimento facial do Facebook.
Essa é a AI estrita na prática. Essas tecnologias mostram algumas facetas da inteligência humana. Mas como? De onde vem essa inteligência? Vamos para o próximo círculo, o machine learning.
Machine Learning: Uma Abordagem para Chegar à Inteligência Artificial
O machine learning é, basicamente, a prática de usar algoritmos para analisar dados, aprender com eles e prever ou decidir algo no mundo. Em vez de escrever sequências de código de software manualmente com um conjunto específico de instruções para realizar uma determinada tarefa, a máquina é “treinada” com grandes volumes de dados e algoritmos que conferem a ela a capacidade de aprender a executar a tarefa.
O machine learning é uma criação direta dos primeiros desenvolvedores de AI e, ao longo dos anos, surgiram várias abordagens algorítmicas, como aprendizagem por árvore de decisão, programação lógica indutiva, agrupamento, aprendizagem por reforço, redes bayesianas, entre outras. Como sabemos, nenhuma cumpriu o objetivo final da AI geral, e essas primeiras abordagens de machine learning não funcionaram nem para a AI estrita.
Como a história mostrou, por muitos anos, uma das melhores áreas para a aplicação do machine learning foi a visão computacional, apesar de precisar de vários códigos manuais para cumprir seu objetivo. Os programadores escreviam classificadores manualmente: filtros de detecção de bordas para o programa identificar o início e o fim de um objeto, filtros de detecção de forma para saber se ele tinha oito lados e um classificador para reconhecer as letras “P-A-R-E”. A partir desses classificadores escritos manualmente, eles desenvolviam algoritmos para conferir sentido à imagem e ensinar o programa a determinar se era uma placa de PARE.
Foi um avanço, mas nada fantástico, principalmente em um dia nublado em que a placa não está muito visível ou há uma árvore bloqueando uma parte dela. Existe um motivo pelo qual a visão computacional e a detecção de imagens demoraram tanto para chegar perto da capacidade humana: elas são muito sensíveis e suscetíveis a erros.
O tempo e os algoritmos de aprendizagem certos fizeram toda a diferença.
Deep Learning: uma Técnica para Implementar o Machine Learning
Outra abordagem algorítmica dos primeiros desenvolvedores do machine learning foram as redes neurais artificiais, que surgiram e logo foram esquecidas. Elas são inspiradas em nosso entendimento da biologia do cérebro humano, com todas as suas interconexões entre neurônios. Porém, diferentemente de um cérebro biológico, em que qualquer neurônio pode se conectar a outro neurônio a uma determinada distância física, essas redes neurais artificiais têm camadas, conexões e direções dedicadas de propagação de dados.
Digamos, por exemplo, que uma imagem seja dividida em pedaços menores e eles sejam colocados na primeira camada da rede neural. Os neurônios individuais da primeira camada transferem os dados para a segunda camada. A segunda camada de neurônios faz sua parte e assim por diante, até que a camada e os resultado finais sejam produzidos.
Cada neurônio atribui um peso à informação de acordo com sua adequação à tarefa que está sendo realizada. O resultado final é determinado pela soma desses pesos. Vamos voltar para o exemplo da placa de parada obrigatória. Os atributos da imagem da placa são divididos e “examinados” pelos neurônios: o formato octogonal da placa, a cor vermelho-vivo, as letras características, o tamanho de uma placa de trânsito e o movimento ou a falta de movimento. A tarefa da rede neural é concluir se é uma placa de PARE ou não. Ela cria um “vetor de probabilidade”, uma estimativa altamente informada, com base no peso. No exemplo, o sistema pode ter 86% de certeza de que a imagem é uma placa de PARE, 7% de certeza de que é uma placa de limite de velocidade, 5% de certeza de que é uma pipa presa em uma árvore e assim por diante, e a arquitetura da rede informa à rede neural se ela está certa ou não.
Esse exemplo em si já mostra um grande avanço, porque, até pouco tempo atrás, as redes neurais eram menosprezadas pela comunidade científica de AI. Elas existiam desde os primórdios da AI, mas não tinham produzido muita “inteligência”. O problema é que mesmo as redes neurais mais básicas exigiam muitos cálculos, ou seja, não era uma abordagem prática. Apesar disso, um pequeno grupo de pesquisadores inconformados liderados por Geoffrey Hinton, da Universidade de Toronto, continuou tentando, até que, finalmente, criou os algoritmos usados por supercomputadores e comprovou o conceito. Porém, a promessa só se realizou quando as GPUs entraram na jogada.
Voltando ao exemplo da placa de PARE, é bem provável que, conforme a rede é ajustada ou “treinada”, ela chegue a respostas erradas várias vezes. É disso que ela precisa, treinamento. Ela precisa ver centenas de milhares ou até milhões de imagens para ajustar os pesos das informações dos neurônios com máxima precisão e acertar a resposta praticamente todas as vezes, com ou sem névoa, faça sol ou faça chuva. É assim que a rede neural aprende a reconhecer uma placa de PARE, ou o rosto de sua mãe no caso do Facebook, ou um gato, que foi o que Andrew Ng fez em 2012 na Google.
Ele decidiu pegar as redes neurais e ampliá-las, aumentar as camadas e os neurônios e colocar grandes volumes de dados no sistema para treiná-las. Na ocasião, ele inseriu imagens de 10 milhões de vídeos do YouTube. De fato, Ng aprofundou o deep learning, que descreve todas as camadas dessas redes neurais.
Hoje, as máquinas treinadas por deep learning são melhores em reconhecer imagens do que humanos em alguns casos, e isso vale tanto para gatos quanto para indicadores de câncer no sangue e tumores em exames de imagem. O AlphaGo da Google aprendeu o jogo e treinou para a partida de Go jogando várias vezes contra si mesmo por meio do uso da rede neural.
Com o Deep Learning, o Futuro da AI É Promissor
O deep learning tem possibilitado várias aplicações práticas de machine learning e, consequentemente, no campo geral da AI . O deep learning divide tarefas de uma forma que torna possível, e quase provável, todos os tipos de máquinas assistentes. Carros autônomos, melhor prevenção na área da saúde e recomendações ainda melhores de filmes são possibilidades que temos hoje ou que virão no futuro. A AI é o presente e o futuro. Com a ajuda do deep learning, a AI pode chegar ao estado de ficção científica que há tanto desejamos. Pode entrar, C-3PO. Exterminador do Futuro, você está dispensado.