Não é só ficção científica: você sabe a diferença entre inteligência artificial, Machine Learning e Deep Learning?

Inteligência artificial é o futuro. Inteligência artificial é ficção científica. A inteligência artificialfaz parte de nossas vidas cotidianas. Todas essas afirmações são verdadeiras, depende apenas de qual aspecto da IA ​​a que você está se referindo.

Por exemplo, em 2016, em uma partida do jogo de tabuleiro Go, o programa AlphaGo do Google DeepMind derrotou o mestre sul-coreano Lee Se-dol. Para a mídia descrever como a DeepMind venceu, foram usados os termos AI, machine learning e deep learning. E todos os três são parte da razão pela qual a AlphaGo derrotou Lee Se-Dol. Mas eles não são as mesmas coisas.

A maneira mais fácil de compará-los e relacioná-los é os visualizar como círculos concêntricos com IA – a ideia que veio primeiro – o maior Machine Learning – que floresceu mais tarde e finalmente o deep learning – que está impulsionando a explosão de IA – dentro de ambos.

Do Bust ao Boom

A IA tem feito parte de nossas imaginações e fervido em laboratórios de pesquisa desde 1956, quando um punhado de cientistas da computação se reuniu nas Conferências de Dartmouth e deu origem ao campo da IA. Nas décadas que se seguiram, a inteligência artificial foi alternadamente anunciada como a chave para o futuro mais brilhante de nossa civilização, e lançada sobre a pilha de lixo da tecnologia como uma noção desmiolada de guindastes hidráulicos de alcance excessivo. Francamente, até 2012, foi um pouco de ambos.

Nos últimos anos, a IA explodiu e, especialmente, desde 2015. Muito disso tem a ver com a ampla disponibilidade de GPUs que tornam o processamento paralelo cada vez mais rápido, mais barato e mais poderoso. Ele também tem a ver com o impacto simultâneo de um armazenamento praticamente infinito e uma enxurrada de dados de cada faixa (todo esse movimento de Big Data) – imagens, texto, transações, dados de mapeamento, IoT.

Vamos ver como os cientistas da computação mudaram de um Bust – até 2012 – para um Boom que desencadeou aplicativos usados ​​por centenas de milhões de pessoas todos os dias.

Inteligência Artificial – Naquele verão de conferência de 56, o sonho daqueles pioneiros da IA ​​era construir máquinas complexas – habilitadas por computadores emergentes – que possuíssem as mesmas características da inteligência humana. Este é o conceito que pensamos como “General AI” – máquinas fabulosas que têm todos os nossos sentidos (talvez até mais), toda a nossa razão, e pensam exatamente como nós. Você viu essas máquinas interminavelmente em filmes como amigo – C3PO em StarWars – e inimigo – O Exterminador do Futuro. Máquinas genéricas de IA permaneceram nos filmes e romances de ficção científica por um bom motivo; nós não conseguimos cria-las, pelo menos não ainda.

O que podemos fazer se enquadra no conceito de “Narrow AI”. Tecnologias que são capazes de realizar tarefas específicas, assim como, ou melhor, do que nós humanos. Exemplos de inteligência artificial restrita são coisas como classificação de imagem em um serviço como o Pinterest e reconhecimento facial em fotos no Facebook.

As tecnologias listadas exibem algumas facetas da inteligência humana. Mas como? De onde vem essa inteligência? Isso nos leva ao próximo ciclo, Machine Learning.

Machine Learning – Uma Abordagem para Alcançar a Inteligência Artificial

O Machine Learning, em sua forma mais básica, é a prática de usar algoritmos para analisar dados, aprender com eles e depois fazer uma determinação ou previsão sobre algo no mundo. Portanto, em vez de rotinas de software codificadas manualmente com um conjunto específico de instruções para realizar uma tarefa específica, a máquina é “treinada” usando grandes quantidades de dados e algoritmos que lhe permitem aprender a executar a tarefa.

O Machine Learning veio diretamente das mentes do início da IA, e as abordagens algorítmicas ao longo dos anos incluíram a aprendizagem da árvore de decisão, a programação lógica indutiva. aglomeração, aprendizagem de reforço e redes Bayesianas, entre outras. Como sabemos, nenhum deles alcançou o objetivo final da IA ​​geral, e até mesmo a AI restrita estava fora de alcance com as primeiras abordagens de Machine Learning.

Como se viu, uma das melhores áreas de aplicação para aprendizado de máquina por muitos anos foi a visão computacional, embora ainda precisasse de muita codificação manual para realizar o trabalho. As pessoas entravam e escreviam classificadores codificados manualmente, como filtros de detecção de bordas, para que o programa identificasse onde um objeto era iniciado e interrompido; detecção de forma para determinar se tinha oito lados; um classificador para reconhecer as letras “STOP”. De todos esses classificadores codificados manualmente, eles desenvolveriam algoritmos para entender a imagem e “aprender” para determinar se era um sinal de parada.

Bom, mas não muito bom. Especialmente em um dia nublado quando o sinal não é perfeitamente visível, ou uma árvore obscurece parte dele. Há uma razão para que a visão por computador e a detecção de imagens não cheguem perto de rivalizar com seres humanos até muito recentemente, era muito frágil e muito propensa a erros.

O tempo e os algoritmos de aprendizagem corretos fizeram toda a diferença.

Deep Learning – Uma Técnica para Implementar Machine Learning

Outra abordagem algorítmica do aprendizado de máquina inicial são as redes neurais artificiais, que vieram e foram as mais utilizadas ao longo de décadas. As redes neurais são inspiradas por nossa compreensão da biologia de nossos cérebros – todas essas interconexões entre os neurônios. Mas, ao contrário de um cérebro biológico onde qualquer neurônio pode se conectar a qualquer outro neurônio dentro de uma certa distância física, essas redes neurais artificiais têm camadas, conexões e direções de propagação de dados discretas.

Você pode, por exemplo, pegar uma imagem e cortá-la em um monte de peças que serão inseridas na primeira camada da rede neural. A primeira camada neural individual, em seguida, passa os dados para uma segunda camada. A segunda camada neural realiza sua tarefa, e assim por diante, até que a camada final e a saída final sejam produzidas. Cada camada neural atribui uma ponderação à sua entrada – correta ou incorreta relativa à tarefa que está sendo executada.  A saída final é então determinada pelo total dessas ponderações.

Sendo assim, pense no nosso exemplo de sinal de stop. Atributos de uma imagem de sinal de parada são cortados e “examinados” pelos neurônios – sua forma octogonal, sua cor vermelha de motor de fogo, suas letras distintivas, seu tamanho de sinal de tráfego e seu movimento ou a falta dele. A tarefa da rede neural é concluir se é um sinal de parada ou não. Ele surge com um “vetor de probabilidade”, realmente um palpite altamente fundamentado, baseado na ponderação. Em nosso exemplo, o sistema pode estar 86% confiante de que a imagem é um sinal de parada, 7% de um sinal de limite de velocidade e 5% de uma pipa presa em uma árvore, e assim por diante – e a arquitetura de rede informa a rede neural se está certo ou não.

Até mesmo esse exemplo está se adiantando, porque até recentemente as redes neurais eram praticamente desprezadas pela comunidade de pesquisa em IA. Eles existiam desde os primeiros dias da IA ​​e produziam muito pouco em termos de “inteligência”. O problema era que até mesmo as redes neurais mais básicas eram muito intensivas em computação, simplesmente não era uma abordagem prática. Ainda assim, um pequeno grupo de pesquisa herética liderado por Geoffrey Hinton, da Universidade de Toronto, paralelizou os algoritmos para supercomputadores para executar e provar o conceito, mas não foi até GPUs foram implantados no esforço que a promessa foi realizada.

Se voltarmos novamente ao nosso exemplo de sinal de parada, é muito provável que, como a rede está sendo ajustada ou “treinada”, está chegando com respostas muito erradas. O que precisa é de treinamento. Ele precisa ver centenas de milhares, até milhões de imagens, até que as ponderações das entradas dos neurônios sejam ajustadas com tanta precisão que obtém a resposta certa praticamente toda vez – neblina ou ausência de neblina, sol ou chuva. É nesse ponto que a rede neural se ensinou como é um sinal de parada; ou o rosto de sua mãe no caso do Facebook; ou um gato, que foi o que Andrew Ng fez em 2012 no Google.

O avanço de Ng foi pegar essas redes neurais e, essencialmente, torná-las enormes, aumentar as camadas e os neurônios e, em seguida, executar grandes quantidades de dados no sistema para treiná-los. No caso de Ng, eram imagens de 10 milhões de vídeos do YouTube. Ng colocou o “profundo” no aprendizado profundo, que descreve todas as camadas nessas redes neurais.

Hoje, o reconhecimento de imagens por máquinas treinadas via deep learning em alguns cenários é melhor do que o humano, e isso varia de gatos a indicadores de identificação de câncer no sangue e tumores em exames de ressonância magnética. O AlphaGo, do Google, aprendeu o jogo e treinou para o seu jogo Go – ele sintonizou sua rede neural – jogando contra si mesmo repetidas vezes.

Graças ao Deep Learning, a AI tem um futuro brilhante

O aprendizado profundo possibilitou muitas aplicações práticas de aprendizado de máquina e, por extensão, o campo geral da IA. O aprendizado profundo divide as tarefas de uma forma que faz com que todos os tipos de assistências de máquina pareçam possíveis, até mesmo prováveis. Carros sem motorista, melhores cuidados de saúde preventivos, recomendações de filmes ainda melhores, estão todos aqui hoje ou no horizonte. AI é o presente e o futuro. Com a ajuda do aprendizado profundo, a IA pode até chegar ao estado de ficção científica que tanto imaginamos. Se você tem um C-3PO, eu aceito. Você pode manter seu Exterminador.

Leia mais sobre:
Post anterior
O que é o Azure Stream Analytics?
Próximo post
Da caverna à cidade: os hormônios de um líder.

Deixe uma resposta

O seu endereço de e-mail não será publicado. Campos obrigatórios são marcados com *

Preencha esse campo
Preencha esse campo
Digite um endereço de e-mail válido.

Menu