Loading
Inteligência Artificial

Não é só ficção científica: diferenças entre Inteligência Artificial, Machine Learning e Deep Learning

Qual a diferença entre inteligência artificial, machine learning e deep learning?

Compreender a diferença entre inteligência artificial, machine learning e deep learning é o primeiro passo para discernir a abordagem mais adequada para cada um de seus objetivos de negócio.

Assine nossa Newsletter!

Você recebe gratuitamente o melhor do nosso conteúdo diretamente no seu e-mail.

Digite um endereço de e-mail válido.

Gostou?
Compartilhe!

Potencialize a inovação e acelere a evolução digital aplicando as distintas abordagens de IA, Machine Learning e Deep Learning.

Inteligência artificial é o futuro. Inteligência artificial é ficção científica. A inteligência artificial já faz parte de nossas vidas cotidianas.

Todas essas afirmações são verdadeiras, depende apenas de qual aspecto da IA ​​a que você está se referindo.

Por exemplo, em 2016, em uma partida do jogo de tabuleiro Go, o programa AlphaGo do Google DeepMind derrotou o mestre sul-coreano Lee Se-dol.

Para a mídia descrever como a DeepMind venceu, ela usou os termos AI, Machine Learning (ML) e Deep Learning (DL).

E todos os três são parte da razão pela qual a AlphaGo derrotou Lee Se-Dol. Mas eles não são as mesmas coisas.

A maneira mais fácil de compará-los e relacionar suas diferenças é os visualizar como círculos concêntricos. IA – a ideia que veio primeiro – o maior Machine Learning – que floresceu mais tarde e, finalmente, o Deep Learning – que está impulsionando a explosão de IA – dentro de ambos.

Do Bust ao Boom

A IA tem feito parte de nossas imaginações e fervido em laboratórios de pesquisa desde 1956.

Foi quando um punhado de cientistas da computação se reuniu nas Conferências de Dartmouth e deu origem ao campo da Inteligência Artificial.

Nas décadas que se seguiram, a inteligência artificial foi alternadamente anunciada como a chave para o futuro mais brilhante de nossa civilização.

E lançada sobre a pilha de lixo da tecnologia como uma noção desmiolada de guindastes hidráulicos de alcance excessivo.

Francamente, até 2012, foi um pouco de ambos.

Nos últimos anos, a IA explodiu e, especialmente, desde 2015.

Muito disso tem a ver com a ampla disponibilidade de GPUs que tornam o processamento paralelo cada vez mais rápido, mais barato e mais poderoso.

Ele também tem a ver com o impacto simultâneo de um armazenamento praticamente infinito e uma enxurrada de dados de cada faixa (todo esse movimento de Big Data) – imagens, texto, transações, dados de mapeamento, IoT.

Vamos ver adiante como os cientistas da computação mudaram de um Bust – até 2012 – para um Boom que desencadeou aplicativos usados ​​por centenas de milhões de pessoas todos os dias.

Entendendo a diferença entre IA, Machine Learning e Deep Learning

A compreensão das distinções entre Inteligência Artificial, Machine Learning e Deep Learning é fundamental para evoluir no universo tecnológico atual.

Embora frequentemente utilizados de forma intercambiável, esses conceitos têm diferenças vitais.

Inicialmente concebida como a replicação da inteligência humana, a inteligência artificial engloba sistemas que executam tarefas específicas ou reproduzem habilidades humanas limitadas.

O Machine Learning é uma abordagem dentro da IA que permite às máquinas aprenderem com os dados e tomarem decisões ou fazerem previsões.

Embora tenha suas raízes nos primórdios da IA, o ML evoluiu para revolucionar tarefas como análise de dados, detecção de padrões e previsões precisas.

Já o Deep Learning é uma técnica avançada de ML que usa redes neurais artificiais com múltiplas camadas para aprender representações complexas de dados.

Essas estruturas, inspiradas no cérebro humano, impulsionaram avanços em reconhecimento de imagem, processamento de linguagem natural – muito presente hoje em nossas vidas por meio das ferramentas de IA generativa – e muito mais.

Compreender essas diferenças é crucial para determinar qual dessas abordagens tecnológicas se alinha melhor com as necessidades específicas de aplicação.

Exploraremos cada uma dessas áreas em detalhes para entender como elas moldam nosso mundo digital.

Inteligência Artificial: almejando a inteligência humana

Naquele verão de conferência de 56, o sonho daqueles pioneiros da IA ​​era construir máquinas complexas – habilitadas por computadores emergentes – que possuíssem as mesmas características da inteligência humana.

Este é o conceito que pensamos como “General AI” – máquinas fabulosas que têm todos os nossos sentidos (talvez até mais), toda a nossa razão, e pensam exatamente como nós.

Você viu essas máquinas interminavelmente em filmes, como amigas – C3PO em StarWars – e inimigas – O Exterminador do Futuro.

Máquinas genéricas de IA permaneceram nos filmes e romances de ficção científica por um bom motivo: nós não conseguimos criá-las, pelo menos não ainda.

O que podemos fazer se enquadra no conceito de “Narrow AI” – Inteligência Artificial Restrita. Tecnologias que são capazes de realizar tarefas específicas, assim como, ou melhor, do que nós humanos.

Exemplos de inteligência artificial restrita são coisas como classificação de imagem em um serviço como o Pinterest e reconhecimento facial em fotos no Facebook.

As tecnologias listadas exibem algumas facetas da inteligência humana.

Mas como? De onde vem essa inteligência? Isso nos leva ao próximo ciclo, Machine Learning.

Machine Learning: a transformação dos algoritmos para alcançar a IA

O Machine Learning, em sua forma mais básica, é a prática de usar algoritmos para analisar dados, aprender com eles e depois fazer uma determinação ou previsão sobre algo no mundo.

Portanto, em vez de rotinas de software codificadas manualmente com um conjunto específico de instruções para realizar uma tarefa específica, a máquina é “treinada” usando grandes quantidades de dados e algoritmos que lhe permitem aprender a executar a tarefa.

O Machine Learning veio diretamente das mentes do início da IA.

E as abordagens algorítmicas incluíram a aprendizagem da árvore de decisão, programação lógica indutiva, aglomeração, aprendizagem de reforço, redes Bayesianas, entre outras.

Como sabemos, nenhuma delas alcançou o objetivo final da IA ​​geral. E até mesmo a AI restrita estava fora de alcance com as primeiras abordagens de Machine Learning.

Como se viu, uma das melhores áreas de aplicação para aprendizado de máquina por muitos anos foi a visão computacional, embora ainda precisasse de muita codificação manual para realizar o trabalho.

As pessoas entravam e escreviam classificadores codificados manualmente, como:

  • Filtros de detecção de bordas, para que o programa identificasse onde um objeto era iniciado e interrompido.
  • Detecção de forma, para determinar se o objeto tinha oito lados.
  • Um classificador para reconhecer as letras “STOP”.

De todos esses classificadores codificados manualmente, eles desenvolveriam algoritmos para entender a imagem e “aprender” para determinar se era um sinal de parada.

Bom, mas não muito. Especialmente em um dia nublado quando o sinal não é perfeitamente visível, ou uma árvore obscurece parte dele.

Há uma razão para que a visão por computador e a detecção de imagens não cheguem perto de rivalizar com seres humanos até muito recentemente. Era muito frágil e muito propensa a erros.

O tempo e os algoritmos de aprendizagem corretos fizeram toda a diferença.

Deep Learning: uma profundidade de conhecimento atingida

Outra abordagem algorítmica do aprendizado de máquina inicial são as redes neurais artificiais, que vieram e foram as mais usadas ao longo de décadas.

As redes neurais são inspiradas por nossa compreensão da biologia de nossos cérebros – todas essas interconexões entre os neurônios.

Mas, ao contrário de um cérebro biológico onde qualquer neurônio pode se conectar a qualquer outro neurônio dentro de uma certa distância física, essas redes neurais artificiais têm camadas, conexões e direções de propagação de dados discretas.

Você pode, por exemplo, pegar uma imagem e cortá-la em um monte de peças para inserir na primeira camada da rede neural.

A primeira camada neural individual, em seguida, passa os dados para uma segunda camada.

A segunda camada neural realiza sua tarefa, e assim por diante, até que a camada final e a saída final sejam produzidas.

Cada camada neural atribui uma ponderação à sua entrada – correta ou incorreta relativa à tarefa que está sendo executada. 

A saída final é então determinada pelo total dessas ponderações.

Um exemplo de como funciona o Deep Learning

Pense no nosso exemplo de sinal de “STOP”. No Deep Learning, os neurônios artificiais cortam e “examinam” atributos de uma imagem de sinal de parada:

  • sua forma octogonal;
  • a cor vermelha de motor de fogo;
  • as letras distintivas;
  • seu tamanho de sinal de tráfego;
  • e seu movimento, ou a falta dele.

A tarefa da rede neural é concluir, então, se é um sinal de parada ou não.

Ela surge com um “vetor de probabilidade”. Realmente um palpite altamente fundamentado, baseado na ponderação.

Em nosso exemplo, o sistema pode estar 86% confiante de que a imagem é um sinal de parada; 7% de um sinal de limite de velocidade; e 5% de uma pipa presa em uma árvore, e assim por diante. E a arquitetura de rede informa a rede neural se está certo ou não.

Até mesmo esse exemplo está se adiantando, porque até recentemente as redes neurais eram praticamente desprezadas pela comunidade de pesquisa em IA.

Elas existiam desde os primeiros dias da IA ​​e produziam muito pouco em termos de “inteligência”.

O problema era que até mesmo as redes neurais mais básicas eram muito intensivas em computação. Simplesmente não era uma abordagem prática.

Como o aprendizado profundo evoluiu

Ainda assim, um pequeno grupo de pesquisa herética liderado por Geoffrey Hinton, da Universidade de Toronto, paralelizou os algoritmos para supercomputadores para executar e provar o conceito.

Mas não foi. Até GPUs foram implantados no esforço que a promessa fosse realizada.

Se voltarmos novamente ao nosso exemplo de sinal de parada, é muito provável que, como a rede está sendo ajustada, ou “treinada”, está chegando com respostas muito erradas.

O que precisa é de treinamento. Ela precisa ver centenas de milhares, até milhões de imagens. Até que as ponderações das entradas dos neurônios sejam ajustadas com tanta precisão que obtém a resposta certa praticamente toda vez. Com ou sem neblina, com sol ou chuva.

É nesse ponto que a rede neural se ensinou como é um sinal de parada; ou o rosto de sua mãe no caso do Facebook; ou um gato, que foi o que Andrew Ng fez em 2012 no Google.

O avanço de Ng foi pegar essas redes neurais e, essencialmente, torná-las enormes.

Aumentar as camadas e os neurônios e, em seguida, executar grandes quantidades de dados no sistema para treiná-los.

No caso de Ng, eram imagens de 10 milhões de vídeos do YouTube. Ng colocou o “profundo” no aprendizado profundo, que descreve todas as camadas nessas redes neurais.

Hoje, o reconhecimento de imagens por máquinas treinadas via deep learning em alguns cenários é melhor do que o humano.

E isso varia de gatos a indicadores de identificação de câncer no sangue e tumores em exames de ressonância magnética.

O AlphaGo, do Google, aprendeu o jogo e treinou para seu jogo Go – ele sintonizou sua rede neural – jogando contra si mesmo repetidas vezes.

Graças ao Deep Learning, a AI tem um futuro brilhante

O Machine Learning e o Deep Learning possibilitaram muitas aplicações práticas de aprendizado de máquina e, por extensão, o campo geral da IA.

Mas o Deep Learning, especificamente, divide as tarefas de uma forma que faz com que todos os tipos de assistências de máquina pareçam possíveis, até mesmo prováveis.

Carros autônomos, melhores cuidados de saúde preventivos, recomendações de conteúdo ainda melhores, estão todos aqui hoje ou no horizonte.

AI é o presente e o futuro. Com a ajuda do aprendizado profundo, a IA pode até chegar ao estado de ficção científica que tanto imaginamos. Se você tem um C-3PO, eu aceito. Você pode manter seu Exterminador.

A diferença entre Inteligência Artificial, Machine Learning e Deep Learning é notável. Veja alguns possíveis casos de uso com IA: O que é inteligência artificial | Tipos, aplicações e tendências.

Foto de Cesar Piskor, CTO & Innovation Leader na Niteo

Cesar Piskor

CTO & Innovation Leader na Niteo

Mais insights sobre: Inteligência Artificial

77% das empresas no Brasil falham ao transformar dados em insights!

Desafios? Falta de conhecimento técnico e ferramentas adequadas.

Forrester Consulting

Tela de computador exibindo um dashboard dinâmico em Power BI

Saia da estatística com nossa Fábrica de Dashboards, um conjunto de aceleradores para construir painéis dinâmicos de dados.

Ícone do Microsoft Power BI

Adote uma cultura orientada a dados!

Com o treinamento corporativo em Power BI da Niteo Learning você eleva ainda mais as habilidades analíticas e a consciência data-driven da sua equipe.

Nos acompanhe nas mídias sociais!
LinkedIn
Instagram
YouTube

Assine nossa Newsletter!

Você recebe gratuitamente o melhor do nosso conteúdo diretamente no seu e-mail.

Digite um endereço de e-mail válido.

Insights relacionados:

Loading