Skip to content

Deep Learning Book

  • Início
  • Capítulos
  • Cursos Online
  • Contato

Deep Learning Book

Em Português, Online e Gratuito

Categoria: Livro Online

Deep Learning Book

Capítulo 65 – Distribuições de Probabilidade, Redes Neurais e Reinforcement Learning

by

Nos capítulos anteriores estudamos os conceitos gerais ligados ao Aprendizado Por Reforço (Reinforcement Learning). A partir de agora vamos entrar nos detalhes mais técnicos ligados a este importante método de aprendizagem de máquina, estudando Distribuições de Probabilidade, Redes Neurais e Reinforcement Learning. Acompanhe. O Objetivo do Aprendizado Por Reforço O objetivo do Aprendizado Por Reforço …

Continue Reading
Deep Learning Book

Capítulo 64 – Componentes do Aprendizado Por Reforço (Reinforcement Learning)

by

O Aprendizado Por Reforço pode ser entendido através de seus componentes: agente, ambiente, estados, ações e recompensas, todos os quais explicaremos neste capítulo. Letras maiúsculas indicarão conjuntos de objetos e letras minúsculas indicarão um objeto específico. Por exemplo: A são todas as ações possíveis, enquanto a é uma ação específica contida no conjunto. Agente: um …

Continue Reading
Deep Learning Book

Capítulo 63 – Aplicações da Aprendizagem Por Reforço no Mundo Real

by

Enquanto as Redes Neurais Convolucionais (CNNs) e as Redes Neurais Recorrentes (RNNs) estão se tornando cada vez mais importantes para as empresas devido às suas aplicações em Visão Computacional e Processamento de Linguagem Natural, o Aprendizado por Reforço como uma estrutura para a neurociência computacional de um modelo para o processo de tomada de decisão …

Continue Reading
Deep Learning Book

Capítulo 62 – O Que é Aprendizagem Por Reforço?

by

Todas as arquiteturas de Deep Learning que estudamos até aqui neste livro podem ser classificadas em duas categorias de aprendizagem de máquina (você já sabe que Deep Learning é sub-categoria de Machine Learning, que por sua vez é uma sub-categoria de Inteligência Artificial):  Aprendizagem Supervisionada – quando apresentamos ao algoritmo dados de entrada e as …

Continue Reading
Deep Learning Book

Capítulo 61 – A Matemática dos Variational Autoencoders (VAEs)

by

No capítulo anterior, fornecemos a seguinte visão geral intuitiva: Os VAEs são Autoencoders que codificam entradas como distribuições em vez de pontos e cuja “organização” do espaço latente é regularizada restringindo as distribuições retornadas pelo codificador a estarem próximas de um gaussiano padrão. Neste capítulo, forneceremos uma visão matemática dos VAEs que nos permitirá justificar …

Continue Reading
Deep Learning Book

Capítulo 60 – Variational Autoencoders (VAEs) – Definição, Redução de Dimensionalidade, Espaço Latente e Regularização

by

Nos últimos anos, modelos generativos baseados em aprendizado profundo ganharam cada vez mais interesse devido a (e implicando) algumas melhorias surpreendentes em Inteligência Artificial. Contando com uma enorme quantidade de dados, arquiteturas de rede bem projetadas e técnicas de treinamento inteligentes, os modelos generativos profundos demonstraram uma capacidade incrível de produzir peças de conteúdo altamente …

Continue Reading
Deep Learning Book

Capítulo 59 – Principais Tipos de Redes Neurais Artificiais Autoencoders

by

Neste capítulo vamos estudar os tipos principais de Autoencoders (estamos considerando que você leu o capítulo anterior): Os Autoencoders codificam os valores de entrada x usando uma função f. Em seguida, decodificam os valores codificados f (x) usando uma função g para criar valores de saída idênticos aos valores de entrada. O objetivo do Autoencoder …

Continue Reading
Deep Learning Book

Capítulo 58 – Introdução aos Autoencoders

by

Até aqui neste livro descrevemos arquiteturas de redes neurais profundas (Deep Learning) usadas em aprendizagem supervisionada, na qual rotulamos exemplos de treinamento, fornecendo ao algoritmo dados de entrada (X) e de saída (Y). Agora, suponha que tenhamos apenas um conjunto de exemplos de treinamento não rotulados {x1, x2, x3,…}, onde x (i) ∈ℜn. Uma rede …

Continue Reading
Deep Learning Book

Capítulo 57 – Os Detalhes Matemáticos das GANs (Generative Adversarial Networks)

by

Neste capítulo vamos concluir nosso estudo das GANs com os detalhes matemáticos, antes de avançar para outra arquitetura de Deep Learning que estudaremos na sequência. Estamos considerando que você leu os capítulos anteriores sobre GANs. A modelagem de redes neurais requer essencialmente definir duas coisas: uma arquitetura e uma função de perda. Já descrevemos a …

Continue Reading
Deep Learning Book

Capítulo 56 – Modelos Generativos – O Diferencial das GANs (Generative Adversarial Networks)

by

Neste capítulo discutiremos o funcionamento dos modelos generativos, o principal diferencial nas GANs (Generative Adversarial Networks). Estamos considerando que você leu o capítulo anterior. Suponha que estamos interessados ​​em gerar imagens quadradas em preto e branco de cães com um tamanho de n por n pixels. Podemos remodelar cada dado como um vetor dimensional N …

Continue Reading
Deep Learning Book

Capítulo 55 – Geração de Variáveis Aleatórias – Uma das Bases dos Modelos Generativos em GANs (Generative Adversarial Networks)

by

Neste capítulo discutiremos o processo de geração de variáveis aleatórias a partir de uma determinada distribuição, tema importante para compreender o funcionamento dos modelos generativos das GANs e nos próximos capítulos veremos os detalhes de funcionamento dos modelos generativos e os detalhes matemáticos das GANs. Estamos considerando que você leu o capítulo anterior. Variáveis ​​aleatórias …

Continue Reading
Deep Learning Book

Capítulo 54 – Introdução às Redes Adversárias Generativas (GANs – Generative Adversarial Networks)

by

  Você pode não achar que os programadores são artistas, mas a programação é uma profissão extremamente criativa. É criatividade baseada em lógica. – John Romero Redes Adversárias Generativas (GANs) são arquiteturas de redes neurais profundas compostas por duas redes colocadas uma contra a outra (daí o nome “adversárias”). Esta é uma das arquiteturas mais …

Continue Reading
Deep Learning Book

Capítulo 53 – Matemática na GRU, Dissipação e Clipping do Gradiente

by

A capacidade da rede GRU de manter dependências ou memória de longo prazo decorre dos cálculos na célula na GRU para produzir o estado oculto. As LSTMs têm dois estados diferentes passados entre as células – o estado da célula e o estado oculto, que carregam a memória de longo e curto prazo, respectivamente – …

Continue Reading
Deep Learning Book

Capítulo 52 – Arquitetura de Redes Neurais Gated Recurrent Unit (GRU)

by

Neste capítulo estudaremos um tipo realmente fascinante de rede neural. Introduzido por Cho, et al. em 2014, a GRU (Gated Recurrent Unit) visa resolver o problema da dissipação do gradiente que é comum em uma rede neural recorrente padrão. A GRU também pode ser considerada uma variação da LSTM porque ambas são projetadas de maneira …

Continue Reading
Deep Learning Book

Capítulo 51 – Arquitetura de Redes Neurais Long Short Term Memory (LSTM)

by

Estudamos as redes neurais recorrentes e suas limitações nos capítulos anteriores. Para superar alguns dos problemas das RNNs, podemos usar algumas de suas variações. Uma delas é chamada LSTM ou Long Short Term Memory, um tipo de rede neural recorrente, que é usada em diversos cenários de Processamento de Linguagem Natural. Neste capítulo estudaremos a …

Continue Reading
Deep Learning Book

Capítulo 50 – A Matemática da Dissipação do Gradiente e Aplicações das RNNs

by

No Capítulo 34 nós discutimos sobre o problema da dissipação do gradiente e a dificuldade em treinar as redes neurais artificiais. Com as RNNs esse problema é ainda mais acentuado e por isso vamos agora estudar A Matemática da Dissipação do Gradiente e Aplicações das RNNs e compreender matematicamente porque o problema acontece. Mencionamos anteriormente …

Continue Reading
Deep Learning Book

Capítulo 49 – A Matemática do Backpropagation Through Time (BPTT)

by

Estudamos no capítulo anterior as Redes Neurais Recorrentes. Mas para que elas funcionem, o algoritmo de treinamento precisa de um pequeno ajuste, uma vez que esse tipo de rede possui o que podemos chamar de “memória” durante seu treinamento. E o que faz isso acontecer é A Matemática do Backpropagation Through Time (BPTT), assunto deste …

Continue Reading
Deep Learning Book

Capítulo 48 – Redes Neurais Recorrentes

by

A partir deste capítulo estudaremos diversas outras arquiteturas de Deep Learning, que estão sendo usadas em aplicações de Inteligência Artificial de última geração. Continue conosco nessa incrível jornada. Os humanos não começam a pensar do zero a cada segundo. Ao ler este texto, você entende cada palavra com base em sua compreensão das palavras anteriores. …

Continue Reading
Deep Learning Book

Capítulo 47 – Reconhecimento de Imagens com Redes Neurais Convolucionais em Python – Parte 4

by

Vejamos como implementar nosso modelo de Rede Neural Convolucional que vai aprender a diferença nas imagens de cães e gatos e quando apresentarmos novas imagens ao modelo, ele será capaz de prever se a imagem é de um cão ou gato de forma automática. O Jupyter Notebook completo está disponível com os demais arquivos do …

Continue Reading
Deep Learning Book

Capítulo 46 – Reconhecimento de Imagens com Redes Neurais Convolucionais em Python – Parte 3

by

Uma das principais dúvidas de quem está iniciando em Machine Learning e se depara com as Redes Neurais Convolucionais, é sobre como ocorre o aprendizado dos parâmetros (aquilo que o algoritmo realmente aprende durante o treinamento). O que exatamente está sendo feito quando apresentamos uma imagem a um algoritmo de Rede Neural Convolucional? Sabemos que …

Continue Reading
Deep Learning Book

Capítulo 45 – Reconhecimento de Imagens com Redes Neurais Convolucionais em Python – Parte 2

by

Vamos iniciar nosso trabalho de Reconhecimento de Imagens com Redes Neurais Convolucionais em Python cuidando da nossa matéria-prima: dados. Precisamos fazer o download das imagens e organizá-las para então iniciar o trabalho. Usaremos como fonte de dados, o famoso dataset Dogs and Cats oferecido pelo Kaggle, o portal sobre Competições de Data Science. Você pode …

Continue Reading
Deep Learning Book

Capítulo 44 – Reconhecimento de Imagens com Redes Neurais Convolucionais em Python – Parte 1

by

Nossa tarefa é simples: vamos fornecer a um modelo de Deep Learning uma imagem e o modelo terá que classificar se a imagem é de um cachorro ou gato! Parece fácil, não? Na verdade, não! Para que isso funcione precisamos construir e treinar um modelo de Deep Learning, o que envolve conhecimentos de Matemática, Estatística, …

Continue Reading
Deep Learning Book

Capítulo 43 – Camadas de Pooling em Redes Neurais Convolucionais

by

Além das camadas convolucionais que acabamos de descrever nos capítulos anteriores, as redes neurais convolucionais também contêm camadas de agrupamento (ou Pooling). Camadas de Pooling são geralmente usadas imediatamente após camadas convolucionais e o que fazem é simplificar as informações na saída da camada convolucional. Vejamos o que são e como funcionam as Camadas de …

Continue Reading
Deep Learning Book

Capítulo 42 – Compartilhamento de Pesos em Redes Neurais Convolucionais

by

Vamos continuar estudando Deep Learning e investigar como funciona o Compartilhamento de Pesos em Redes Neurais Convolucionais. Já dissemos que cada neurônio tem um viés e pesos 5 × 5 conectados ao seu campo receptivo local. O que eu não mencionamos é que vamos usar os mesmos pesos e vieses para cada um dos 24 …

Continue Reading
Deep Learning Book

Capítulo 41 – Campos Receptivos Locais em Redes Neurais Convolucionais

by

Vamos estudar em detalhes a partir de agora as Redes Neurais Convolucionais, uma das principais arquiteturas de Deep Learning, amplamente usada em Visão Computacional. E começaremos compreendendo o que são os Campos Receptivos Locais. Mas antes, afinal, o que é Visão Computacional, amplamente usada em aplicações de Inteligência Artificial? O Que é Visão Computacional? Imagine …

Continue Reading
Deep Learning Book

Capítulo 40 – Introdução às Redes Neurais Convolucionais

by

Nos primeiros capítulos deste livro ensinamos nossas redes neurais a fazer um bom trabalho reconhecendo imagens de dígitos manuscritos:     Fizemos isso usando redes nas quais camadas adjacentes são totalmente conectadas umas às outras. Ou seja, todos os neurônios da rede estão conectados a todos os neurônios em camadas adjacentes:     Em particular, …

Continue Reading
Deep Learning Book

Capítulo 39 – Relação Entre o Tamanho do Lote e o Cálculo do Gradiente

by

Vamos continuar com a discussão dos dois capítulos anteriores e investigar a Relação Entre o Tamanho do Lote e o Cálculo do Gradiente. Como explicar porque o treinamento com lotes maiores leva a uma precisão menor nos testes? Uma hipótese pode ser que as amostras de treinamento no mesmo lote interfiram (competem) com o gradiente …

Continue Reading
Deep Learning Book

Capítulo 38 – O Efeito da Taxa de Aprendizagem no Treinamento de Redes Neurais Artificiais

by

Vamos retomar a discussão do capítulo anterior e tentar melhorar a precisão do modelo nos dados de teste a partir de um tamanho de lote maior, aumentando a taxa de aprendizado (learning rate). Vamos estudar O Efeito da Taxa de Aprendizagem no Treinamento de Redes Neurais Artificiais. Algumas pesquisas na literatura sobre otimização em Machine …

Continue Reading
Deep Learning Book

Capítulo 37 – O Efeito do Batch Size no Treinamento de Redes Neurais Artificiais

by

A partir deste capítulo você vai compreender em mais detalhes a arquitetura dos principais modelos de Deep Learning, com ênfase nas escolhas dos hiperparâmetros e abordagens de treinamento. Vamos começar com O Efeito do Batch Size no Treinamento de Redes Neurais Artificiais. Neste experimento, vamos investigar o efeito do tamanho do lote (Batch Size) na …

Continue Reading
Deep Learning Book

Capítulo 36 – Outros Problemas com o Gradiente em Redes Neurais Artificiais

by

No capítulo anterior descrevemos para você a Matemática que ajuda a explicar a causa do problema da dissipação do gradiente. Mas a dissipação não é o único problema que pode ocorrer. Neste capítulo vamos descrever outros possíveis problemas com o gradiente em redes neurais artificiais. Explosão do Gradiente Vamos ver um exemplo explícito em que …

Continue Reading

Paginação de posts

  • Previous
  • 1
  • 2
  • 3
  • 4
  • Next

Capítulos Recentes

  • Capítulo 25 – Inicialização de Pesos em Redes Neurais Artificiais
  • Capítulo 24 – Expandir Artificialmente os Dados de Treinamento
  • Capítulo 23 – Como Funciona o Dropout?
  • Capítulo 22 – Regularização L1
  • Capítulo 21 – Afinal, Por Que a Regularização Ajuda a Reduzir o Overfitting?
  • Capítulo 20 – Overfitting e Regularização – Parte 2
  • Capítulo 19 – Overfitting e Regularização – Parte 1
  • Capítulo 18 – Entropia Cruzada Para Quantificar a Diferença Entre Duas Distribuições de Probabilidade
  • Capítulo 17 – Cross-Entropy Cost Function
  • Capítulo 16 – Algoritmo Backpropagation em Python

Buscar

Podcast DSA

© 2022 Data Science Academy - www.datascienceacademy.com.br