Skip to content

Deep Learning Book

  • Início
  • Capítulos
  • Cursos Online
  • Contato

Deep Learning Book

Em Português, Online e Gratuito

Categoria: Livro Online

Deep Learning Book

Capítulo 35 – A Matemática do Problema de Dissipação do Gradiente em Deep Learning

by

Vamos continuar a discussão iniciada no capítulo anterior. Para entender porque o problema da dissipação do gradiente ocorre, vamos considerar a rede neural profunda mais simples: uma com apenas um único neurônio em cada camada. Aqui está uma rede com três camadas ocultas:     Aqui, w1, w2,… são os pesos, b1, b2,… são os …

Continue Reading
Deep Learning Book

Capítulo 34 – O Problema da Dissipação do Gradiente

by

Então, por que as redes neurais profundas são difíceis de treinar? Para responder a essa pergunta, primeiro revisitemos o caso de uma rede com apenas uma camada oculta. Como de costume, usaremos o problema de classificação de dígitos MNIST o mesmo já estudado nos capítulos anteriores e que você encontra aqui. A partir de um shell …

Continue Reading
Deep Learning Book

Capítulo 33 – Por que as Redes Neurais Profundas São Difíceis de Treinar?

by

Iniciamos agora a terceira e última parte deste livro, em que estudaremos como funciona Deep Learning e os principais modelos e arquiteturas de redes neurais profundas, com diversos exemplos e aplicações. Mas primeiro temos que responder a seguinte pergunta: Por que as Redes Neurais Profundas São Difíceis de Treinar? Imagine que você é um engenheiro que …

Continue Reading
Deep Learning Book

Capítulo 32 – Como Uma Rede Neural Artificial Encontra a Aproximação de Uma Função

by

Este é um capítulo muito importante para compreender como as redes neurais realmente funcionam e Como Uma Rede Neural Artificial Encontra a Aproximação de Uma Função. Acompanhe a explicação passo a passo analisando cada um dos gráficos apresentados. Mas antes de explicar porque o teorema da universalidade é verdadeiro, quero mencionar duas advertências a esta …

Continue Reading
Deep Learning Book

Capítulo 31 – As Redes Neurais Artificiais Podem Computar Qualquer Função?

by

Um dos fatos mais impressionantes sobre redes neurais é que elas podem computar qualquer função. Isto é, suponha que alguém lhe dê alguma função complicada, f(x):     Não importa qual seja a função, é garantido que existe uma rede neural de modo que, para cada entrada possível, x, o valor f(x) (ou alguma aproximação) …

Continue Reading
Deep Learning Book

Capítulo 30 – Variações do Stochastic Gradient Descent – Hessian Optimization e Momentum

by

Cada técnica mostrada até aqui é valiosa e deve ser dominada por aqueles que pretendem trabalhar com redes neurais artificiais e aplicações de Inteligência Artificial, mas essa não é a única razão pela qual nós as explicamos. O ponto principal é familiarizar você com alguns dos problemas que podem ocorrer nas redes neurais e com …

Continue Reading
Deep Learning Book

Capítulo 29 – Definindo o Tamanho do Mini-Batch

by

Quando os dados de treinamento são divididos em pequenos lotes, cada lote recebe o nome de Mini-Batch (ou Mini-Lote). Suponha que os dados de treinamento tenham 32.000 instâncias e que o tamanho de um Mini-Batch esteja definido como 32. Então, haverá 1.000 Mini-Batches. Mas qual deve ser o tamanho do Mini-Batch? Isso é o que …

Continue Reading
Deep Learning Book

Capítulo 28 – Usando Early Stopping Para Definir o Número de Épocas de Treinamento

by

Ao treinar redes neurais, várias decisões precisam ser tomadas em relação às configurações (hiperparâmetros) usadas, a fim de obter um bom desempenho. Um desses hiperparâmetros é o número de épocas de treinamento: ou seja, quantas passagens completas do conjunto de dados (épocas) devem ser usadas? Se usarmos poucas épocas, poderemos ter problemas de underfitting (ou …

Continue Reading
Deep Learning Book

Capítulo 27 – A Taxa de Aprendizado de Uma Rede Neural

by

Vamos continuar a discussão do capítulo anterior sobre a escolha dos hiperparâmetros de um modelo de rede neural, estudando um dos mais importantes, a taxa de aprendizado. Suponha que executemos três redes neurais artificiais sendo treinadas com o dataset MNIST com três taxas de aprendizado diferentes, η = 0.025, η = 0.25 e η = …

Continue Reading
Deep Learning Book

Capítulo 26 – Como Escolher os Hiperparâmetros de Uma Rede Neural

by

Até agora não explicamos como foram escolhidos os valores dos hiperparâmetros como a taxa de aprendizado, η, o parâmetro de regularização, λ e assim por diante. Fornecemos valores que funcionaram muito bem, mas, na prática, quando você está usando redes neurais para resolver um problema, pode ser difícil encontrar bons parâmetros. Neste capítulo, começamos nosso …

Continue Reading

Paginação de posts

  • Previous
  • 1
  • 2
  • 3
  • 4

Capítulos Recentes

  • Capítulo 25 – Inicialização de Pesos em Redes Neurais Artificiais
  • Capítulo 24 – Expandir Artificialmente os Dados de Treinamento
  • Capítulo 23 – Como Funciona o Dropout?
  • Capítulo 22 – Regularização L1
  • Capítulo 21 – Afinal, Por Que a Regularização Ajuda a Reduzir o Overfitting?
  • Capítulo 20 – Overfitting e Regularização – Parte 2
  • Capítulo 19 – Overfitting e Regularização – Parte 1
  • Capítulo 18 – Entropia Cruzada Para Quantificar a Diferença Entre Duas Distribuições de Probabilidade
  • Capítulo 17 – Cross-Entropy Cost Function
  • Capítulo 16 – Algoritmo Backpropagation em Python

Buscar

Podcast DSA

© 2022 Data Science Academy - www.datascienceacademy.com.br