Manual Prático do Deep Learning - Redes Neurais Profundas
Redes Neurais por debaixo dos panos
Description
Já pensou se as Redes Neurais viessem com um Manual Prático de instruções passo-a-passo sobre como construí-las?
Pois é, esse manual agora existe!
Com ajuda desse Manual, você vai implementar desde os neurônios mais básicos (como o Perceptron, o Adaline e o Sigmoid) até uma Rede Neural completa com:
learning rate
momentum
dropout
regularização L1/L2
técnicas de inicialização de pesos (normal, uniform, e glorot/xavier)
mini-batch Gradiente Descendente
freezing
learning rate decay
early stopping
batch normalization
Além disso, esse Manual também contém segredos e dicas de especialistas pra lhe ajudar a treinar suas próprias Redes Neurais bem mais fácil, como:
quais os melhores valores para cada hiperparâmetro (learning rate, qtde. de camadas, qtde. neurônios, tamanho do batch, etc)?
o que fazer quando a rede não converge?
como evitar os problemas de vanishing/exploding gradients?
como identificar e resolver underfitting e overfitting?
Esse Manual também acompanha a ferramenta essencial pra implementação de Redes Neurais: a Backpropagation.
Poucas pessoas sabem utilizá-la, mas nesse Manual você encontra um método único e memorável de ensino conhecido como "deriva quem tá dentro e multiplica por quem tá fora!".
Tudo isso feito pelo autor desse Manual, que:
é Google Developer Expert em Machine Learning desde 2018
trabalha com Machine Learning e Deep Learning desde 2016
é professor de Pós-Graduação em Machine Learning
é Doutor em Deep Learning
tem um nanodegree em Deep Learning
treina Redes Nerais desde 2015
What You Will Learn!
- Projetar redes neurais profundas para resolver problemas de regressão e classificação binária/multiclasse
- Entender os efeitos dos hiperparâmetros no treinamento (qtde. de camadas, qtde. de nerônios, learning rate, momentum, dropout, etc)
- Entender por que o treinamento de Redes Neurais não convergem em alguns casos, e como resolver esses problemas
- Se tornar um Ninja em Backpropagation, aplicando na prática, e sendo capaz de calcular os gradientes de qualquer função derivável
- Implementar uma Rede Neural completa do Zero (com momentum, dropout, regularização L1/L2, learning rate decay, early stopping, batch normalization e freezing)
Who Should Attend!
- entusiastas de Machine Learning e Deep Learning que desejam ir além de frameworks como Keras, Tensorflow, PyTorch, etc, entendendo como eles funcionam
- curiosos interessados em implementar uma Rede Neural do zero (somente com python e numpy) com taxa de aprendizagem, momentum, dropout, regularização L1/L2, learning rate decay, early stopping, batch normalization, etc..