Ratings: 4.88 / 5.00




Description

Já pensou se as Redes Neurais viessem com um Manual Prático de instruções passo-a-passo sobre como construí-las?

Pois é, esse manual agora existe!


Com ajuda desse Manual, você vai implementar desde os neurônios mais básicos (como o Perceptron, o Adaline e o Sigmoid) até uma Rede Neural completa com:

  • learning rate

  • momentum

  • dropout

  • regularização L1/L2

  • técnicas de inicialização de pesos (normal, uniform, e glorot/xavier)

  • mini-batch Gradiente Descendente

  • freezing

  • learning rate decay

  • early stopping

  • batch normalization


Além disso, esse Manual também contém segredos e dicas de especialistas pra lhe ajudar a treinar suas próprias Redes Neurais bem mais fácil, como:

  • quais os melhores valores para cada hiperparâmetro (learning rate, qtde. de camadas, qtde. neurônios, tamanho do batch, etc)?

  • o que fazer quando a rede não converge?

  • como evitar os problemas de vanishing/exploding gradients?

  • como identificar e resolver underfitting e overfitting?


Esse Manual também acompanha a ferramenta essencial pra implementação de Redes Neurais: a Backpropagation.

Poucas pessoas sabem utilizá-la, mas nesse Manual você encontra um método único e memorável de ensino conhecido como "deriva quem tá dentro e multiplica por quem tá fora!".


Tudo isso feito pelo autor desse Manual, que:

  • é Google Developer Expert em Machine Learning desde 2018

  • trabalha com Machine Learning e Deep Learning desde 2016

  • é professor de Pós-Graduação em Machine Learning

  • é Doutor em Deep Learning

  • tem um nanodegree em Deep Learning

  • treina Redes Nerais desde 2015

What You Will Learn!

  • Projetar redes neurais profundas para resolver problemas de regressão e classificação binária/multiclasse
  • Entender os efeitos dos hiperparâmetros no treinamento (qtde. de camadas, qtde. de nerônios, learning rate, momentum, dropout, etc)
  • Entender por que o treinamento de Redes Neurais não convergem em alguns casos, e como resolver esses problemas
  • Se tornar um Ninja em Backpropagation, aplicando na prática, e sendo capaz de calcular os gradientes de qualquer função derivável
  • Implementar uma Rede Neural completa do Zero (com momentum, dropout, regularização L1/L2, learning rate decay, early stopping, batch normalization e freezing)

Who Should Attend!

  • entusiastas de Machine Learning e Deep Learning que desejam ir além de frameworks como Keras, Tensorflow, PyTorch, etc, entendendo como eles funcionam
  • curiosos interessados em implementar uma Rede Neural do zero (somente com python e numpy) com taxa de aprendizagem, momentum, dropout, regularização L1/L2, learning rate decay, early stopping, batch normalization, etc..