less than 1 minute read

Tags: ,

為什麼LSTM 好訓練?

ResNet

resnet

調教之前的提醒

  • 問個好問題

    • 要解決的問題,當有不同的問法。通常第一次的問法都要調整,還有一定要考慮是不是有足夠的資料。
  • 建構你的神經網路

初始化方法的選擇

  • 其實基本上,weights 亂亂選就可以。

  • 權重參數選取原則

    • 不要全部設成 0
    • 取小一點的值

    • activation initializer
      sigmoid, tanh Xavier
      ReLu He
      SELU LeCun

初始化的理論

Imgur Imgur
Imgur Imgur
Imgur  

不同參數初始化的方法

  • Sigmoid, tanh
Imgur
  • ReLu
Imgur Imgur
  • SELU
Imgur

Regularization 之 Dropout

Imgur

Regularization

Imgur

學習法改良的兩個方法

Imgur Imgur
Imgur  

Momentum

Imgur Imgur
Imgur  

Learning Rate變速器和Adam學習法

Imgur Imgur
Imgur Imgur

BatchNormalization

Imgur Imgur

ResNet

Imgur Imgur
Imgur  

RNN 可用 ResNet 嗎

SELU

  • SeLU 就只是一個 activation function
Imgur Imgur