バッチ勾配降下法・確率的勾配降下法

バッチ勾配降下法

→ 訓練データ全体から学習を計算する

= 学習ごとに、訓練データ全体を評価するー計算コストが高い

対応

確率的勾配降下法

訓練データごと段階的に重みをつける

特徴

・高速に収束する(重みの更新頻度が高いため)

・浅い局所的最小値をより簡単に抜け出せる ←誤差局面のノイズが多いため(1つの訓練データに基づいて計算されるため)

・訓練データをランダムな順番に並べ替えることが重要

・学習率が適応学習率に置き換えられることが多い(←徐々に減少する性質を持った学習率)?

・大域的最小値に到達しないが、かなり近い場所で収束する

・オンライン学習に利用できる

(大量にデータが蓄積されている場合、変化が生じた時にシステムを適応させることができる)

 

ミニバッチ勾配降下法

バッチ勾配降下法 + 確率的勾配降下法

・1部にバッチ勾配降下ほうを適応する

・バッチ勾配降下法のみよりは素早く収束する

・学習アルゴリズムの計算効率をさらに引き上げる

(確率勾配降下法の訓練データのforループをベクトル演算に置き換えることができる?)

 

逐次勾配降下法