んちゃ!
今回は機械学習の入門的記事としてバックプロパゲーションについて書いていくのだ。
ちなみに、いつも通り厳密性より分かるを重視しているので、「どんなものでも厳密でなければならぬ!」と考えている方はブラウザバック推奨なのだ。
層とは次のようなものなのだ。入力
ただし、
ちなみに、以下重み
NewuralNetworkとは、層
ベクトル場
パラメータ
と書けるので、
実数
先の微分で
*自己微分列、目的微分列なる様な用語は一般的に使われていないので注意。この記事の中だけで通じる用語です。目的微分は誤差関数を入力xで微分したもの。勾配降下法ではこの微分したものが最も重要なことが分かるだろうなのだ。
チェインルールを考慮すると下記画像の様にして目的微分を求める事ができる。
画像の名前
つまり、グラフ的に考えると次の様に目的微分を求めることで、すべての頂点に対して目的微分を求めることができるのだ。