ニューラルネットワークの学習 ニューラルネットワーク ニューロンの組み合せ N + 1 層のニューロンへの入力は、N 層のニューロンの出力 ニューロンの学習には、出力の誤差が必要 重み (wi) の個々の計算は、ニューロン一個と同じ N 層のニューロンの出力の誤差を N + 1 層のニューロンから計算 wi を固定して xi の影響を考えればよい N 層の出力の xi の影響 xi を少しだけ変更した時、y ( N+1 層の出力) がどれだけ変化するか ( wi と同じ考え ) y >= 0 の時、wi に比例 y < 0 の時、変化無し N 層の出力の xi の計算 ( xi をどう修正すべきか ? ) y の誤差 (e = y - 正解値) を小くするように xi を修正 xi' = xi - e * wi * h ( h は修正幅 / wi の値は xi の影響の大きさ ) ) バックプロパゲーション(誤差逆伝搬法) N + 1 層の出力の誤差を利用して、N 層の出力(N + 1 層の入力)誤差を計算 ニューラルネットワークの出力の方向から入力の方向(判断の方向[入力->出力]と)逆に誤差が伝播してゆく