Quickprop とは

Quickpropは、ニュートンの方法に触発されたアルゴリズムに従って、人工ニューラルネットワークの損失関数の最小値を決定するための反復法である。時々、アルゴリズムは二次学習方法の群に分類される。前回の勾配ステップと現在の勾配の二次近似が行われます。これは、損失関数が局所的にほぼ正方形であると仮定して、損失関数の最小値に近いと予想されます。放物線を開く。放物線の頂点で最小値が求められる。手順は、それが適用される人工ニューロンの局所情報のみを必要とする。 k番目の近似ステップは次式で与えられます。
Δ ( k ) w i j = Δ ( k 1 ) w i j ( i j E ( k ) i j E ( k 1 ) i j E ( k ) ) {\displaystyle \Delta ^{(k)}\,w_{ij}=\Delta ^{(k-1)}\,w_{ij}\left({\frac {\nabla _{ij}\,E^{(k)}}{\nabla _{ij}\,E^{(k-1)}-\nabla _{ij}\,E^{(k)}}}\right)}
w i j {\displaystyle w_{ij}} そのi入力のニューロンjの重みであり、Eは損失関数である。
Quickpropアルゴリズムは、エラーバックプロパゲーションアルゴリズムの実装ですが、ネットワークは大きなステップサイズのためにラーニングフェーズ中にカオス的に動作します。