Quickpropは、ニュートンの方法に触発されたアルゴリズムに従って、人工ニューラルネットワークの損失関数の最小値を決定するための反復法である。時々、アルゴリズムは二次学習方法の群に分類される。前回の勾配ステップと現在の勾配の二次近似が行われます。これは、損失関数が局所的にほぼ正方形であると仮定して、損失関数の最小値に近いと予想されます。放物線を開く。放物線の頂点で最小値が求められる。手順は、それが適用される人工ニューロンの局所情報のみを必要とする。 k番目の近似ステップは次式で与えられます。
そのi入力のニューロンjの重みであり、Eは損失関数である。
Quickpropアルゴリズムは、エラーバックプロパゲーションアルゴリズムの実装ですが、ネットワークは大きなステップサイズのためにラーニングフェーズ中にカオス的に動作します。
そのi入力のニューロンjの重みであり、Eは損失関数である。
Quickpropアルゴリズムは、エラーバックプロパゲーションアルゴリズムの実装ですが、ネットワークは大きなステップサイズのためにラーニングフェーズ中にカオス的に動作します。