論文の概要: Improving the Backpropagation Algorithm with Consequentialism Weight
Updates over Mini-Batches
- arxiv url: http://arxiv.org/abs/2003.05164v2
- Date: Sat, 2 Jan 2021 03:41:00 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 13:36:48.514854
- Title: Improving the Backpropagation Algorithm with Consequentialism Weight
Updates over Mini-Batches
- Title(参考訳): ミニバッチによる連続性重み更新によるバックプロパゲーションアルゴリズムの改善
- Authors: Naeem Paeedeh, Kamaledin Ghiasi-Shirazi
- Abstract要約: 適応フィルタのスタックとして多層ニューラルネットワークを考えることが可能であることを示す。
我々は,BPで発生した行動の悪影響を予測し,その発生前にも予測し,よりよいアルゴリズムを導入する。
我々の実験は、ディープニューラルネットワークのトレーニングにおけるアルゴリズムの有用性を示す。
- 参考スコア(独自算出の注目度): 0.40611352512781856
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Many attempts took place to improve the adaptive filters that can also be
useful to improve backpropagation (BP). Normalized least mean squares (NLMS) is
one of the most successful algorithms derived from Least mean squares (LMS).
However, its extension to multi-layer neural networks has not happened before.
Here, we first show that it is possible to consider a multi-layer neural
network as a stack of adaptive filters. Additionally, we introduce more
comprehensible interpretations of NLMS than the complicated geometric
interpretation in affine projection algorithm (APA) for a single
fully-connected (FC) layer that can easily be generalized to, for instance,
convolutional neural networks and also works better with mini-batch training.
With this new viewpoint, we introduce a better algorithm by predicting then
emending the adverse consequences of the actions that take place in BP even
before they happen. Finally, the proposed method is compatible with stochastic
gradient descent (SGD) and applicable to momentum-based derivatives such as
RMSProp, Adam, and NAG. Our experiments show the usefulness of our algorithm in
the training of deep neural networks.
- Abstract(参考訳): 多くの試みは、バックプロパゲーション(BP)の改善にも役立つ適応フィルタを改善するために行われた。
正規化最小平均平方 (NLMS) は、最小平均平方 (LMS) から派生した最も成功したアルゴリズムの1つである。
しかし、マルチ層ニューラルネットワークへの拡張はこれまで行われていない。
本稿では,まず,多層ニューラルネットワークを適応フィルタのスタックとして考えることができることを示す。
さらに,畳み込みニューラルネットワークへの一般化が容易であり,ミニバッチトレーニングでもうまく機能する,単一の完全連結(fc)層に対するアフィン射影アルゴリズム(apa)の複雑な幾何学的解釈よりも,nlmのより理解しやすい解釈を導入する。
この新しい視点では、bpで発生した行動の悪影響を予測し、それが起こる前に修正することでより良いアルゴリズムを導入する。
最後に,本手法は確率勾配降下法 (sgd) に適合し, rmsprop, adam, nagなどの運動量に基づく誘導体に適用できる。
実験では,深層ニューラルネットワークの学習におけるアルゴリズムの有用性を示す。
関連論文リスト
- Unfolded proximal neural networks for robust image Gaussian denoising [7.018591019975253]
本稿では,二元FBと二元Chambolle-Pockアルゴリズムの両方に基づいて,ガウス分母タスクのためのPNNを統一的に構築するフレームワークを提案する。
また、これらのアルゴリズムの高速化により、関連するNN層におけるスキップ接続が可能であることを示す。
論文 参考訳(メタデータ) (2023-08-06T15:32:16Z) - The Cascaded Forward Algorithm for Neural Network Training [61.06444586991505]
本稿では,ニューラルネットワークのための新しい学習フレームワークであるCascaded Forward(CaFo)アルゴリズムを提案する。
FFとは異なり、我々のフレームワークは各カスケードブロックのラベル分布を直接出力する。
我々のフレームワークでは、各ブロックは独立して訓練できるので、並列加速度システムに容易に展開できる。
論文 参考訳(メタデータ) (2023-03-17T02:01:11Z) - Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - AskewSGD : An Annealed interval-constrained Optimisation method to train
Quantized Neural Networks [12.229154524476405]
我々は、深層ニューラルネットワーク(DNN)を量子化重みでトレーニングするための新しいアルゴリズム、Annealed Skewed SGD - AskewSGDを開発した。
アクティブなセットと実行可能な方向を持つアルゴリズムとは異なり、AskewSGDは実行可能な全セットの下でのプロジェクションや最適化を避けている。
実験結果から,AskewSGDアルゴリズムは古典的ベンチマークの手法と同等以上の性能を示した。
論文 参考訳(メタデータ) (2022-11-07T18:13:44Z) - Scaling Forward Gradient With Local Losses [117.22685584919756]
フォワード学習は、ディープニューラルネットワークを学ぶためのバックプロップに代わる生物学的に妥当な代替手段である。
重みよりも活性化に摂動を適用することにより、前方勾配のばらつきを著しく低減できることを示す。
提案手法はMNIST と CIFAR-10 のバックプロップと一致し,ImageNet 上で提案したバックプロップフリーアルゴリズムよりも大幅に優れていた。
論文 参考訳(メタデータ) (2022-10-07T03:52:27Z) - Revisiting Recursive Least Squares for Training Deep Neural Networks [10.44340837533087]
再帰最小二乗法(RLS)アルゴリズムは、その高速収束のため、かつては小規模ニューラルネットワークのトレーニングに広く用いられていた。
従来のRSSアルゴリズムは、計算複雑性が高く、事前条件が多すぎるため、ディープニューラルネットワーク(DNN)のトレーニングには適さない。
本稿では,フィードフォワードニューラルネットワーク,畳み込みニューラルネットワーク,リカレントニューラルネットワークの3つの新しいRSS最適化アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-07T17:43:51Z) - Activation Relaxation: A Local Dynamical Approximation to
Backpropagation in the Brain [62.997667081978825]
活性化緩和(AR)は、バックプロパゲーション勾配を力学系の平衡点として構成することで動機付けられる。
我々のアルゴリズムは、正しいバックプロパゲーション勾配に迅速かつ堅牢に収束し、単一のタイプの計算単位しか必要とせず、任意の計算グラフで操作できる。
論文 参考訳(メタデータ) (2020-09-11T11:56:34Z) - Communication-Efficient Distributed Stochastic AUC Maximization with
Deep Neural Networks [50.42141893913188]
本稿では,ニューラルネットワークを用いた大規模AUCのための分散変数について検討する。
我々のモデルは通信ラウンドをはるかに少なくし、理論上はまだ多くの通信ラウンドを必要としています。
いくつかのデータセットに対する実験は、我々の理論の有効性を示し、我々の理論を裏付けるものである。
論文 参考訳(メタデータ) (2020-05-05T18:08:23Z) - MSE-Optimal Neural Network Initialization via Layer Fusion [68.72356718879428]
ディープニューラルネットワークは、さまざまな分類と推論タスクに対して最先端のパフォーマンスを達成する。
グラデーションと非進化性の組み合わせは、学習を新しい問題の影響を受けやすいものにする。
確率変数を用いて学習した深層ネットワークの近傍層を融合する手法を提案する。
論文 参考訳(メタデータ) (2020-01-28T18:25:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。