論文の概要: Continual Backprop: Stochastic Gradient Descent with Persistent
Randomness
- arxiv url: http://arxiv.org/abs/2108.06325v1
- Date: Fri, 13 Aug 2021 17:33:47 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-16 13:03:18.514651
- Title: Continual Backprop: Stochastic Gradient Descent with Persistent
Randomness
- Title(参考訳): 連続的バックプロップ:持続的ランダム性を伴う確率的勾配降下
- Authors: Shibhansh Dohare, A. Rupam Mahmood, Richard S. Sutton
- Abstract要約: 連続的な学習設定では、Backpropは最初はうまく機能するが、時間が経つにつれて性能は低下する。
そこで本研究では,新しい生成・テストプロセスを用いて,勾配降下に伴うランダムな特徴を連続的に注入するアルゴリズムを提案する。
Backpropとは異なり、Continuous Backpropは教師付き学習と強化学習の両方に継続的に適応することができる。
- 参考スコア(独自算出の注目度): 10.328928746773084
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: The Backprop algorithm for learning in neural networks utilizes two
mechanisms: first, stochastic gradient descent and second, initialization with
small random weights, where the latter is essential to the effectiveness of the
former. We show that in continual learning setups, Backprop performs well
initially, but over time its performance degrades. Stochastic gradient descent
alone is insufficient to learn continually; the initial randomness enables only
initial learning but not continual learning. To the best of our knowledge, ours
is the first result showing this degradation in Backprop's ability to learn. To
address this issue, we propose an algorithm that continually injects random
features alongside gradient descent using a new generate-and-test process. We
call this the Continual Backprop algorithm. We show that, unlike Backprop,
Continual Backprop is able to continually adapt in both supervised and
reinforcement learning problems. We expect that as continual learning becomes
more common in future applications, a method like Continual Backprop will be
essential where the advantages of random initialization are present throughout
learning.
- Abstract(参考訳): ニューラルネットワークにおける学習のためのバックプロップアルゴリズムは、確率的勾配降下と、小さなランダムウェイトによる初期化の2つのメカニズムを使用しており、後者は前者の有効性に必須である。
連続的な学習設定では、Backpropは最初はうまく機能するが、時間とともに性能は低下する。
確率的勾配降下だけでは連続学習が不十分であり、初期ランダム性は初期学習のみを可能にするが連続学習はできない。
私たちの知る限りでは、私たちの結果はバックプロップの学習能力の低下を示す最初の結果です。
この問題に対処するために,新しい生成・テストプロセスを用いて,勾配降下に伴うランダムな特徴を連続的に注入するアルゴリズムを提案する。
これを連続バックプロップアルゴリズムと呼ぶ。
Backpropとは異なり、Continuous Backpropは教師付き学習と強化学習の両方に継続的に適応可能であることを示す。
今後,連続学習が一般化するにつれて,ランダム初期化の利点が学習中に存在するような,連続的バックプロップのような手法が不可欠になることを期待する。
関連論文リスト
- Unrolled denoising networks provably learn optimal Bayesian inference [54.79172096306631]
我々は、近似メッセージパッシング(AMP)のアンロールに基づくニューラルネットワークの最初の厳密な学習保証を証明した。
圧縮センシングでは、製品から引き出されたデータに基づいてトレーニングを行うと、ネットワークの層がベイズAMPで使用されるのと同じデノイザーに収束することを示す。
論文 参考訳(メタデータ) (2024-09-19T17:56:16Z) - The Cascaded Forward Algorithm for Neural Network Training [61.06444586991505]
本稿では,ニューラルネットワークのための新しい学習フレームワークであるCascaded Forward(CaFo)アルゴリズムを提案する。
FFとは異なり、我々のフレームワークは各カスケードブロックのラベル分布を直接出力する。
我々のフレームワークでは、各ブロックは独立して訓練できるので、並列加速度システムに容易に展開できる。
論文 参考訳(メタデータ) (2023-03-17T02:01:11Z) - Scaling Forward Gradient With Local Losses [117.22685584919756]
フォワード学習は、ディープニューラルネットワークを学ぶためのバックプロップに代わる生物学的に妥当な代替手段である。
重みよりも活性化に摂動を適用することにより、前方勾配のばらつきを著しく低減できることを示す。
提案手法はMNIST と CIFAR-10 のバックプロップと一致し,ImageNet 上で提案したバックプロップフリーアルゴリズムよりも大幅に優れていた。
論文 参考訳(メタデータ) (2022-10-07T03:52:27Z) - DLCFT: Deep Linear Continual Fine-Tuning for General Incremental
Learning [29.80680408934347]
事前学習した表現からモデルを連続的に微調整するインクリメンタルラーニングのための代替フレームワークを提案する。
本手法は, ニューラルネットワークの線形化手法を利用して, 単純かつ効果的な連続学習を行う。
本手法は,データ増分,タスク増分およびクラス増分学習問題において,一般的な連続学習設定に適用可能であることを示す。
論文 参考訳(メタデータ) (2022-08-17T06:58:14Z) - Forward Signal Propagation Learning [2.578242050187029]
本稿では,学習信号を伝達し,フォワードパスを介してニューラルネットワークパラメータを更新する学習アルゴリズムを提案する。
生物学では、フィードバックのないニューロンが依然としてグローバルな学習信号を受信する方法を説明する。
sigpropは、フォワードパスのみで、グローバルな教師付き学習を可能にする。
論文 参考訳(メタデータ) (2022-04-04T04:41:59Z) - Gradient Descent on Neural Networks Typically Occurs at the Edge of
Stability [94.4070247697549]
ニューラルネットワークトレーニング対象に対するフルバッチ勾配降下は、安定性のエッジと呼ばれるレジームで動作します。
この体制では、トレーニング損失 Hessian の最大固有値は2/text(ステップサイズ)$ の数値よりすぐ上にあり、トレーニング損失は短い時間スケールで非単調に振る舞うが、長い時間スケールでは一貫して減少する。
論文 参考訳(メタデータ) (2021-02-26T22:08:19Z) - First-order Optimization for Superquantile-based Supervised Learning [0.0]
本稿では,超量子的学習目標を最小化する一階最適化アルゴリズムを提案する。
提案アルゴリズムは,不完全な畳み込みによる超量子関数の平滑化に基づく。
論文 参考訳(メタデータ) (2020-09-30T11:43:45Z) - Activation Relaxation: A Local Dynamical Approximation to
Backpropagation in the Brain [62.997667081978825]
活性化緩和(AR)は、バックプロパゲーション勾配を力学系の平衡点として構成することで動機付けられる。
我々のアルゴリズムは、正しいバックプロパゲーション勾配に迅速かつ堅牢に収束し、単一のタイプの計算単位しか必要とせず、任意の計算グラフで操作できる。
論文 参考訳(メタデータ) (2020-09-11T11:56:34Z) - Feature Purification: How Adversarial Training Performs Robust Deep
Learning [66.05472746340142]
ニューラルネットワークのトレーニングプロセス中に隠れた重みに、特定の小さな密度の混合物が蓄積されることが、敵の例の存在の原因の1つであることを示す。
この原理を説明するために、CIFAR-10データセットの両実験と、ある自然な分類タスクに対して、ランダムな勾配勾配勾配を用いた2層ニューラルネットワークをトレーニングすることを証明する理論的結果を示す。
論文 参考訳(メタデータ) (2020-05-20T16:56:08Z) - Generative Feature Replay with Orthogonal Weight Modification for
Continual Learning [20.8966035274874]
生成的再生は、破滅的な忘れを和らげるために、以前のタスクの擬似データを生成し再生する有望な戦略である。
生成モデルを用いて垂直層の特徴を再現することを提案する; 2) 自己監督型補助タスクを活用して特徴の安定性をさらに向上する。
いくつかのデータセットにおける実験結果から,我々の手法は常に強力なOWMよりも大幅に改善されていることが分かる。
論文 参考訳(メタデータ) (2020-05-07T13:56:22Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。