論文の概要: Progressive Latent Replay for efficient Generative Rehearsal
- arxiv url: http://arxiv.org/abs/2207.01562v1
- Date: Mon, 4 Jul 2022 16:28:05 GMT
- ステータス: 処理完了
- システム内更新日: 2022-07-05 17:51:42.703789
- Title: Progressive Latent Replay for efficient Generative Rehearsal
- Title(参考訳): 効率的な生成リハーサルのためのプログレッシブ潜在リプレイ
- Authors: Stanis{\l}aw Pawlak, Filip Szatkowski, Micha{\l} Bortkiewicz, Jan
Dubi\'nski, Tomasz Trzci\'nski
- Abstract要約: 本稿では,ネットワークの深さに基づいてリハーサルの頻度を変調する内部リプレイ手法を提案する。
我々は,提案手法をProgressive Latent Replayと命名し,リソースを著しく減らしながら内部リプレイより優れていることを示す。
- 参考スコア(独自算出の注目度): 9.267156820352996
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce a new method for internal replay that modulates the frequency of
rehearsal based on the depth of the network. While replay strategies mitigate
the effects of catastrophic forgetting in neural networks, recent works on
generative replay show that performing the rehearsal only on the deeper layers
of the network improves the performance in continual learning. However, the
generative approach introduces additional computational overhead, limiting its
applications. Motivated by the observation that earlier layers of neural
networks forget less abruptly, we propose to update network layers with varying
frequency using intermediate-level features during replay. This reduces the
computational burden by omitting computations for both deeper layers of the
generator and earlier layers of the main model. We name our method Progressive
Latent Replay and show that it outperforms Internal Replay while using
significantly fewer resources.
- Abstract(参考訳): 本稿では,ネットワークの深さに基づいてリハーサルの頻度を変調する新しい内部再生法を提案する。
リプレイ戦略は、ニューラルネットワークにおける破滅的な忘れ方の影響を緩和するが、ジェネレーティブリプレイに関する最近の研究は、ネットワークの深い層でのみリハーサルを行うことで、継続的な学習のパフォーマンスが向上することを示している。
しかし、生成的アプローチは計算オーバーヘッドを増加させ、アプリケーションを制限する。
ニューラルネットワークの初期の層が突然の遅延をあまり忘れないという観察に触発されて、リプレイ中の中間レベル特徴を用いて様々な周波数でネットワーク層を更新することを提案する。
これにより、ジェネレータの深い層とメインモデルの前の層の両方の計算を省略することで、計算負担を低減することができる。
我々は,提案手法をProgressive Latent Replayと命名し,リソースを著しく減らしながら内部リプレイより優れていることを示す。
関連論文リスト
- Globally Optimal Training of Neural Networks with Threshold Activation
Functions [63.03759813952481]
しきい値アクティベートを伴うディープニューラルネットワークの重み劣化正規化学習問題について検討した。
ネットワークの特定の層でデータセットを破砕できる場合に、簡易な凸最適化の定式化を導出する。
論文 参考訳(メタデータ) (2023-03-06T18:59:13Z) - Backward Gradient Normalization in Deep Neural Networks [68.8204255655161]
ニューラルネットワークトレーニングにおける勾配正規化のための新しい手法を提案する。
勾配は、ネットワークアーキテクチャ内の特定の点で導入された正規化レイヤを使用して、後方通過中に再スケールされる。
非常に深いニューラルネットワークを用いたテストの結果、新しい手法が勾配ノルムを効果的に制御できることが示されている。
論文 参考訳(メタデータ) (2021-06-17T13:24:43Z) - Low-memory stochastic backpropagation with multi-channel randomized
trace estimation [6.985273194899884]
ニューラルネットワークにおける畳み込み層の勾配を多チャンネルランダム化トレース推定手法を用いて近似する。
他の手法と比較して、このアプローチは単純で分析に適しており、メモリフットプリントを大幅に削減する。
本稿では、バックプロパゲーションでトレーニングしたネットワークの性能と、メモリ使用量の最大化と計算オーバーヘッドの最小化を図りながら、エラーを制御する方法について論じる。
論文 参考訳(メタデータ) (2021-06-13T13:54:02Z) - Predify: Augmenting deep neural networks with brain-inspired predictive
coding dynamics [0.5284812806199193]
我々は神経科学の一般的な枠組みからインスピレーションを得た:「予測コーディング」
本稿では、この戦略をVGG16とEfficientNetB0という2つの人気ネットワークに実装することで、様々な汚職に対する堅牢性を向上させることを示す。
論文 参考訳(メタデータ) (2021-06-04T22:48:13Z) - Improving Computational Efficiency in Visual Reinforcement Learning via
Stored Embeddings [89.63764845984076]
効率的な強化学習のためのストアド埋め込み(SEER)について紹介します。
SEERは、既存の非政治深層強化学習方法の簡単な修正です。
計算とメモリを大幅に節約しながら、SEERがRLizableエージェントのパフォーマンスを低下させないことを示します。
論文 参考訳(メタデータ) (2021-03-04T08:14:10Z) - Local Critic Training for Model-Parallel Learning of Deep Neural
Networks [94.69202357137452]
そこで我々は,局所的批判訓練と呼ばれる新しいモデル並列学習手法を提案する。
提案手法は,畳み込みニューラルネットワーク(CNN)とリカレントニューラルネットワーク(RNN)の両方において,階層群の更新プロセスの分離に成功したことを示す。
また,提案手法によりトレーニングされたネットワークを構造最適化に利用できることを示す。
論文 参考訳(メタデータ) (2021-02-03T09:30:45Z) - Implicit Under-Parameterization Inhibits Data-Efficient Deep
Reinforcement Learning [97.28695683236981]
さらなる勾配更新により、現在の値ネットワークの表現性が低下する。
AtariとGymのベンチマークでは、オフラインとオンラインのRL設定の両方でこの現象を実証する。
論文 参考訳(メタデータ) (2020-10-27T17:55:16Z) - Implicit recurrent networks: A novel approach to stationary input
processing with recurrent neural networks in deep learning [0.0]
本研究では,ニューラルネットの新たな実装を深層学習に導入し,検証する。
繰り返しネットワークの暗黙的な実装にバックプロパゲーションアルゴリズムを実装するアルゴリズムを提案する。
シングルレイヤの暗黙的リカレントネットワークはXOR問題を解くことができ、一方、単調に活性化関数が増加するフィードフォワードネットワークは、このタスクで失敗する。
論文 参考訳(メタデータ) (2020-10-20T18:55:32Z) - Incremental Training of a Recurrent Neural Network Exploiting a
Multi-Scale Dynamic Memory [79.42778415729475]
本稿では,マルチスケール学習を対象とする,漸進的に訓練された再帰的アーキテクチャを提案する。
隠れた状態を異なるモジュールに分割することで、シンプルなRNNのアーキテクチャを拡張する方法を示す。
新しいモジュールがモデルに反復的に追加され、徐々に長い依存関係を学習するトレーニングアルゴリズムについて議論する。
論文 参考訳(メタデータ) (2020-06-29T08:35:49Z) - Lifted Regression/Reconstruction Networks [17.89437720094451]
本稿では,リフレクション/リコンストラクションネットワーク(LRRN)を提案する。
LRRNは、昇降ニューラルネットワークと出力層に対する保証されたリプシッツ連続性特性を結合する。
教師なし・教師なし学習への応用を解析・数値的に実証する。
論文 参考訳(メタデータ) (2020-05-07T13:24:46Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。