論文の概要: Fine-Grained Gradient Restriction: A Simple Approach for Mitigating Catastrophic Forgetting
- arxiv url: http://arxiv.org/abs/2410.00868v1
- Date: Tue, 1 Oct 2024 17:03:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-11-05 03:46:09.173604
- Title: Fine-Grained Gradient Restriction: A Simple Approach for Mitigating Catastrophic Forgetting
- Title(参考訳): 微粒グラディエント・リミクション-カタストロフィック・フォーミングの簡易的アプローチ
- Authors: Bo Liu, Mao Ye, Peter Stone, Qiang Liu,
- Abstract要約: Gradient Episodic Memory (GEM) は、過去のトレーニングサンプルのサブセットを利用して、モデルのパラメータの更新方向を制限することでバランスをとる。
メモリの強度は、主にGEMの能力を一般化し、それによってより有利なトレードオフをもたらすため、有効であることを示す。
- 参考スコア(独自算出の注目度): 41.891312602770746
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A fundamental challenge in continual learning is to balance the trade-off between learning new tasks and remembering the previously acquired knowledge. Gradient Episodic Memory (GEM) achieves this balance by utilizing a subset of past training samples to restrict the update direction of the model parameters. In this work, we start by analyzing an often overlooked hyper-parameter in GEM, the memory strength, which boosts the empirical performance by further constraining the update direction. We show that memory strength is effective mainly because it improves GEM's generalization ability and therefore leads to a more favorable trade-off. By this finding, we propose two approaches that more flexibly constrain the update direction. Our methods are able to achieve uniformly better Pareto Frontiers of remembering old and learning new knowledge than using memory strength. We further propose a computationally efficient method to approximately solve the optimization problem with more constraints.
- Abstract(参考訳): 継続的学習における根本的な課題は、新しいタスクの学習と、以前獲得した知識の記憶のトレードオフをバランスさせることである。
グラディエントエピソードメモリ(GEM)は、過去のトレーニングサンプルのサブセットを利用してモデルパラメータの更新方向を制限することで、このバランスを実現する。
本研究は, GEMにおいてしばしば見過ごされるハイパーパラメータ, メモリ強度を分析し, 更新方向をさらに制約することで, 経験的性能を高めることから始める。
GEMの一般化能力が向上し、それによってより良好なトレードオフがもたらされるため、メモリ強度が有効であることを示す。
この発見により、より柔軟に更新方向を制約する2つのアプローチを提案する。
我々の手法は、記憶力よりも古い知識を記憶し、新しい知識を学習するという、均一に優れたパレートフロンティアを実現することができる。
さらに,より制約のある最適化問題を大まかに解くために,計算効率のよい手法を提案する。
関連論文リスト
- Stable Hadamard Memory: Revitalizing Memory-Augmented Agents for Reinforcement Learning [64.93848182403116]
現在のディープラーニングメモリモデルは、部分的に観察可能で長期にわたる強化学習環境で苦労している。
本稿では,強化学習エージェントのための新しい記憶モデルであるStable Hadamard Memoryを紹介する。
我々の手法は、部分的に観測可能なベンチマークに挑戦する上で、最先端のメモリベースの手法よりも大幅に優れています。
論文 参考訳(メタデータ) (2024-10-14T03:50:17Z) - SHERL: Synthesizing High Accuracy and Efficient Memory for Resource-Limited Transfer Learning [63.93193829913252]
本稿では,リソース制限シナリオに対するSHERLと呼ばれる革新的なMETL戦略を提案する。
初期経路では、中間出力は反冗長動作によって統合される。
遅延ルートでは、最小限の遅延事前トレーニングされたレイヤを利用することで、メモリオーバーヘッドのピーク需要を軽減できる。
論文 参考訳(メタデータ) (2024-07-10T10:22:35Z) - Continual Learning via Manifold Expansion Replay [36.27348867557826]
破滅的な忘れは継続的な学習にとって大きな課題である。
我々はReplay Manifold Expansion (MaER)と呼ばれる新しいリプレイ戦略を提案する。
提案手法は,連続的な学習設定における精度を著しく向上し,芸術的状況よりも優れることを示す。
論文 参考訳(メタデータ) (2023-10-12T05:09:27Z) - EMO: Episodic Memory Optimization for Few-Shot Meta-Learning [69.50380510879697]
メタ学習のためのエピソード記憶最適化は、EMOと呼ばれ、脳の記憶から過去の学習経験を思い出す人間の能力にインスパイアされている。
EMOは、限られた数の例によって提供される勾配が非形式的である場合でも、パラメータを正しい方向に更新する。
EMOは、ほとんど数ショットの分類ベンチマークでうまくスケールし、最適化ベースのメタラーニング手法の性能を改善している。
論文 参考訳(メタデータ) (2023-06-08T13:39:08Z) - A Memory Transformer Network for Incremental Learning [64.0410375349852]
本研究では,モデルが学習する時間とともに,新しいデータクラスが観察される学習環境であるクラスインクリメンタルラーニングについて検討する。
素直な問題定式化にもかかわらず、クラス増分学習への分類モデルの素直な適用は、これまで見られたクラスの「破滅的な忘れ込み」をもたらす。
これは、過去のデータのサブセットをメモリバンクに保存し、将来のタスクをトレーニングする際の忘れの防止にそれを活用することで、破滅的な忘れの問題を克服するものだ。
論文 参考訳(メタデータ) (2022-10-10T08:27:28Z) - On the efficiency of Stochastic Quasi-Newton Methods for Deep Learning [0.0]
深部記憶ネットワークのための準ニュートン学習アルゴリズムの動作について検討する。
準ニュートンは効率が良く、よく知られたAdamの1次実行よりも性能が優れていることを示す。
論文 参考訳(メタデータ) (2022-05-18T20:53:58Z) - Gradient Episodic Memory with a Soft Constraint for Continual Learning [9.52644009921388]
破滅的な忘れは、モデルが新しいタスクを学習しているときに、過去のタスクのパフォーマンスが大幅に低下する致命的な欠点である。
本稿では,[0, 1]$のソフト制約を持つ平均勾配エピソディクスメモリ(A-GEM)を提案する。
$epsilon$-SOFT-GEMは、A-GEMといくつかの連続学習ベンチマークを1つのトレーニングエポックで上回っている。
論文 参考訳(メタデータ) (2020-11-16T09:06:09Z) - Remembering for the Right Reasons: Explanations Reduce Catastrophic
Forgetting [100.75479161884935]
我々は、RRR(Remembering for the Right Reasons)と呼ばれる新しいトレーニングパラダイムを提案する。
RRRは、各例の視覚モデル説明をバッファに格納し、モデルが予測に「正しい理由」を持つことを保証する。
メモリや正規化ベースのアプローチでRRRを容易に追加できることを示し、その結果、忘れを少なくする。
論文 参考訳(メタデータ) (2020-10-04T10:05:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。