論文の概要: Catastrophic Forgetting Mitigation Through Plateau Phase Activity Profiling
- arxiv url: http://arxiv.org/abs/2507.08736v1
- Date: Fri, 11 Jul 2025 16:38:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-14 18:03:54.432054
- Title: Catastrophic Forgetting Mitigation Through Plateau Phase Activity Profiling
- Title(参考訳): プラトー相活動プロファイルによるカタストロフィックフォーミング低減
- Authors: Idan Mashiach, Oren Glickman, Tom Tirer,
- Abstract要約: ディープニューラルネットワークにおける破滅的な忘れは、新しいタスクを学ぶことによって、以前に学習したタスクのパフォーマンスが低下するときに起こる。
正規化アプローチは、以前の知識を識別し、制約することを目的としている。
- 参考スコア(独自算出の注目度): 8.875650122536797
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Catastrophic forgetting in deep neural networks occurs when learning new tasks degrades performance on previously learned tasks due to knowledge overwriting. Among the approaches to mitigate this issue, regularization techniques aim to identify and constrain "important" parameters to preserve previous knowledge. In the highly nonconvex optimization landscape of deep learning, we propose a novel perspective: tracking parameters during the final training plateau is more effective than monitoring them throughout the entire training process. We argue that parameters that exhibit higher activity (movement and variability) during this plateau reveal directions in the loss landscape that are relatively flat, making them suitable for adaptation to new tasks while preserving knowledge from previous ones. Our comprehensive experiments demonstrate that this approach achieves superior performance in balancing catastrophic forgetting mitigation with strong performance on newly learned tasks.
- Abstract(参考訳): ディープニューラルネットワークにおける破滅的な忘れは、新しいタスクを学ぶことによって、知識のオーバーライトによって学習したタスクのパフォーマンスが低下するときに起こる。
この問題を緩和するアプローチの中で、正規化手法は「重要な」パラメータを特定し、制約し、以前の知識を保存することを目的としている。
ディープラーニングの非凸最適化の現場では、最終トレーニング高原におけるパラメータの追跡は、トレーニングプロセス全体を通して監視するよりも効果的である、という新しい視点が提案されている。
本研究は, 比較的平坦な損失景観において, 高い活動量(運動量, 変動量)を示すパラメータは, 従来からの知識を保ちつつ, 新たな課題への適応に適した方向を示すものである,と論じる。
総合的な実験により,本手法は,新たに学習したタスクに対して高い性能で,破滅的思考緩和のバランスをとる上で,優れた性能を達成できることが実証された。
関連論文リスト
- Learning without Isolation: Pathway Protection for Continual Learning [64.3476595369537]
ディープネットワークは、シーケンシャルなタスク学習中に破滅的な忘れをしがちだ。
モデル融合をグラフマッチングとして定式化する新しいCLフレームワークLwIを提案する。
深層ネットワークにおける活性化チャネルの広がりにより、LwIは新しいタスクのために利用可能な経路を適応的に割り当て、経路保護を実現し、破滅的な忘れに対処することができる。
論文 参考訳(メタデータ) (2025-05-24T07:16:55Z) - Efficient Rehearsal Free Zero Forgetting Continual Learning using
Adaptive Weight Modulation [3.6683171094134805]
継続的な学習には、長期にわたって複数のタスクの知識を取得することが含まれる。
この問題に対するほとんどのアプローチは、新しいタスクのパフォーマンスを最大化することと、以前のタスクの忘れを最小化することのバランスを求める。
提案手法は,新しいタスクの性能を最大化しつつ,忘れることのゼロを保証しようとするものである。
論文 参考訳(メタデータ) (2023-11-26T12:36:05Z) - Continual Learning with Pretrained Backbones by Tuning in the Input
Space [44.97953547553997]
ディープラーニングモデルを非定常環境に適用することの本質的な困難さは、ニューラルネットワークの実際のタスクへの適用性を制限している。
ネットワークの事前学習部分の更新を回避し、通常の分類ヘッドだけでなく、新たに導入した学習可能なパラメータのセットも学習することで、微調整手順をより効果的にするための新しい戦略を提案する。
論文 参考訳(メタデータ) (2023-06-05T15:11:59Z) - Understanding and Mitigating Overfitting in Prompt Tuning for
Vision-Language Models [108.13378788663196]
本稿では, トレーニング過程全体において, 低ランク部分空間にバックプロパゲーションの勾配を投影するSubspace Prompt Tuning(SubPT)を提案する。
我々はCoOpにノベル・ラーナー・フィーチャー(NFL)を装備し、学習したプロンプトをトレーニングセット以外の新しいカテゴリに一般化する能力を高める。
論文 参考訳(メタデータ) (2022-11-04T02:06:22Z) - Learning Bayesian Sparse Networks with Full Experience Replay for
Continual Learning [54.7584721943286]
継続学習(CL)手法は、機械学習モデルが、以前にマスターされたタスクを壊滅的に忘れることなく、新しいタスクを学習できるようにすることを目的としている。
既存のCLアプローチは、しばしば、事前に確認されたサンプルのバッファを保持し、知識蒸留を行い、あるいはこの目標に向けて正規化技術を使用する。
我々は,現在および過去のタスクを任意の段階で学習するために,スパースニューロンのみを活性化し,選択することを提案する。
論文 参考訳(メタデータ) (2022-02-21T13:25:03Z) - An Empirical Investigation of the Role of Pre-training in Lifelong
Learning [21.995593026269578]
複数のタスクを逐次学習する際の破滅的忘れの影響を,ジェネリック事前学習が暗黙的に軽減することを示す。
本研究では、この現象を損失景観を解析し、トレーニング済みの重みがより広いミニマへと導くことで忘れやすいように見えることを明らかにする。
論文 参考訳(メタデータ) (2021-12-16T19:00:55Z) - Flattening Sharpness for Dynamic Gradient Projection Memory Benefits
Continual Learning [67.99349091593324]
連続学習シナリオにおける減量景観と感度安定性の関係について検討した。
提案手法は,忘れを効果的に軽減しつつ,新しいスキルを習得する能力に優れたベースラインを一貫して上回る。
論文 参考訳(メタデータ) (2021-10-09T15:13:44Z) - DIODE: Dilatable Incremental Object Detection [15.59425584971872]
従来のディープラーニングモデルには、以前に学習した知識を保存する能力がない。
多段階インクリメンタル検出タスクのための拡張可能なインクリメンタルオブジェクト検出器(DIODE)を提案する。
提案手法は,新たに学習した各タスクのパラメータ数を1.2%増加させることで,最大6.4%の性能向上を実現する。
論文 参考訳(メタデータ) (2021-08-12T09:45:57Z) - Natural continual learning: success is a journey, not (just) a
destination [9.462808515258464]
自然継続学習(NCL)は、重み付け正規化と射影勾配降下を統一する新しい手法である。
提案手法は,RNNにおける連続学習問題に適用した場合,標準重み付け正規化手法とプロジェクションベースアプローチの両方に優れる。
トレーニングされたネットワークは、生体回路の実験的な発見と同様に、新しいタスクが学習されると強く保存されるタスク固有ダイナミクスを進化させる。
論文 参考訳(メタデータ) (2021-06-15T12:24:53Z) - Continual Learning via Bit-Level Information Preserving [88.32450740325005]
我々は情報理論のレンズを通して連続学習過程を研究する。
モデルパラメータの情報利得を維持するビットレベル情報保存(BLIP)を提案する。
BLIPは、連続的な学習を通してメモリオーバーヘッドを一定に保ちながら、ほとんど忘れることができない。
論文 参考訳(メタデータ) (2021-05-10T15:09:01Z) - Understanding the Role of Training Regimes in Continual Learning [51.32945003239048]
破滅的な忘れは、ニューラルネットワークのトレーニングに影響を与え、複数のタスクを逐次学習する能力を制限する。
本研究では,タスクの局所的なミニマを拡大するトレーニング体制の形成に及ぼすドロップアウト,学習速度の低下,バッチサイズの影響について検討した。
論文 参考訳(メタデータ) (2020-06-12T06:00:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。