論文の概要: Towards Better Plasticity-Stability Trade-off in Incremental Learning: A
simple Linear Connector
- arxiv url: http://arxiv.org/abs/2110.07905v1
- Date: Fri, 15 Oct 2021 07:37:20 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-18 12:33:47.278447
- Title: Towards Better Plasticity-Stability Trade-off in Incremental Learning: A
simple Linear Connector
- Title(参考訳): インクリメンタル学習における可塑性安定性トレードオフの改善に向けて--単純なリニアコネクター
- Authors: Guoliang Lin, Hanglu Chu, Hanjiang Lai
- Abstract要約: 塑性安定性ジレンマはインクリメンタルラーニングの主要な問題である。
本研究では,従来のタスクに対するヌルスペースプロジェクションと,現在のタスクに対する単純なSGDの2つの独立最適化されたネットワークの単純な平均化が,すでに学習した知識の保存と,新しいタスクの学習に十分な柔軟性を付与することとの有意義なバランスを達成可能であることを示す。
- 参考スコア(独自算出の注目度): 8.13916229438606
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Plasticity-stability dilemma is a main problem for incremental learning, with
plasticity referring to the ability to learn new knowledge, and stability
retaining the knowledge of previous tasks. Due to the lack of training samples
from previous tasks, it is hard to balance the plasticity and stability. For
example, the recent null-space projection methods (e.g., Adam-NSCL) have shown
promising performance on preserving previous knowledge, while such strong
projection also causes the performance degradation of the current task. To
achieve better plasticity-stability trade-off, in this paper, we show that a
simple averaging of two independently optimized optima of networks, null-space
projection for past tasks and simple SGD for the current task, can attain a
meaningful balance between preserving already learned knowledge and granting
sufficient flexibility for learning a new task. This simple linear connector
also provides us a new perspective and technology to control the trade-off
between plasticity and stability. We evaluate the proposed method on several
benchmark datasets. The results indicate our simple method can achieve notable
improvement, and perform well on both the past and current tasks. In short, our
method is an extremely simple approach and achieves a better balance model.
- Abstract(参考訳): 塑性安定性ジレンマは漸進的な学習の主要な問題であり、塑性は新しい知識を学ぶ能力を指し、安定性は以前のタスクの知識を保持する。
以前の作業からのトレーニングサンプルが不足しているため、可塑性と安定性のバランスをとるのは難しい。
例えば、最近のヌル空間射影法(例えばadam-nscl)は、以前の知識を保存する際に有望な性能を示す一方で、このような強い射影は現在のタスクのパフォーマンス低下を引き起こす。
そこで本研究では,2つの最適化されたネットワークのオプティマ,過去のタスクに対するヌル空間投影,現在のタスクに対する単純なsgdの簡易な平均化により,学習済みの知識の保存と新しいタスクの学習に十分な柔軟性の確保との間に有意義なバランスが得られることを示す。
この単純なリニアコネクタは、塑性と安定性のトレードオフを制御するための新しい視点と技術を提供します。
提案手法を複数のベンチマークデータセット上で評価する。
その結果,これまでの作業と現在の作業の両方において,簡単な方法が顕著な改善を達成できることがわかった。
要するに,本手法は極めて単純な手法であり,より良いバランスモデルを実現する。
関連論文リスト
- Enhancing Robustness of Vision-Language Models through Orthogonality Learning and Self-Regularization [77.62516752323207]
そこで本研究では,事前訓練した重みを効率よく微調整する直交微調整法を導入し,頑健さと一般化の強化を実現した。
自己正規化戦略は、OrthSRと呼ばれるVLMのゼロショット一般化の観点から安定性を維持するためにさらに活用される。
筆者らはCLIPとCoOpを再検討し,少数の画像のクラスフィシエーションシナリオにおけるモデルの改善を効果的に行う。
論文 参考訳(メタデータ) (2024-07-11T10:35:53Z) - Branch-Tuning: Balancing Stability and Plasticity for Continual Self-Supervised Learning [33.560003528712414]
自己教師付き学習(SSL)は、膨大な量のラベルのないデータから一般的な表現を導出するための効果的なパラダイムとして登場した。
これは、新しい情報に適応する際の安定性と可塑性のバランスを崩すことに挑戦する。
本稿では,SSLの安定性と可塑性のバランスを両立させる手法であるブランチチューニングを提案する。
論文 参考訳(メタデータ) (2024-03-27T05:38:48Z) - Towards Plastic and Stable Exemplar-Free Incremental Learning: A Dual-Learner Framework with Cumulative Parameter Averaging [12.168402195820649]
In this proposed a Dual-Learner framework with Cumulative。
平均化(DLCPA)
DLCPA は Task-IL と Class-IL の両方の設定において,最先端の既定ベースラインよりも優れていることを示す。
論文 参考訳(メタデータ) (2023-10-28T08:48:44Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - Robust Learning with Progressive Data Expansion Against Spurious
Correlation [65.83104529677234]
本研究では,2層非線形畳み込みニューラルネットワークの学習過程について検討した。
分析の結果,不均衡なデータ群と学習容易なスプリアス特徴が学習過程におけるスプリアス特徴の優位性に繋がる可能性が示唆された。
本稿では,PDEと呼ばれる新たなトレーニングアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-06-08T05:44:06Z) - On the Stability-Plasticity Dilemma of Class-Incremental Learning [50.863180812727244]
クラス増分学習の第一の目的は、安定性と可塑性のバランスをとることである。
本稿では,近年のクラス増分学習アルゴリズムが,安定性と塑性のトレードオフにいかに効果的かを明らかにすることを目的とする。
論文 参考訳(メタデータ) (2023-04-04T09:34:14Z) - Achieving a Better Stability-Plasticity Trade-off via Auxiliary Networks
in Continual Learning [23.15206507040553]
本稿では、ニューラルネットワークに現在の課題を学習する能力を持たせるために、補助的ネットワーク継続学習(ANCL)を提案する。
ANCLは、主に安定性に焦点を当てた継続的な学習モデルに可塑性を促進する補助ネットワークを付加する。
より具体的には、提案するフレームワークは、可塑性と安定性を自然に補間する正規化器として実現されている。
論文 参考訳(メタデータ) (2023-03-16T17:00:42Z) - New Insights on Relieving Task-Recency Bias for Online Class Incremental
Learning [37.888061221999294]
あらゆる設定において、オンラインクラスインクリメンタルラーニング(OCIL)はより困難であり、現実世界でより頻繁に遭遇する可能性がある。
安定性と塑性のトレードオフに対処するため,Adaptive Focus Shiftingアルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-02-16T11:52:00Z) - Balancing Stability and Plasticity through Advanced Null Space in
Continual Learning [77.94570903726856]
我々は,従来のタスクの古いデータを格納することなく,安定性と可塑性のバランスをとるために,新しい連続学習手法Advanced Null Space(AdNS)を提案する。
また,現在のタスクの性能向上を図るため,タスク内蒸留を簡便かつ効果的に行う方法を提案する。
実験結果から,提案手法は最先端の連続学習手法よりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2022-07-25T11:04:22Z) - Efficient Empowerment Estimation for Unsupervised Stabilization [75.32013242448151]
エンパワーメント原理は 直立位置での 力学系の教師なし安定化を可能にする
本稿では,ガウスチャネルとして動的システムのトレーニング可能な表現に基づく代替解を提案する。
提案手法は, サンプルの複雑さが低く, 訓練時より安定であり, エンパワーメント機能の本質的特性を有し, 画像からエンパワーメントを推定できることを示す。
論文 参考訳(メタデータ) (2020-07-14T21:10:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。