論文の概要: Continual Learning through Networks Splitting and Merging with
Dreaming-Meta-Weighted Model Fusion
- arxiv url: http://arxiv.org/abs/2312.07082v1
- Date: Tue, 12 Dec 2023 09:02:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-13 16:47:59.496871
- Title: Continual Learning through Networks Splitting and Merging with
Dreaming-Meta-Weighted Model Fusion
- Title(参考訳): 夢のメタ重み付けモデル融合によるネットワーク分割・融合による連続学習
- Authors: Yi Sun, Xin Xu, Jian Li, Guanglei Xie, Yifei Shi, Qiang Fang
- Abstract要約: 継続的な学習シナリオにおいて、ネットワークの安定性と可塑性のバランスをとることは難しい。
2段階戦略を採用することにより、よりよいトレードオフを実現することのできるSplit2MetaFusionを提案する。
- 参考スコア(独自算出の注目度): 20.74264925323055
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: It's challenging to balance the networks stability and plasticity in
continual learning scenarios, considering stability suffers from the update of
model and plasticity benefits from it. Existing works usually focus more on the
stability and restrict the learning plasticity of later tasks to avoid
catastrophic forgetting of learned knowledge. Differently, we propose a
continual learning method named Split2MetaFusion which can achieve better
trade-off by employing a two-stage strategy: splitting and meta-weighted
fusion. In this strategy, a slow model with better stability, and a fast model
with better plasticity are learned sequentially at the splitting stage. Then
stability and plasticity are both kept by fusing the two models in an adaptive
manner. Towards this end, we design an optimizer named Task-Preferred Null
Space Projector(TPNSP) to the slow learning process for narrowing the fusion
gap. To achieve better model fusion, we further design a Dreaming-Meta-Weighted
fusion policy for better maintaining the old and new knowledge simultaneously,
which doesn't require to use the previous datasets. Experimental results and
analysis reported in this work demonstrate the superiority of the proposed
method for maintaining networks stability and keeping its plasticity. Our code
will be released.
- Abstract(参考訳): ネットワークの安定性と可塑性を連続的な学習シナリオでバランスさせることは困難です。
既存の研究は通常、学習知識の破滅的な忘れ込みを避けるため、安定性を重視し、後のタスクの学習の可塑性を制限する。
そこで我々は,スプリットとメタ重畳融合という2段階戦略を用いて,よりよいトレードオフを実現するための連続学習手法Split2MetaFusionを提案する。
この戦略では, より安定性のよい遅いモデル, より可塑性のよい高速モデルが, 分裂段階において順次学習される。
安定性と可塑性は2つのモデルを適応的に融合させることで維持される。
この目的に向けて,融合ギャップを狭めるための低速学習プロセスに対して,タスク予測型ヌルスペースプロジェクタ(tpnsp)という最適化器を設計する。
モデル融合を改善するために、私たちは、以前のデータセットを使用する必要のない古い知識と新しい知識を同時に維持するためのドリーミング・ミータ重融合ポリシーをさらに設計します。
本研究で報告された実験結果と解析は,ネットワーク安定性の維持と可塑性維持のための提案手法の優位性を示すものである。
私たちのコードはリリースされます。
関連論文リスト
- Exploring Model Kinship for Merging Large Language Models [52.01652098827454]
本稿では,大規模言語モデル間の類似性や関連性の程度であるモデル親和性を紹介する。
モデル統合後の性能向上とモデル親和性の間には,一定の関係があることが判明した。
我々は新しいモデルマージ戦略を提案する。Top-k Greedy Merging with Model Kinship。
論文 参考訳(メタデータ) (2024-10-16T14:29:29Z) - LLaCA: Multimodal Large Language Continual Assistant [59.585544987096974]
MCIT(Multimodal Continual Instruction Tuning)は、MLLMにシーケンシャルデータセットにおける人間の意図に従うよう継続的に指示するために用いられる。
既存の勾配更新は、以前のデータセットのチューニング性能を著しく損なうことになる。
本稿では,この課題に対処するため,LLaCA (Multimodal Large Language Continual Assistant) という手法を提案する。
論文 参考訳(メタデータ) (2024-10-08T11:24:59Z) - Model Merging and Safety Alignment: One Bad Model Spoils the Bunch [70.614652904151]
LLM(Merging Large Language Models)は、複数の専門家のLLMを1つの汎用モデルに結合するコスト効率のよい手法である。
現在のアプローチでは、マージ時の安全性の整合性の重要性を見落とし、非常に不整合のモデルに繋がることが多い。
我々は,既存の手法がドメインの専門知識を伝達するだけでなく,ミスアライメントを伝播することを示すために,いくつかの一般的なモデルマージ手法を評価した。
論文 参考訳(メタデータ) (2024-06-20T17:59:58Z) - Towards Stable Machine Learning Model Retraining via Slowly Varying Sequences [6.067007470552307]
そこで本研究では,繰り返しのトレーニングにおいて安定な機械学習モデルのシーケンスを見つける手法を提案する。
最適モデルの復元が保証される混合整数最適化の定式化を開発する。
本手法は, 予測力の小さい, 制御可能な犠牲を伴い, 厳密に訓練されたモデルよりも強い安定性を示す。
論文 参考訳(メタデータ) (2024-03-28T22:45:38Z) - Branch-Tuning: Balancing Stability and Plasticity for Continual Self-Supervised Learning [33.560003528712414]
自己教師付き学習(SSL)は、膨大な量のラベルのないデータから一般的な表現を導出するための効果的なパラダイムとして登場した。
これは、新しい情報に適応する際の安定性と可塑性のバランスを崩すことに挑戦する。
本稿では,SSLの安定性と可塑性のバランスを両立させる手法であるブランチチューニングを提案する。
論文 参考訳(メタデータ) (2024-03-27T05:38:48Z) - New Insights for the Stability-Plasticity Dilemma in Online Continual
Learning [21.664470275289407]
マルチスケール特徴適応ネットワーク(MuFAN)というオンライン連続学習フレームワークを提案する。
MuFANはSVHN、CIFAR100、miniImageNet、CORe50データセット上で、最先端の継続的な学習方法よりも優れている。
論文 参考訳(メタデータ) (2023-02-17T07:43:59Z) - PlaStIL: Plastic and Stable Memory-Free Class-Incremental Learning [49.0417577439298]
過去の知識を保ちながら新しいデータから学ぶためには、クラス増分学習において塑性と安定性が必要である。
そこで本稿では, 可塑性と安定性のバランスを良くするために, パラメータ数に類似する手法を提案する。
論文 参考訳(メタデータ) (2022-09-14T12:53:00Z) - Balancing Stability and Plasticity through Advanced Null Space in
Continual Learning [77.94570903726856]
我々は,従来のタスクの古いデータを格納することなく,安定性と可塑性のバランスをとるために,新しい連続学習手法Advanced Null Space(AdNS)を提案する。
また,現在のタスクの性能向上を図るため,タスク内蒸留を簡便かつ効果的に行う方法を提案する。
実験結果から,提案手法は最先端の連続学習手法よりも優れた性能が得られることが示された。
論文 参考訳(メタデータ) (2022-07-25T11:04:22Z) - FOSTER: Feature Boosting and Compression for Class-Incremental Learning [52.603520403933985]
ディープニューラルネットワークは、新しいカテゴリーを学ぶ際に破滅的な忘れ方に悩まされる。
本稿では,新たなカテゴリを適応的に学習するためのモデルとして,新しい2段階学習パラダイムFOSTERを提案する。
論文 参考訳(メタデータ) (2022-04-10T11:38:33Z) - Towards Better Plasticity-Stability Trade-off in Incremental Learning: A
simple Linear Connector [8.13916229438606]
塑性安定性ジレンマはインクリメンタルラーニングの主要な問題である。
本研究では,従来のタスクに対するヌルスペースプロジェクションと,現在のタスクに対する単純なSGDの2つの独立最適化されたネットワークの単純な平均化が,すでに学習した知識の保存と,新しいタスクの学習に十分な柔軟性を付与することとの有意義なバランスを達成可能であることを示す。
論文 参考訳(メタデータ) (2021-10-15T07:37:20Z) - Enabling Continual Learning with Differentiable Hebbian Plasticity [18.12749708143404]
連続学習は、獲得した知識を保護しながら、新しいタスクや知識を順次学習する問題である。
破滅的な忘れ物は、そのような学習プロセスを実行するニューラルネットワークにとって、大きな課題となる。
微分可能なヘビアン塑性からなるヘビアンコンソリデーションモデルを提案する。
論文 参考訳(メタデータ) (2020-06-30T06:42:19Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。