論文の概要: Merge and Bound: Direct Manipulations on Weights for Class Incremental Learning
- arxiv url: http://arxiv.org/abs/2511.21490v1
- Date: Wed, 26 Nov 2025 15:24:53 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-27 18:37:59.163976
- Title: Merge and Bound: Direct Manipulations on Weights for Class Incremental Learning
- Title(参考訳): マージとバウンド:授業増分学習における重みの直接操作
- Authors: Taehoon Kim, Donghwan Jang, Bohyung Han,
- Abstract要約: 本稿では,Merge-and-Bound (M&B) という新しい学習手法を提案する。
本アルゴリズムは, タスク間重み付けとタスク内重み付けという2種類の重み付けを含む。
提案アルゴリズムを標準CILベンチマークで広範囲に評価し,最先端手法と比較して優れた性能を示す。
- 参考スコア(独自算出の注目度): 39.77371020337677
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a novel training approach, named Merge-and-Bound (M&B) for Class Incremental Learning (CIL), which directly manipulates model weights in the parameter space for optimization. Our algorithm involves two types of weight merging: inter-task weight merging and intra-task weight merging. Inter-task weight merging unifies previous models by averaging the weights of models from all previous stages. On the other hand, intra-task weight merging facilitates the learning of current task by combining the model parameters within current stage. For reliable weight merging, we also propose a bounded update technique that aims to optimize the target model with minimal cumulative updates and preserve knowledge from previous tasks; this strategy reveals that it is possible to effectively obtain new models near old ones, reducing catastrophic forgetting. M&B is seamlessly integrated into existing CIL methods without modifying architecture components or revising learning objectives. We extensively evaluate our algorithm on standard CIL benchmarks and demonstrate superior performance compared to state-of-the-art methods.
- Abstract(参考訳): 本稿では,クラスインクリメンタルラーニング(CIL)のためのMerge-and-Bound(M&B)という新しいトレーニング手法を提案する。
本アルゴリズムは, タスク間重み付けとタスク内重み付けという2種類の重み付けを含む。
タスク間の重み付けは、すべての前のステージからモデルの重みを平均化することによって、以前のモデルを統一する。
一方、タスク内重み付けは、現在の段階でモデルパラメータを組み合わせることで、現在のタスクの学習を容易にする。
また,信頼性の高い重み付けを行うため,最小限の累積更新で目標モデルを最適化し,従来のタスクから知識を保存することを目的とした有界更新手法を提案する。
M&Bはアーキテクチャコンポーネントの変更や学習目的の変更なしに、既存のCILメソッドにシームレスに統合される。
提案アルゴリズムを標準CILベンチマークで広範囲に評価し,最先端手法と比較して優れた性能を示す。
関連論文リスト
- Train with Perturbation, Infer after Merging: A Two-Stage Framework for Continual Learning [57.514786046966265]
textbfPerturb-and-Merge(P&M)は,モデルマージをCLパラダイムに統合し,忘れを緩和する新しい連続学習フレームワークである。
提案手法は,複数の連続学習ベンチマークデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2025-05-28T14:14:19Z) - Merging Models on the Fly Without Retraining: A Sequential Approach to Scalable Continual Model Merging [75.93960998357812]
ディープモデルマージ(Deep Modelmerging)は、複数の微調整モデルを組み合わせて、さまざまなタスクやドメインにまたがる能力を活用する、新たな研究方向を示すものだ。
現在のモデルマージ技術は、全ての利用可能なモデルを同時にマージすることに集中しており、重量行列に基づく手法が主要なアプローチである。
本稿では,モデルを逐次処理するトレーニングフリーなプロジェクションベース連続マージ手法を提案する。
論文 参考訳(メタデータ) (2025-01-16T13:17:24Z) - Merging Models with Fisher-Weighted Averaging [24.698591753644077]
我々は、複数のモデルを1つに“マージ”するモデル間で知識を伝達する、根本的に異なる方法を紹介します。
提案手法は,モデルのパラメータの重み付け平均を効果的に計算する。
マージ手順により、これまで探索されていなかった方法でモデルを組み合わせることが可能であることを示す。
論文 参考訳(メタデータ) (2021-11-18T17:59:35Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。