論文の概要: From Isolation to Integration: Building an Adaptive Expert Forest for Pre-Trained Model-based Class-Incremental Learning
- arxiv url: http://arxiv.org/abs/2602.20911v1
- Date: Tue, 24 Feb 2026 13:48:13 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-25 17:34:53.770021
- Title: From Isolation to Integration: Building an Adaptive Expert Forest for Pre-Trained Model-based Class-Incremental Learning
- Title(参考訳): 孤立から統合へ:事前学習モデルに基づくクラスインクリメンタルラーニングのための適応的エキスパートフォレストの構築
- Authors: Ruiqi Liu, Boyu Diao, Hangda Liu, Zhulin An, Fei Wang, Yongjun Xu,
- Abstract要約: CIL(Class-Incremental Learning)は、古いクラスを忘れずに新しいクラスを学ぶモデルを必要とする。
我々は,より優れた知識共有のためのセマンティック誘導適応エキスパートフォレスト(SAEF)を提案する。
いくつかのベンチマークデータセットの実験は、SAEFがSOTAのパフォーマンスを達成することを示している。
- 参考スコア(独自算出の注目度): 25.81003953030488
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Class-Incremental Learning (CIL) requires models to learn new classes without forgetting old ones. A common method is to freeze a pre-trained model and train a new, lightweight adapter for each task. While this prevents forgetting, it treats the learned knowledge as a simple, unstructured collection and fails to use the relationships between tasks. To this end, we propose the Semantic-guided Adaptive Expert Forest (SAEF), a new method that organizes adapters into a structured hierarchy for better knowledge sharing. SAEF first groups tasks into conceptual clusters based on their semantic relationships. Then, within each cluster, it builds a balanced expert tree by creating new adapters from merging the adapters of similar tasks. At inference time, SAEF finds and activates a set of relevant experts from the forest for any given input. The final prediction is made by combining the outputs of these activated experts, weighted by how confident each expert is. Experiments on several benchmark datasets show that SAEF achieves SOTA performance.
- Abstract(参考訳): CIL(Class-Incremental Learning)は、古いクラスを忘れずに新しいクラスを学ぶモデルを必要とする。
一般的な方法は、トレーニング済みのモデルを凍結し、タスクごとに新しい軽量アダプタをトレーニングすることである。
これは忘れることを防ぐが、学習した知識を単純で非構造化のコレクションとして扱い、タスク間の関係を利用できない。
そこで本研究では,適応型適応エキスパートフォレスト(SAEF, Semantic-Guided Adaptive Expert Forest)を提案する。
SAEFは、まずタスクをセマンティックな関係に基づいて概念的なクラスタにグループ化する。
そして、各クラスタ内で、同様のタスクのアダプタをマージすることによって、新しいアダプタを作成することで、バランスのとれたエキスパートツリーを構築する。
推論時にSAEFは、任意の入力のために、森から関連する専門家のセットを見つけて起動する。
最終的な予測は、これらのアクティベートされた専門家のアウトプットを組み合わせることで行われ、それぞれの専門家がどれだけ自信を持っているかによって重み付けされる。
いくつかのベンチマークデータセットの実験は、SAEFがSOTAのパフォーマンスを達成することを示している。
関連論文リスト
- HAM: Hierarchical Adapter Merging for Scalable Continual Learning [5.958899330375292]
新しい知識は、以前に学習した情報に干渉し、モデルが新しい知識に賛成する以前の知識を忘れる原因となる。
本稿では,HAM(Hierarchical Adapters Merging)について紹介する。
ハムは、特にタスクの数が増加するにつれて、最先端の手法を著しく上回っている。
論文 参考訳(メタデータ) (2025-09-16T16:18:19Z) - CL-LoRA: Continual Low-Rank Adaptation for Rehearsal-Free Class-Incremental Learning [8.81873424028249]
CIL (Class-Incremental Learning) は、学習した授業の知識を維持しつつ、新しいクラスを逐次学習することを目的としている。
我々は,textbftask-sharedアダプタを併用して,クロスタスク知識とtextbftask-specific Adapter を学習し,各タスクのユニークな特徴を捉えた新しいデュアルアダプタアーキテクチャを提案する。
CL-LoRAは、トレーニングと推論の計算を減らし、複数のベンチマークで常に有望な性能を達成することを実証する。
論文 参考訳(メタデータ) (2025-05-30T17:19:52Z) - Knowledge Adaptation Network for Few-Shot Class-Incremental Learning [23.90555521006653]
クラス増分学習(class-incremental learning)は、いくつかのサンプルを使用して、新しいクラスを段階的に認識することを目的としている。
この問題を解決する効果的な方法の1つは、原型進化分類器を構築することである。
新しいクラスの表現は弱で偏りがあるので、そのような戦略は準最適であると主張する。
論文 参考訳(メタデータ) (2024-09-18T07:51:38Z) - CorDA: Context-Oriented Decomposition Adaptation of Large Language Models for Task-Aware Parameter-Efficient Fine-tuning [101.81127587760831]
現在の微調整手法は、学習すべき下流タスクのコンテキストや、維持すべき重要な知識のコンテキストに広く適用できるアダプタを構築している。
学習可能なタスク対応アダプタを構築するコンテキスト指向の分解適応手法であるCorDAを提案する。
本手法は,知識保存型適応と指導レビュー型適応の2つの選択肢を実現する。
論文 参考訳(メタデータ) (2024-06-07T19:10:35Z) - Expandable Subspace Ensemble for Pre-Trained Model-Based Class-Incremental Learning [65.57123249246358]
PTMベースのCILのためのExpAndable Subspace Ensemble (EASE)を提案する。
タスク固有のサブスペースを作成することを目的として、新しいタスクごとに異なる軽量アダプタモジュールをトレーニングする。
我々のプロトタイプ補完戦略は、古いクラスのインスタンスを使わずに、古いクラスの新機能を合成します。
論文 参考訳(メタデータ) (2024-03-18T17:58:13Z) - Task-customized Masked AutoEncoder via Mixture of Cluster-conditional
Experts [104.9871176044644]
Masked Autoencoder (MAE) は,モデル事前学習において有望な結果が得られる自己教師型学習手法である。
我々は、新しいMAEベースの事前学習パラダイム、Mixture of Cluster-conditional Experts (MoCE)を提案する。
MoCEは、クラスタ条件ゲートを使用して、各専門家にセマンティックなイメージのみをトレーニングする。
論文 参考訳(メタデータ) (2024-02-08T03:46:32Z) - Retrieval as Attention: End-to-end Learning of Retrieval and Reading
within a Single Transformer [80.50327229467993]
学習した1つのモデルが競合検索とQA性能の両方を達成可能であることを示す。
エンドツーエンド適応は、教師なし設定と教師なし設定の両方において、ドメイン外のデータセットのパフォーマンスを大幅に向上させることを示す。
論文 参考訳(メタデータ) (2022-12-05T04:51:21Z) - E2-AEN: End-to-End Incremental Learning with Adaptively Expandable
Network [57.87240860624937]
本稿では,E2-AENという,エンドツーエンドのトレーニング可能な適応拡張可能なネットワークを提案する。
以前のタスクの精度を落とさずに、新しいタスクのための軽量な構造を動的に生成する。
E2-AENはコストを削減し、あらゆるフィードフォワードアーキテクチャをエンドツーエンドで構築できる。
論文 参考訳(メタデータ) (2022-07-14T09:04:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。