論文の概要: One Adapter for All: Towards Unified Representation in Step-Imbalanced Class-Incremental Learning
- arxiv url: http://arxiv.org/abs/2603.10237v1
- Date: Tue, 10 Mar 2026 21:26:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:32.696423
- Title: One Adapter for All: Towards Unified Representation in Step-Imbalanced Class-Incremental Learning
- Title(参考訳): 一つの適応者:ステップ不均衡なクラスインクリメンタル学習における統一表現を目指して
- Authors: Xiaoyan Zhang, Jiangpeng He,
- Abstract要約: クラスインクリメンタルラーニング(CIL)は,事前知識を維持しつつ,時間とともに新たなクラスを取得することを目的としている。
タスク更新をインクリメンタルに単一のアダプタにマージする,統一的で不均衡対応のフレームワークであるOne-Aを提案する。
One-Aは、推論オーバーヘッドが著しく低い競合精度を実現し、単一の非対称なアダプタが動的タスクサイズに適応可能であり、デプロイ時に効率が良いことを示す。
- 参考スコア(独自算出の注目度): 15.73921281192878
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Class-incremental learning (CIL) aims to acquire new classes over time while retaining prior knowledge, yet most setups and methods assume balanced task streams. In practice, the number of classes per task often varies significantly. We refer to this as step imbalance, where large tasks that contain more classes dominate learning and small tasks inject unstable updates. Existing CIL methods assume balanced tasks and therefore treat all tasks uniformly, producing imbalanced updates that degrade overall learning performance. To address this challenge, we propose One-A, a unified and imbalance-aware framework that incrementally merges task updates into a single adapter, maintaining constant inference cost. One-A performs asymmetric subspace alignment to preserve dominant subspaces learned from large tasks while constraining low-information updates within them. An information-adaptive weighting balances the contribution between base and new adapters, and a directional gating mechanism selectively fuses updates along each singular direction, maintaining stability in head directions and plasticity in tail ones. Across multiple benchmarks and step-imbalanced streams, One-A achieves competitive accuracy with significantly low inference overhead, showing that a single, asymmetrically fused adapter can remain both adaptive to dynamic task sizes and efficient at deployment.
- Abstract(参考訳): クラス増分学習(Class-incremental Learning, CIL)は、事前知識を維持しながら、時間とともに新しいクラスを取得することを目的としているが、ほとんどのセットアップやメソッドは、バランスの取れたタスクストリームを前提としている。
実際には、タスク毎のクラス数は、しばしば大きく異なる。
ここでは、より多くのクラスを含む大きなタスクが学習を支配し、小さなタスクが不安定な更新を注入する。
既存のCILメソッドは、バランスの取れたタスクを仮定し、従って全てのタスクを均一に処理し、全体的な学習性能を低下させる不均衡な更新を生成する。
この課題に対処するために,タスク更新を1つのアダプタに段階的にマージし,一定の推論コストを維持する,統一的で不均衡なフレームワークであるOne-Aを提案する。
1-Aは非対称な部分空間アライメントを行い、大きなタスクから学んだ支配的な部分空間を保存し、内部の低情報更新を制約する。
情報適応重み付けは、ベースアダプタと新規アダプタとのコントリビューションのバランスを保ち、指向性ゲーティング機構は、各特定の方向に沿って更新を選択的に融合させ、テールアダプタの方向安定性と可塑性を維持する。
複数のベンチマークとステップ不均衡ストリームにまたがって、One-Aは推論オーバーヘッドが著しく低い競合精度を実現し、単一の非対称なアダプタが動的タスクサイズに適応可能であり、デプロイ時に効率が良いことを示す。
関連論文リスト
- Spectral Imbalance Causes Forgetting in Low-Rank Continual Adaptation [58.3773038915023]
継続的な学習は、事前訓練されたモデルを、以前取得した知識を忘れずにシーケンシャルなタスクに適応することを目的としている。
既存のほとんどのアプローチは、現在のタスク固有の更新が以前取得した知識を自然に保存するプロパティを考慮せずに、継続的な学習を過去の更新への干渉を避けるものとして扱う。
本稿では,視覚言語モデルで使用される標準深度ドットと互換性のある一階述語法を用いてこの問題に対処する。
論文 参考訳(メタデータ) (2026-01-31T13:27:02Z) - Navigating Semantic Drift in Task-Agnostic Class-Incremental Learning [51.177789437682954]
クラスインクリメンタルラーニング(Class-incremental Learning, CIL)は、モデルが学習したクラスの知識を維持しつつ、新しいクラスを逐次学習できるようにすることを目的とする。
柔軟性と安定性のバランスをとることは、特にタスクIDが不明な場合には、依然として大きな課題である。
本研究では,平均シフト補償と共分散校正を組み合わせたセマンティックドリフト校正法を提案する。
論文 参考訳(メタデータ) (2025-02-11T13:57:30Z) - LiNeS: Post-training Layer Scaling Prevents Forgetting and Enhances Model Merging [80.17238673443127]
LiNeSは、微調整タスク性能を向上しつつ、事前訓練された一般化を維持するために設計されたポストトレーニング編集技術である。
LiNeSは、視覚と自然言語処理のさまざまなベンチマークにおいて、シングルタスクとマルチタスクの両方で大幅に改善されている。
論文 参考訳(メタデータ) (2024-10-22T16:26:05Z) - Dynamic Integration of Task-Specific Adapters for Class Incremental Learning [32.124078616314144]
非典型的なクラス インクリメンタルラーニング (NECIL) では、モデルがスクラッチからリトレーニングしたり、古いタスク インクリメンタルを格納したりすることなく、新しいクラスを継続的に取得できる。
本稿では,タスク特化アダプタ統合(TSAI)とパッチレベルモデルアライメントという,タスク特化アダプタの動的統合(DIA)という新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-09-23T13:01:33Z) - Rethinking Class-Incremental Learning from a Dynamic Imbalanced Learning Perspective [5.170794699087535]
ディープニューラルネットワークは、新しい概念を継続的に学習するとき、破滅的な忘れ込みに悩まされる。
我々は、古いタスクと新しいタスクデータの不均衡が、古いタスクを忘れるのに寄与すると主張している。
本稿では,一様かつコンパクトな特徴を学習するUPCL(Uniform Prototype Contrastive Learning)を提案する。
論文 参考訳(メタデータ) (2024-05-24T02:26:37Z) - Dynamically Anchored Prompting for Task-Imbalanced Continual Learning [29.20115513597012]
既存の継続的な学習文献は、タスクがバランスの取れたデータストリームに到達するという強い前提に大きく依存している。
不均衡なタスクは、安定性と可塑性の間のトレードオフを制御するモデルの能力に大きく挑戦する。
本稿では、タスクストリーム内のシフトに動的に適応するための1つの一般的なプロンプトのみを保持するプロンプトベースの方法であるDynamically Anchored Prompting (DAP)を提案する。
論文 参考訳(メタデータ) (2024-04-23T03:52:44Z) - Towards Robust Continual Learning with Bayesian Adaptive Moment Regularization [51.34904967046097]
継続的な学習は、モデルが以前に学習した情報を忘れてしまう破滅的な忘れ込みの課題を克服しようとする。
本稿では,パラメータ成長の制約を緩和し,破滅的な忘れを減らし,新しい事前手法を提案する。
以上の結果から, BAdamは, 単頭クラスインクリメンタル実験に挑戦する先行手法に対して, 最先端の性能を達成できることが示唆された。
論文 参考訳(メタデータ) (2023-09-15T17:10:51Z) - Task Adaptive Parameter Sharing for Multi-Task Learning [114.80350786535952]
Adaptive Task Adapting Sharing(TAPS)は、階層の小さなタスク固有のサブセットを適応的に修正することで、ベースモデルを新しいタスクにチューニングする手法である。
他の手法と比較して、TAPSはダウンストリームタスクに対して高い精度を維持し、タスク固有のパラメータは少ない。
我々は,タスクやアーキテクチャ(ResNet,DenseNet,ViT)を微調整して評価し,実装が簡単でありながら最先端の性能を実現することを示す。
論文 参考訳(メタデータ) (2022-03-30T23:16:07Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。