論文の概要: Decomposing and Composing: Towards Efficient Vision-Language Continual Learning via Rank-1 Expert Pool in a Single LoRA
- arxiv url: http://arxiv.org/abs/2601.22828v1
- Date: Fri, 30 Jan 2026 10:54:51 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-02 18:28:15.396574
- Title: Decomposing and Composing: Towards Efficient Vision-Language Continual Learning via Rank-1 Expert Pool in a Single LoRA
- Title(参考訳): 分解と構成:単一LORAにおけるRanc-1エキスパートプールによる効率的な視覚・言語連続学習を目指して
- Authors: Zhan Fa, Yue Duan, Jian Zhang, Lei Qi, Wanqi Yang, Yinghuan Shi,
- Abstract要約: 単一低ランク適応 (LoRA) モジュールを分解可能な Rank-1 エキスパートプールとして再構成する,新しいフレームワークを提案する。
本手法では,このエキスパートプールから[Guided]トークンのセマンティクスに導かれて,疎結合でタスク固有の更新を動的に作成することを学ぶ。
- 参考スコア(独自算出の注目度): 50.97792275353563
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Continual learning (CL) in vision-language models (VLMs) faces significant challenges in improving task adaptation and avoiding catastrophic forgetting. Existing methods usually have heavy inference burden or rely on external knowledge, while Low-Rank Adaptation (LoRA) has shown potential in reducing these issues by enabling parameter-efficient tuning. However, considering directly using LoRA to alleviate the catastrophic forgetting problem is non-trivial, we introduce a novel framework that restructures a single LoRA module as a decomposable Rank-1 Expert Pool. Our method learns to dynamically compose a sparse, task-specific update by selecting from this expert pool, guided by the semantics of the [CLS] token. In addition, we propose an Activation-Guided Orthogonal (AGO) loss that orthogonalizes critical parts of LoRA weights across tasks. This sparse composition and orthogonalization enable fewer parameter updates, resulting in domain-aware learning while minimizing inter-task interference and maintaining downstream task performance. Extensive experiments across multiple settings demonstrate state-of-the-art results in all metrics, surpassing zero-shot upper bounds in generalization. Notably, it reduces trainable parameters by 96.7% compared to the baseline method, eliminating reliance on external datasets or task-ID discriminators. The merged LoRAs retain less weights and incur no inference latency, making our method computationally lightweight.
- Abstract(参考訳): 視覚言語モデル(VLM)における連続学習(CL)は、タスク適応の改善と破滅的な忘れの回避において大きな課題に直面している。
既存の手法は推論の負担が大きい場合や外部知識に依存する場合が多いが、LoRA(Lo-Rank Adaptation)はパラメータ効率の調整を可能にすることでこれらの問題を緩和する可能性を示している。
しかし,大惨事の解決にLoRAを直接使用することを考えると,単一 LoRA モジュールを分解可能な Rank-1 エキスパートプールとして再構成する新たなフレームワークを導入する。
本手法では,このエキスパートプールから[CLS]トークンのセマンティクスに導かれて,スパースでタスク固有の更新を動的に作成することを学ぶ。
さらに,タスク間でLoRA重みの重要部分を直交するアクティベーション誘導直交損失(AGO)を提案する。
このスパース構成と直交化により、パラメータの更新が少なくなり、ドメイン認識学習が可能となり、タスク間干渉を最小限に抑え、下流タスク性能を維持できる。
複数の設定にまたがる大規模な実験は、すべての指標において最先端の結果を示し、一般化においてゼロショットの上界を超越している。
特に、トレーニング可能なパラメータをベースラインメソッドと比較して96.7%削減し、外部データセットやタスクID識別器への依存を排除している。
マージされたLoRAは重みを減らし、推論遅延を発生させないため、計算量的に軽量化できる。
関連論文リスト
- Disentangling Task Conflicts in Multi-Task LoRA via Orthogonal Gradient Projection [4.664605519215656]
Low-Rank Adaptation (LoRA)と組み合わせたマルチタスク学習(MTL)が,大規模言語モデル(LLM)のパラメータ効率向上のための有望な方向として登場した。
複数のタスクにまたがる単一のアダプタを共有することで、ストレージオーバーヘッドを大幅に削減できる。
このアプローチは、個別タスクからの差分更新がシングルタスクの微調整と比較して個々のタスクのパフォーマンスを低下させるという、負の転送に悩まされる。
そこで我々は,LoRAの2部構造に適した勾配投影法であるOrtho-LoRAを提案する。
論文 参考訳(メタデータ) (2026-01-14T18:36:22Z) - Merge before Forget: A Single LoRA Continual Learning via Continual Merging [13.950131092976248]
現在のLow-Rank Adaptation (LoRA) 連続学習技術は、学習済みのLoRAを保持・凍結したり、忘れることを避けるためにデータ表現を生成することが多い。
本稿では,LoRAの更新を1つの統一LoRAに逐次マージする連続学習手法を提案する。
論文 参考訳(メタデータ) (2025-12-28T17:37:57Z) - LoRA in LoRA: Towards Parameter-Efficient Architecture Expansion for Continual Visual Instruction Tuning [12.165720711684758]
MLLMにおけるCVITに適した,高効率なアーキテクチャ拡張手法LiLoRAを紹介する。
LiLoRAはタスク間でLoRA行列Aを共有して冗長性を低減し、タスク固有のパラメータを最小化するために行列Bに追加の低ランク分解を適用し、コサイン規則化された安定性損失を組み込んで時間の経過とともに一貫性を維持する。
実験の結果,LiLoRAは逐次的タスク学習において一貫した性能を実現し,既存の手法に比べてパラメータ効率を著しく向上することがわかった。
論文 参考訳(メタデータ) (2025-08-08T10:32:38Z) - C-LoRA: Continual Low-Rank Adaptation for Pre-trained Models [26.560293264523903]
Low-Rank Adaptation (LoRA) は、自然言語処理やコンピュータビジョンなどの分野で広く応用されている効率的な微調整手法である。
連続学習のためのLoRAの新たな拡張である連続低ランク適応(C-LoRA)を提案する。
C-LoRAは学習可能なルーティングマトリックスを使用して、タスク間のパラメータ更新を動的に管理する。
論文 参考訳(メタデータ) (2025-02-25T07:35:36Z) - One Head Eight Arms: Block Matrix based Low Rank Adaptation for CLIP-based Few-Shot Learning [11.724194320966959]
本稿では,ビジョン・ランゲージ・ファンデーション・モデルのためのブロック行列に基づく低ランク適応フレームワークBlock-LoRAを提案する。
また,Block-LoRAは,最先端のCLIPベースの複数ショット方式と比較して,競合性能が向上していることを示す。
論文 参考訳(メタデータ) (2025-01-28T05:54:55Z) - SD-LoRA: Scalable Decoupled Low-Rank Adaptation for Class Incremental Learning [73.93639228235622]
基礎モデルによる継続的な学習は、シーケンシャルなタスクに取り組むための事前トレーニング中に得られた豊富な知識を活用するための有望なパラダイムとして現れてきた。
既存のプロンプトベースおよびローランク適応ベース(LoRAベース)メソッドでは、プロンプト/ローラプールの拡張や、以前のタスクのサンプルの保持がしばしば必要である。
クラスインクリメンタル学習のためのスケーラブルデカップリングLoRA(SD-LoRA)を提案する。
論文 参考訳(メタデータ) (2025-01-22T20:00:41Z) - Less is More: Extreme Gradient Boost Rank-1 Adaption for Efficient Finetuning of LLMs [75.11449420928139]
微調整型大規模言語モデル(LLM)は、訓練済みモデルを下流タスクに適応させる上で重要な技術となっている。
Low-Rank Adaptation (LoRA) は有望な解決法として登場したが、低ランク適応の実用性能と理論的最適性の間にはギャップがある。
本稿では,このギャップを埋める新しいフレームワークであるeXtreme Gradient Boosting LoRAを提案する。
論文 参考訳(メタデータ) (2024-10-25T17:07:13Z) - Is Parameter Collision Hindering Continual Learning in LLMs? [50.57658782050275]
大規模言語モデル(LLM)は、複数のタスクを逐次学習する際に破滅的な忘れに悩まされることが多い。
CL問題に対処する上で,非衝突パラメータの構築はより重要な相互依存因子であることを示す。
低衝突速度を利用してLCMのCLを向上する単純なアプローチである非衝突低ランク適応(N-LoRA)を提案する。
論文 参考訳(メタデータ) (2024-10-14T05:54:11Z) - Sparse Low-rank Adaptation of Pre-trained Language Models [79.74094517030035]
本稿では,適応過程における固有ランクの動的調整を可能にする疎低ランク適応(SoRA)を提案する。
提案手法は,LoRAを高いランクで初期化すると同時に,一時的に増大するパラメータを効率的に利用することにより,LoRAの表現力を向上する。
実験の結果,SoRAは70%の保持パラメータと70%のトレーニング時間でも,他のベースラインよりも優れていることがわかった。
論文 参考訳(メタデータ) (2023-11-20T11:56:25Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。