論文の概要: Budget-Adaptive Adapter Tuning in Orthogonal Subspaces for Continual Learning in LLMs
- arxiv url: http://arxiv.org/abs/2505.22358v1
- Date: Wed, 28 May 2025 13:38:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-29 17:35:50.634441
- Title: Budget-Adaptive Adapter Tuning in Orthogonal Subspaces for Continual Learning in LLMs
- Title(参考訳): LLMにおける連続学習のための直交部分空間における予算適応型適応型チューニング
- Authors: Zhiyi Wan, Wanrou Du, Liang Li, Miao Pan, Xiaoqi Qin,
- Abstract要約: 大規模言語モデル(LLM)は、連続学習(CL)のシナリオにおいて破滅的な忘れ方に悩まされることが多い。
LLMにおける継続学習のためのパラメータ効率の高い新しい手法であるOA-Adapterを提案する。
- 参考スコア(独自算出の注目度): 11.918377767914222
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Large language models (LLMs) often suffer from catastrophic forgetting in continual learning (CL) scenarios, where performance on previously learned tasks degrades severely while training on sequentially arriving tasks. Although pioneering CL approaches using orthogonal subspaces can mitigate task interference, they typically employ fixed budget allocation, neglecting the varying complexity across tasks and layers. Besides, recent budget-adaptive tuning methods for LLMs often adopt multi-stage paradigms that decouple optimization and budget allocation. Such decoupling results in potential misalignment, which hinders those approaches' practical application in CL scenarios. To address these limitations, we propose OA-Adapter, a novel parameter-efficient approach for continual learning in LLMs that unifies dynamic budget adaptation with orthogonal subspace learning in a single end-to-end training stage. Specifically, OA-Adapter introduces a dynamic bottleneck dimension adaptation mechanism that simultaneously allocates an efficient parameter budget and optimizes task objectives without misalignment. To effectively preserve previously acquired knowledge while coordinating with the dynamic budget allocation, orthogonal constraints are applied specifically between the parameter subspace of the current task and the dynamically allocated parameter subspaces of historical tasks. Experimental results on continual learning benchmarks demonstrate that OA-Adapter outperforms state-of-the-art methods in both accuracy and parameter efficiency, achieving higher average accuracy while using 58.5% fewer parameters on the standard CL benchmark.
- Abstract(参考訳): 大規模言語モデル(LLM)は、連続学習(CL)のシナリオにおいて破滅的な忘れに悩まされることが多い。
直交部分空間を用いたCLアプローチのパイオニアは、タスクの干渉を軽減することができるが、彼らは通常、タスクやレイヤ間の様々な複雑さを無視して、固定予算割り当てを使用する。
さらに、近年のLCMの予算適応チューニング手法では、最適化と予算配分を分離する多段階パラダイムが採用されている。
このような疎結合は潜在的なミスアライメントをもたらし、CLシナリオにおけるそれらのアプローチの実践的応用を妨げる。
これらの制約に対処するために,一段階の訓練段階において直交部分空間学習による動的予算適応を統一する,LLMにおける継続学習のためのパラメータ効率の高い新しい手法であるOA-Adapterを提案する。
具体的には、OA-Adapterは、効率的なパラメータ予算を同時に割り当て、ミスアライメントなしでタスク目標を最適化する動的ボトルネック次元適応機構を導入している。
動的予算配分と協調しながら、予め取得した知識を効果的に保存するために、現在のタスクのパラメータ部分空間と、履歴タスクの動的に割り当てられたパラメータ部分空間との間で、直交制約を具体的に適用する。
連続学習ベンチマーク実験の結果、OA-Adapterは精度とパラメータ効率の両方で最先端の手法より優れており、標準CLベンチマークでは58.5%少ないパラメータを使用しながら高い平均精度を実現している。
関連論文リスト
- Optimization-Inspired Few-Shot Adaptation for Large Language Models [25.439708260502556]
LLM(Large Language Models)は、現実世界のアプリケーションで顕著な性能を示している。
LLMを微調整によって新しいタスクに適応させるには、数ショットのシナリオでは実行不可能な、実質的なトレーニングデータと計算資源が必要となることが多い。
既存のアプローチ、例えば、コンテキスト内学習や。
PEFT(Efficient Fine-Tuning)は、重要な制限に直面している。
論文 参考訳(メタデータ) (2025-05-25T11:54:23Z) - Parameter Efficient Continual Learning with Dynamic Low-Rank Adaptation [19.48677836920734]
連続学習(CL)におけるディープニューラルネットワークにとって、破滅的な忘れは依然として重要な課題である。
CLトレーニング中にLoRAコンポーネントの動的ランクアロケーションを必要とするリハーサルフリーなCLフレームワークであるPEARLを紹介する。
論文 参考訳(メタデータ) (2025-05-17T13:19:01Z) - Sculpting Subspaces: Constrained Full Fine-Tuning in LLMs for Continual Learning [19.27175827358111]
大規模言語モデル(LLM)における継続的な学習は破滅的な忘れがちである。
適応特異値分解(SVD)を利用した連続的完全微調整手法を提案する。
我々は,Encoder-decoder (T5-Large) モデルとdecoder-only (LLaMA-2 7B) モデルの両方を用いて,標準連続学習ベンチマークを広範囲に評価した。
論文 参考訳(メタデータ) (2025-04-09T17:59:42Z) - C-LoRA: Continual Low-Rank Adaptation for Pre-trained Models [26.560293264523903]
Low-Rank Adaptation (LoRA) は、自然言語処理やコンピュータビジョンなどの分野で広く応用されている効率的な微調整手法である。
連続学習のためのLoRAの新たな拡張である連続低ランク適応(C-LoRA)を提案する。
C-LoRAは学習可能なルーティングマトリックスを使用して、タスク間のパラメータ更新を動的に管理する。
論文 参考訳(メタデータ) (2025-02-25T07:35:36Z) - Less is More: Extreme Gradient Boost Rank-1 Adaption for Efficient Finetuning of LLMs [75.11449420928139]
微調整型大規模言語モデル(LLM)は、訓練済みモデルを下流タスクに適応させる上で重要な技術となっている。
Low-Rank Adaptation (LoRA) は有望な解決法として登場したが、低ランク適応の実用性能と理論的最適性の間にはギャップがある。
本稿では,このギャップを埋める新しいフレームワークであるeXtreme Gradient Boosting LoRAを提案する。
論文 参考訳(メタデータ) (2024-10-25T17:07:13Z) - Reference Trustable Decoding: A Training-Free Augmentation Paradigm for Large Language Models [79.41139393080736]
大規模言語モデル(LLM)は急速に進歩し、印象的な機能を示している。
In-Context Learning (ICL) など。
効率的なファインチューニング(PEFT)は、現在2つの主要な拡張方法である。
下流タスクへのLLM。
我々は、モデルが微調整なしで新しいタスクに迅速に適応できるパラダイムである参照信頼復号(RTD)を提案する。
論文 参考訳(メタデータ) (2024-09-30T10:48:20Z) - Parameter-Efficient Fine-Tuning for Continual Learning: A Neural Tangent Kernel Perspective [125.00228936051657]
本稿では,タスク関連機能を適応的に生成しながら,タスク固有のパラメータ記憶を不要にする新しいフレームワークNTK-CLを紹介する。
最適化可能なパラメータを適切な正規化で微調整することにより、NTK-CLは確立されたPEFT-CLベンチマーク上で最先端のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2024-07-24T09:30:04Z) - Hyperparameters in Continual Learning: A Reality Check [53.30082523545212]
連続学習(CL)は、可塑性(新しいタスクを学ぶ)と安定性(事前知識を保持する)のトレードオフをバランスしながら、一連のタスクでモデルを訓練することを目的としている。
論文 参考訳(メタデータ) (2024-03-14T03:13:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。