論文の概要: SC-LoRA: Balancing Efficient Fine-tuning and Knowledge Preservation via Subspace-Constrained LoRA
- arxiv url: http://arxiv.org/abs/2505.23724v1
- Date: Thu, 29 May 2025 17:55:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-30 18:14:08.060381
- Title: SC-LoRA: Balancing Efficient Fine-tuning and Knowledge Preservation via Subspace-Constrained LoRA
- Title(参考訳): SC-LoRA: サブスペース制約付きLORAによる効率的な微調整と知識保存のバランス
- Authors: Minrui Luo, Fuhang Kuang, Yu Wang, Zirui Liu, Tianxing He,
- Abstract要約: Subspace-Constrained LoRA (SC-LoRA)は、効率的な微調整と知識保存のトレードオフをナビゲートするために設計された新しいLoRAフレームワークである。
我々の実験では、SC-LoRAは優れた微調整性能を実現するのに成功し、知識の忘れを著しく減らした。
- 参考スコア(独自算出の注目度): 15.095035820064028
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Parameter-Efficient Fine-Tuning (PEFT) methods, particularly Low-Rank Adaptation (LoRA), are indispensable for efficiently customizing Large Language Models (LLMs). However, vanilla LoRA suffers from slow convergence speed and knowledge forgetting problems. Recent studies have leveraged the power of designed LoRA initialization, to enhance the fine-tuning efficiency, or to preserve knowledge in the pre-trained LLM. However, none of these works can address the two cases at the same time. To this end, we introduce Subspace-Constrained LoRA (SC-LoRA), a novel LoRA initialization framework engineered to navigate the trade-off between efficient fine-tuning and knowledge preservation. We achieve this by constraining the output of trainable LoRA adapters in a low-rank subspace, where the context information of fine-tuning data is most preserved while the context information of preserved knowledge is least retained, in a balanced way. Such constraint enables the trainable weights to primarily focus on the main features of fine-tuning data while avoiding damaging the preserved knowledge features. We provide theoretical analysis on our method, and conduct extensive experiments including safety preservation and world knowledge preservation, on various downstream tasks. In our experiments, SC-LoRA succeeds in delivering superior fine-tuning performance while markedly diminishing knowledge forgetting, surpassing contemporary LoRA initialization methods.
- Abstract(参考訳): パラメータ効率の良いファインチューニング(PEFT)手法、特にローランド適応(LoRA)は、LLM(Large Language Models)を効率的にカスタマイズするには不可欠である。
しかし、バニラ・ロラは収束速度が遅く、知識の忘れがちな問題に悩まされている。
最近の研究は、LoRA初期化の設計の力を活用し、微調整効率を高めたり、事前訓練されたLLMの知識を保存したりしている。
しかし、これら2つのケースを同時に扱うことはできない。
この目的のために我々は,効率的な微調整と知識保存のトレードオフをナビゲートする新しいLoRA初期化フレームワークであるSubspace-Constrained LoRA(SC-LoRA)を紹介した。
学習可能なLoRAアダプタの出力を低ランクのサブスペースで制限し、微調整データのコンテキスト情報を最も多く保存し、保存された知識のコンテキスト情報を最小限にバランスよく保持する。
このような制約により、トレーニング可能なウェイトは、保存された知識の特徴を損なうことなく、主に微調整データの主な特徴に焦点を合わせることができる。
本稿では,本手法に関する理論的解析を行い,様々な下流業務において,安全保全や世界的知識保全を含む広範な実験を行う。
我々の実験では、SC-LoRAは優れた微調整性能を実現するのに成功し、知識の忘れを著しく減らし、現代のLoRA初期化手法を上回りました。
関連論文リスト
- SD-LoRA: Scalable Decoupled Low-Rank Adaptation for Class Incremental Learning [73.93639228235622]
基礎モデルによる継続的な学習は、シーケンシャルなタスクに取り組むための事前トレーニング中に得られた豊富な知識を活用するための有望なパラダイムとして現れてきた。
既存のプロンプトベースおよびローランク適応ベース(LoRAベース)メソッドでは、プロンプト/ローラプールの拡張や、以前のタスクのサンプルの保持がしばしば必要である。
クラスインクリメンタル学習のためのスケーラブルデカップリングLoRA(SD-LoRA)を提案する。
論文 参考訳(メタデータ) (2025-01-22T20:00:41Z) - Exploring Gradient Subspaces: Addressing and Overcoming LoRA's Limitations in Federated Fine-Tuning of Large Language Models [19.533062623518674]
本稿ではLow-Rank Adaptation (LoRA)を用いたFLフレームワークの収束と性能保証を批判的に分析する。
直接重み付けはLoRAベースの戦略よりも優れており、微調整モデルでは優れた性能が得られることを示す。
以上の結果から,直接重み付けと併用したGaLoreの方が,FlexLoRAやFFA-LoRAといったフェデレートされたLoRA法よりも,テキストや画像のモダリティが優れていることが示唆された。
論文 参考訳(メタデータ) (2024-10-30T15:23:44Z) - Task-Specific Directions: Definition, Exploration, and Utilization in Parameter Efficient Fine-Tuning [65.31677646659895]
大規模な言語モデルは、下流タスクで素晴らしいパフォーマンスを示すが、全てのパラメータを完全に微調整する場合は、リソース消費がかなり必要である。
本稿では,タスク固有の方向(TSD)を明確に定義するフレームワークを提案し,その特性と実用化の課題について検討する。
次に、微調整過程におけるTLDの影響を最大化する新しいアプローチであるLoRA-Dashを導入する。
論文 参考訳(メタデータ) (2024-09-02T08:10:51Z) - Safe LoRA: the Silver Lining of Reducing Safety Risks when Fine-tuning Large Language Models [51.20476412037321]
提案するSafe LoRAは,選択した層からのLoRA重みの投影を安全に整合した部分空間に導入することにより,オリジナルのLoRA実装に対する単純なワンライナーパッチである。
我々の実験は、純粋に悪意のあるデータに対して微調整を行う場合、Safe LoRAは元のアライメントモデルと同様の安全性を保っていることを示した。
論文 参考訳(メタデータ) (2024-05-27T05:04:05Z) - Improving LoRA in Privacy-preserving Federated Learning [44.47315926976059]
ローランク適応(ローランク適応、LoRA)は、事前訓練された言語モデルにおける最も一般的なタスク固有パラメータ効率細調整(PEFT)手法の1つである。
本稿では,これらの課題を緩和するために,LoRAの効率的かつ効果的なフェデレートフリーズA LoRA(FFA-LoRA)を提案する。
論文 参考訳(メタデータ) (2024-03-18T23:20:08Z) - DoRA: Weight-Decomposed Low-Rank Adaptation [57.68678247436207]
本稿では,FTとLoRAの相違点を明らかにするために,新しい重み分解解析法を提案する。
本研究は、FTの学習能力に類似することを目的として、重量分解低ランク適応(DoRA)を提案する。
DoRAは、事前訓練された重量を、微調整のための大きさと方向の2つの構成要素に分解する。
論文 参考訳(メタデータ) (2024-02-14T17:59:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。