論文の概要: Data Efficient Adaptation in Large Language Models via Continuous Low-Rank Fine-Tuning
- arxiv url: http://arxiv.org/abs/2509.18942v1
- Date: Tue, 23 Sep 2025 12:55:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-24 20:41:27.842028
- Title: Data Efficient Adaptation in Large Language Models via Continuous Low-Rank Fine-Tuning
- Title(参考訳): 連続低ランクファインチューニングによる大規模言語モデルのデータ適応
- Authors: Xiao Han, Zimo Zhao, Wanyu Wang, Maolin Wang, Zitao Liu, Yi Chang, Xiangyu Zhao,
- Abstract要約: 微調整技術は、特定のタスクに大規模言語モデルを適用する上で重要である。
DealはLow-Rank Adapta-tion (LoRA)と継続的微調整戦略を統合する新しいフレームワークである。
15の多様なデータセットの実験は、DEALが一貫してベースラインメソッドよりも優れていることを示している。
- 参考スコア(独自算出の注目度): 34.343514432589586
- License: http://creativecommons.org/publicdomain/zero/1.0/
- Abstract: Recent advancements in Large Language Models (LLMs) have emphasized the critical role of fine-tuning (FT) techniques in adapting LLMs to specific tasks, especially when retraining from scratch is computationally infeasible. Fine-tuning enables LLMs to leverage task- or domain-specific data, producing models that more effectively meet the requirements of targeted applications. However, con- ventional FT approaches often suffer from catastrophic forgetting and suboptimal data efficiency, limiting their real-world applicability. To address these challenges, this paper proposes DEAL, a novel framework that integrates Low-Rank Adapta- tion (LoRA) with a continuous fine-tuning strategy. By incorporating knowledge retention and adaptive parameter update modules, the framework mitigates the lim- itations of existing FT methods while maintaining efficiency in privacy-preserving settings. Experiments on 15 diverse datasets show that DEAL consistently outper- forms baseline methods, yielding substantial gains in task accuracy and resource efficiency. These findings demonstrate the potential of our approach to advance continual adaptation in LLMs by enhancing task performance while improving resource efficiency.
- Abstract(参考訳): 近年のLarge Language Models (LLMs) の進歩は、特にスクラッチから再トレーニングが計算不可能な場合に、特定のタスクにLLMを適用する上での微調整(FT)技術の重要性を強調している。
微調整により、LLMはタスク固有のデータやドメイン固有のデータを活用することができ、ターゲットとするアプリケーションの要件をより効果的に満たすモデルを生成する。
しかし、コンベンショナルFTアプローチは、しばしば破滅的な忘れ込みと準最適データ効率に悩まされ、現実の応用性が制限される。
これらの課題に対処するために,ローランド・アダプタ・オン(LoRA)と連続的な微調整戦略を統合する新しいフレームワークであるDEALを提案する。
このフレームワークは、知識保持と適応パラメータ更新モジュールを組み込むことで、プライバシー保護設定の効率を維持しつつ、既存のFTメソッドのリムイットを緩和する。
15の多様なデータセットの実験では、DEALが一貫してフォームのベースラインメソッドより優れており、タスクの精度とリソース効率が大幅に向上している。
これらの結果は,資源効率を向上しつつタスク性能を向上し,LCMの継続的な適応を推し進めるアプローチの可能性を示している。
関連論文リスト
- Optimising Language Models for Downstream Tasks: A Post-Training Perspective [0.0]
言語モデル(LM)は、NLPにおいて顕著な能力を示している。
しかし、それらを効率的かつ堅牢に特定のタスクに適用することは、依然として困難である。
この論文は、下流アプリケーションにLMを適応させる一連の方法を提案する。
論文 参考訳(メタデータ) (2025-06-26T00:49:35Z) - Improving Data Efficiency for LLM Reinforcement Fine-tuning Through Difficulty-targeted Online Data Selection and Rollout Replay [61.823835392216544]
強化学習(RL)は、大規模言語モデル(LLM)の微調整に有効なアプローチとなっている。
LLM RLファインチューニングにおけるデータ効率向上のための2つの手法を提案する。
本手法は,RLの微調整時間を25%から65%削減し,GRPOアルゴリズムと同等の性能を実現する。
論文 参考訳(メタデータ) (2025-06-05T17:55:43Z) - AFLoRA: Adaptive Federated Fine-Tuning of Large Language Models with Resource-Aware Low-Rank Adaption [3.805501490912696]
フェデレートされた微調整は、分散データを使用して下流タスクにファンデーションモデルを適用するための有望なアプローチとして現れている。
大規模言語モデルのための適応的で軽量なファインチューニングフレームワークであるAFLoRAを提案する。
論文 参考訳(メタデータ) (2025-05-30T16:35:32Z) - ActiveDPO: Active Direct Preference Optimization for Sample-Efficient Alignment [94.36403843133616]
人間の好みを使って大きな言語モデル(LLM)を整列させると、さまざまな下流タスクのパフォーマンスが大幅に向上する。
既存の方法には強い理論的な基礎が欠けているか、制限的な報酬関数の仮定に依存している。
非線型報酬関数に対して理論的に基底化されたデータ選択基準を用いるアルゴリズムであるActiveDPOを提案する。
論文 参考訳(メタデータ) (2025-05-25T17:42:52Z) - Mitigating Forgetting in LLM Fine-Tuning via Low-Perplexity Token Learning [65.23593936798662]
LLM生成データによる微調整により,目標タスクの性能が向上し,非目標タスクの劣化が低減されることを示す。
微調整後のLSMにおける破滅的忘れを緩和するために、トークンの難易度低減に基づく経験的説明を提供する最初の研究である。
論文 参考訳(メタデータ) (2025-01-24T08:18:56Z) - Reference Trustable Decoding: A Training-Free Augmentation Paradigm for Large Language Models [79.41139393080736]
大規模言語モデル(LLM)は急速に進歩し、印象的な機能を示している。
In-Context Learning (ICL) など。
効率的なファインチューニング(PEFT)は、現在2つの主要な拡張方法である。
下流タスクへのLLM。
我々は、モデルが微調整なしで新しいタスクに迅速に適応できるパラダイムである参照信頼復号(RTD)を提案する。
論文 参考訳(メタデータ) (2024-09-30T10:48:20Z) - The Ultimate Guide to Fine-Tuning LLMs from Basics to Breakthroughs: An Exhaustive Review of Technologies, Research, Best Practices, Applied Research Challenges and Opportunities [0.35998666903987897]
本稿では,Large Language Models (LLM) の微調整について検討する。
従来の自然言語処理(NLP)モデルから、AIにおける彼らの重要な役割まで、LLMの歴史的進化を概説している。
本報告では, 微調整LDMのための構造化7段パイプラインについて紹介する。
論文 参考訳(メタデータ) (2024-08-23T14:48:02Z) - Task-Distributionally Robust Data-Free Meta-Learning [99.56612787882334]
Data-Free Meta-Learning (DFML)は、複数の事前学習モデルを活用することで、独自のトレーニングデータを必要とせずに、新しいタスクを効率的に学習することを目的としている。
TDS(Task-Distribution Shift)とTDC(Task-Distribution Corruption)の2つの大きな課題を初めて明らかにした。
論文 参考訳(メタデータ) (2023-11-23T15:46:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。