論文の概要: Position: Pause Recycling LoRAs and Prioritize Mechanisms to Uncover Limits and Effectiveness
- arxiv url: http://arxiv.org/abs/2506.13479v1
- Date: Mon, 16 Jun 2025 13:35:22 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-17 17:28:48.585794
- Title: Position: Pause Recycling LoRAs and Prioritize Mechanisms to Uncover Limits and Effectiveness
- Title(参考訳): 位置: パウスリサイクルロラと限界と有効性を明らかにするための優先順位付け機構
- Authors: Mei-Yen Chen, Thi Thu Uyen Hoang, Michael Hahn, M. Saquib Sarfraz,
- Abstract要約: ローランクアダプタ(LoRA)のマージやルーティングは,大規模言語モデルの拡張手段として人気がある。
本稿は,新たなマージアルゴリズムやルーティングアルゴリズムの開発から,LoRAの再利用が本当に効果的である条件の理解へと,研究コミュニティの焦点を移すことを主張する。
- 参考スコア(独自算出の注目度): 6.3575026653686315
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Merging or routing low-rank adapters (LoRAs) has emerged as a popular solution for enhancing large language models, particularly when data access is restricted by regulatory or domain-specific constraints. This position paper argues that the research community should shift its focus from developing new merging or routing algorithms to understanding the conditions under which reusing LoRAs is truly effective. Through theoretical analysis and synthetic two-hop reasoning and math word-problem tasks, we examine whether reusing LoRAs enables genuine compositional generalization or merely reflects shallow pattern matching. Evaluating two data-agnostic methods--parameter averaging and dynamic adapter selection--we found that reusing LoRAs often fails to logically integrate knowledge across disjoint fine-tuning datasets, especially when such knowledge is underrepresented during pretraining. Our empirical results, supported by theoretical insights into LoRA's limited expressiveness, highlight the preconditions and constraints of reusing them for unseen tasks and cast doubt on its feasibility as a truly data-free approach. We advocate for pausing the pursuit of novel methods for recycling LoRAs and emphasize the need for rigorous mechanisms to guide future academic research in adapter-based model merging and practical system designs for practitioners.
- Abstract(参考訳): ローランクアダプタ(LoRA)のマージやルーティングは、特にデータアクセスが規制やドメイン固有の制約によって制限されている場合、大規模言語モデルを強化する一般的なソリューションとして現れている。
このポジションペーパーでは、研究コミュニティは新たなマージやルーティングアルゴリズムの開発から、LoRAの再利用が本当に効果的である条件の理解へと焦点を移すべきだと論じている。
理論的解析と合成二脚推論と数理ワードプロブレムタスクにより,LoRAの再利用によって真の構成一般化が可能か,あるいは単に浅いパターンマッチングを反映しているかを検討する。
パラメータ平均化(parameter averaging)と動的アダプタ選択(Dynamic Adapter selection)という2つのデータに依存しない手法を評価することで、LoRAの再利用は、特に事前トレーニング中にそのような知識が不足している場合には、相反する微調整データセット間の知識を論理的に統合することができないことが分かった。
我々の経験的結果は、LoRAの限られた表現性に関する理論的知見に支えられ、目に見えないタスクのためにそれらを再利用することの前提条件と制約を強調し、真にデータフリーなアプローチとしてのその実現可能性に疑問を投げかけた。
我々は,LoRAをリサイクルするための新しい手法の追求を緩和し,アダプタベースのモデルマージと実践者のための実用的なシステム設計において,今後の学術研究を導くための厳密なメカニズムの必要性を強調している。
関連論文リスト
- Uncovering Bias Paths with LLM-guided Causal Discovery: An Active Learning and Dynamic Scoring Approach [1.5498930424110338]
大規模言語モデル(LLM)は、統計的因果発見(CD)アプローチを有望に補完する。
機械学習における公平性を保証するには、センシティブな属性が結果に因果的にどのように影響するかを理解する必要がある。
本稿では,BFS(Broadth-first Search)戦略を拡張し,アクティブラーニングと動的スコアリングを併用したCD用LLMベースのハイブリッドフレームワークを提案する。
論文 参考訳(メタデータ) (2025-06-13T21:04:03Z) - Replay to Remember: Retaining Domain Knowledge in Streaming Language Models [0.0]
大規模言語モデル(LLM)における継続的な学習は、破滅的な忘れ込みという重要な課題に直面するのが普通である。
現実的なストリーミング環境では,LoRAと最小限の再生機構を組み合わせた手法を実証する。
我々の実験では、破滅的な忘れが自然に起こるが、最小限のリプレイでさえ、ドメイン固有の知識を著しく安定化し、部分的に復元する。
論文 参考訳(メタデータ) (2025-04-24T17:56:22Z) - ReaRAG: Knowledge-guided Reasoning Enhances Factuality of Large Reasoning Models with Iterative Retrieval Augmented Generation [38.64751082999587]
大きな推論モデル(LRM)は、顕著な推論能力を示すが、主にパラメトリック知識に依存し、事実の正確性を制限する。
本稿では,過剰な反復を伴わない多様なクエリを探索する,事実性強化推論モデルReaRAGを提案する。
我々の研究は、レトリーバル強化世代(RAG)のロバスト推論を効果的に統合しつつ、LRMの事実性を向上する。
論文 参考訳(メタデータ) (2025-03-27T17:44:18Z) - SD-LoRA: Scalable Decoupled Low-Rank Adaptation for Class Incremental Learning [73.93639228235622]
基礎モデルによる継続的な学習は、シーケンシャルなタスクに取り組むための事前トレーニング中に得られた豊富な知識を活用するための有望なパラダイムとして現れてきた。
既存のプロンプトベースおよびローランク適応ベース(LoRAベース)メソッドでは、プロンプト/ローラプールの拡張や、以前のタスクのサンプルの保持がしばしば必要である。
クラスインクリメンタル学習のためのスケーラブルデカップリングLoRA(SD-LoRA)を提案する。
論文 参考訳(メタデータ) (2025-01-22T20:00:41Z) - LoRA Dropout as a Sparsity Regularizer for Overfitting Control [18.992276878667997]
そこで本研究では,LoRA方式のドロップアウト機構を提案する。
適切な空間性は、経験的リスクと一般化リスクのギャップを狭めるのに役立ちます。
論文 参考訳(メタデータ) (2024-04-15T09:32:12Z) - Training Neural Networks from Scratch with Parallel Low-Rank Adapters [46.764982726136054]
計算ノード間の複数の低ランクヘッドの並列トレーニングを実現するために設計された,新しい双方向最適化アルゴリズムである LoRA-the-Explorer (LTE) を導入する。
我々のアプローチには、様々なビジョンデータセットを用いたビジョントランスフォーマーの広範な実験が含まれており、LTEが標準の事前トレーニングと競合していることが示されている。
論文 参考訳(メタデータ) (2024-02-26T18:55:13Z) - Self-RAG: Learning to Retrieve, Generate, and Critique through
Self-Reflection [74.51523859064802]
我々は、自己回帰検索拡張生成(Self-RAG)と呼ばれる新しいフレームワークを導入する。
自己RAGは、検索と自己回帰によってLMの品質と事実性を高める。
様々なタスクセットにおいて、最先端のLCMや検索強化モデルよりも大幅に優れています。
論文 参考訳(メタデータ) (2023-10-17T18:18:32Z) - False Correlation Reduction for Offline Reinforcement Learning [115.11954432080749]
本稿では,実効的かつ理論的に証明可能なアルゴリズムであるオフラインRLに対するfalSe Correlation Reduction (SCORE)を提案する。
SCOREは、標準ベンチマーク(D4RL)において、様々なタスクにおいて3.1倍の高速化でSoTA性能を達成することを実証的に示す。
論文 参考訳(メタデータ) (2021-10-24T15:34:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。