論文の概要: LoRA-PAR: A Flexible Dual-System LoRA Partitioning Approach to Efficient LLM Fine-Tuning
- arxiv url: http://arxiv.org/abs/2507.20999v1
- Date: Mon, 28 Jul 2025 17:11:26 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-29 16:23:58.221093
- Title: LoRA-PAR: A Flexible Dual-System LoRA Partitioning Approach to Efficient LLM Fine-Tuning
- Title(参考訳): LoRA-PAR - LLMファインチューニングのためのフレキシブルデュアルシステムLoRA分割手法
- Authors: Yining Huang, Bin Li, Keke Tang, Meilian Chen,
- Abstract要約: システム1やシステム2の要求によってデータとパラメータの両方を分割するデュアルシステムLoRAフレームワークを提案する。
具体的には、マルチモデルロールプレイングと投票によってタスクデータを分類し、重要スコアリングに基づいて分割パラメータを分割する。
実験の結果,2段階の微調整戦略であるSFTとRLは,SOTA PEFTベースラインの整合性や超越性を保ちながら,アクティブパラメータの使用率を低下させることがわかった。
- 参考スコア(独自算出の注目度): 4.105967217565736
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Large-scale generative models like DeepSeek-R1 and OpenAI-O1 benefit substantially from chain-of-thought (CoT) reasoning, yet pushing their performance typically requires vast data, large model sizes, and full-parameter fine-tuning. While parameter-efficient fine-tuning (PEFT) helps reduce cost, most existing approaches primarily address domain adaptation or layer-wise allocation rather than explicitly tailoring data and parameters to different response demands. Inspired by "Thinking, Fast and Slow," which characterizes two distinct modes of thought-System 1 (fast, intuitive, often automatic) and System 2 (slower, more deliberative and analytic)-we draw an analogy that different "subregions" of an LLM's parameters might similarly specialize for tasks that demand quick, intuitive responses versus those requiring multi-step logical reasoning. Therefore, we propose LoRA-PAR, a dual-system LoRA framework that partitions both data and parameters by System 1 or System 2 demands, using fewer yet more focused parameters for each task. Specifically, we classify task data via multi-model role-playing and voting, and partition parameters based on importance scoring, then adopt a two-stage fine-tuning strategy of training System 1 tasks with supervised fine-tuning (SFT) to enhance knowledge and intuition and refine System 2 tasks with reinforcement learning (RL) to reinforce deeper logical deliberation next. Extensive experiments show that the two-stage fine-tuning strategy, SFT and RL, lowers active parameter usage while matching or surpassing SOTA PEFT baselines.
- Abstract(参考訳): DeepSeek-R1やOpenAI-O1のような大規模生成モデルは、チェーン・オブ・ソート(CoT)推論から大きく恩恵を受けるが、そのパフォーマンスを推し進めるためには通常、膨大なデータ、大きなモデルサイズ、フルパラメータの微調整が必要である。
パラメータ効率の細かいチューニング(PEFT)はコスト削減に役立つが、既存のほとんどのアプローチは、データとパラメータを異なる応答要求に明示的に調整するのではなく、ドメイン適応やレイヤワイドアロケーションに対処する。
システム1(高速、直感的、しばしば自動)とシステム2(より遅く、より熟考的、分析的)の2つの異なるモードを特徴付ける"Thinking, Fast and Slow"にインスパイアされた私たちは、LLMのパラメータの異なる"サブリージョン"が、高速で直感的な応答を要求するタスクに対して、マルチステップ論理的推論を必要とするタスクに特化している、という類似性を引き出す。
そこで本研究では,システム1やシステム2の要求によってデータとパラメータを分割するデュアルシステムLoRAフレームワークであるLoRA-PARを提案する。
具体的には,多モデルロールプレイングと投票によるタスクデータを分類し,重要スコアに基づいて分割パラメータを分類し,さらに,教師付き微調整(SFT)を伴うシステム1タスクを採用し,知識と直観を高め,システム2タスクを強化学習(RL)によるシステム2タスクを改良し,さらに深い論理的熟考を強化する。
広汎な実験により,SOTA PEFTベースラインに適合または超越しながら,2段階の微調整戦略であるSFTとRLがアクティブパラメータ使用率を低下させることが示された。
関連論文リスト
- SkipGPT: Dynamic Layer Pruning Reinvented with Token Awareness and Module Decoupling [16.742839354514512]
我々は,大規模言語モデルを最適化する動的層プルーニングフレームワークであるSkipGPTを紹介する。
また,SkipGPTはモデルパラメータの40%以上を削減できることを示す。
論文 参考訳(メタデータ) (2025-06-04T17:26:31Z) - Pangu Embedded: An Efficient Dual-system LLM Reasoner with Metacognition [95.54406667705999]
Pangu Embeddedは、Ascend Neural Processing Units (NPU) 上で開発された効率的なLarge Language Model (LLM) 推論器である。
既存の推論最適化 LLM でよく見られる計算コストと推論遅延の問題に対処する。
単一の統一モデルアーキテクチャ内で、迅速な応答と最先端の推論品質を提供する。
論文 参考訳(メタデータ) (2025-05-28T14:03:02Z) - A Sensitivity-Driven Expert Allocation Method in LoRA-MoE for Efficient Fine-Tuning [0.6906005491572401]
パラメータ感度のLoRA-SMoEに基づいて専門家数を割当てる手法を提案する。
実験の結果,LoRA-SMoE手法はトレーニング可能なパラメータの数を減らしながらモデル性能を向上させることができることがわかった。
論文 参考訳(メタデータ) (2025-05-06T13:22:46Z) - PointLoRA: Low-Rank Adaptation with Token Selection for Point Cloud Learning [54.99373314906667]
ポイントクラウドのための自己教師付き表現学習は、様々なタスクで事前訓練されたモデルパフォーマンスを改善する効果を実証した。
事前訓練されたモデルは複雑さが増すにつれて、下流のアプリケーションに完全に微調整を施すには、かなりの計算資源とストレージ資源が必要である。
そこで我々は,低ランク適応(LoRA)とマルチスケールトークン選択を併用した簡易かつ効果的なPointLoRAを提案する。
論文 参考訳(メタデータ) (2025-04-22T16:41:21Z) - MSPLoRA: A Multi-Scale Pyramid Low-Rank Adaptation for Efficient Model Fine-Tuning [5.412348391086257]
我々は,グローバル共有ロラ,ミッドレベル共有ロラ,レイヤ特化ロラを導入して,グローバルパターン,中間レベル特徴,きめ細かい情報をキャプチャするMPPLoRAを提案する。
様々なNLPタスクの実験により、MPPLoRAはトレーニング可能なパラメータの数を著しく減らしながら、より効率的な適応とより良い性能を実現することが示された。
論文 参考訳(メタデータ) (2025-03-27T07:01:50Z) - Efficient Multi-Instance Generation with Janus-Pro-Dirven Prompt Parsing [53.295515505026096]
Janus-Pro-driven Prompt Parsingは、テキスト理解とレイアウト生成をブリッジするプロンプト解析モジュールである。
MIGLoRAはパラメータ効率の良いプラグインで、低ランク適応を UNet (SD1.5) と DiT (SD3) のバックボーンに統合する。
提案手法はパラメータ効率を維持しつつCOCOおよびLVISベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2025-03-27T00:59:14Z) - Towards Generalizable Trajectory Prediction Using Dual-Level Representation Learning And Adaptive Prompting [107.4034346788744]
既存の車両軌道予測モデルは、一般化可能性、予測の不確実性、複雑な相互作用を扱う。
本研究では,(1)自己拡張(SD)とマスドレコンストラクション(MR)による二重レベル表現学習,グローバルコンテキストと細部の詳細の収集,(2)レジスタベースのクエリと事前学習の強化,クラスタリングと抑圧の必要性の排除,(3)微調整中の適応型プロンプトチューニング,メインアーキテクチャの凍結,および少数のプロンプトの最適化といった,新たなトラジェクタ予測フレームワークであるPerceiverを提案する。
論文 参考訳(メタデータ) (2025-01-08T20:11:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。