論文の概要: Dynamic Training-Free Fusion of Subject and Style LoRAs
- arxiv url: http://arxiv.org/abs/2602.15539v1
- Date: Tue, 17 Feb 2026 12:42:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-18 16:03:18.062432
- Title: Dynamic Training-Free Fusion of Subject and Style LoRAs
- Title(参考訳): ダイナミックトレーニング-対象とスタイルのLORAのフリー融合-
- Authors: Qinglong Cao, Yuntian Chen, Chao Ma, Xiaokang Yang,
- Abstract要約: 生成プロセス全体にわたって動作する訓練不要な融合フレームワークを提案する。
我々の手法は、定性的かつ定量的に最先端のLoRA融合法より一貫して優れている。
- 参考スコア(独自算出の注目度): 38.73465144699025
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recent studies have explored the combination of multiple LoRAs to simultaneously generate user-specified subjects and styles. However, most existing approaches fuse LoRA weights using static statistical heuristics that deviate from LoRA's original purpose of learning adaptive feature adjustments and ignore the randomness of sampled inputs. To address this, we propose a dynamic training-free fusion framework that operates throughout the generation process. During the forward pass, at each LoRA-applied layer, we dynamically compute the KL divergence between the base model's original features and those produced by subject and style LoRAs, respectively, and adaptively select the most appropriate weights for fusion. In the reverse denoising stage, we further refine the generation trajectory by dynamically applying gradient-based corrections derived from objective metrics such as CLIP and DINO scores, providing continuous semantic and stylistic guidance. By integrating these two complementary mechanisms-feature-level selection and metric-guided latent adjustment-across the entire diffusion timeline, our method dynamically achieves coherent subject-style synthesis without any retraining. Extensive experiments across diverse subject-style combinations demonstrate that our approach consistently outperforms state-of-the-art LoRA fusion methods both qualitatively and quantitatively.
- Abstract(参考訳): 近年,複数のLoRAを組み合わせることで,ユーザが特定した主題やスタイルを同時に生成する方法が研究されている。
しかし、既存のほとんどのアプローチは、LoRAの本来の目的である適応的特徴調整を学習し、サンプル入力のランダム性を無視する静的統計ヒューリスティックを用いてLoRA重みを融合する。
そこで本研究では,生成プロセス全体にわたって動作する動的学習自由融合フレームワークを提案する。
前方通過中、各LoRA適用層において、基本モデルの原特徴と主観的LoRAが生成する特徴とのKLばらつきを動的に計算し、融合に最適な重みを適応的に選択する。
逆復調段階では、CLIPやDINOスコアなどの客観的指標から得られる勾配に基づく補正を動的に適用し、連続的な意味的およびスタイリスティックなガイダンスを提供することにより、生成軌道をさらに洗練する。
これら2つの相補的機構-機能レベル選択と計量誘導型潜時調整を拡散時間全体にわたって統合することにより,本手法は再学習を伴わずにコヒーレントな主観的合成を動的に実現する。
多様な主観的な組み合わせによる大規模な実験により、我々のアプローチは定性的かつ定量的に、最先端のLoRA融合法より一貫して優れていることが示された。
関連論文リスト
- ODELoRA: Training Low-Rank Adaptation by Solving Ordinary Differential Equations [54.886931928255564]
低ランク適応(LoRA)は、深層移動学習においてパラメータ効率の高い微調整法として広く採用されている。
常微分方程式(ODE)の形でLoRA因子行列に対する新しい連続時間最適化ダイナミクスを提案する。
ODELoRAは,問題次元の異なるスケールのディープニューラルネットワークのトレーニングに不可欠な特性である,安定した特徴学習を実現する。
論文 参考訳(メタデータ) (2026-02-07T10:19:36Z) - Model-Based Diffusion Sampling for Predictive Control in Offline Decision Making [48.998030470623384]
オフラインの意思決定は、さらなるインタラクションを伴わずに、固定データセットからの信頼性の高い振る舞いを必要とする。
i)タスク整列軌道を多様に生成するプランナー,(ii)システム力学との整合性を強制するダイナミクスモデル,(iii)タスク目標に整合した動作を選択するランサーモジュールからなる構成モデルに基づく拡散フレームワークを提案する。
論文 参考訳(メタデータ) (2025-12-09T06:26:02Z) - DoRAN: Stabilizing Weight-Decomposed Low-Rank Adaptation via Noise Injection and Auxiliary Networks [47.58150560549918]
重み分解低ランク適応(DoRA)は,バニラ低ランク適応(LoRA)法の学習能力と訓練安定性の両方を改善することが示されている。
そこで本研究では,DoRAのトレーニングを安定化し,サンプル効率を向上させるため,新しいDoRAの派生型であるDoRANを提案する。
論文 参考訳(メタデータ) (2025-10-05T19:27:48Z) - Learning to Optimize Multi-Objective Alignment Through Dynamic Reward Weighting [48.87957020168614]
マルチリワード学習における以前の研究は、通常、固定重み付き線形スカラー化を使用しており、効果的なオンライン学習を捉えることができない。
目的整合性を高めるための2つのアプローチ、オンライン学習のためのもの、宇宙探査のためのものを紹介する。
論文 参考訳(メタデータ) (2025-09-14T21:56:35Z) - Subject or Style: Adaptive and Training-Free Mixture of LoRAs [3.8443430569753025]
EST-LoRAは、トレーニングレス適応型LoRA融合法である。
行列のアンダーラインエナジー、アンダーラインスタイルの離散性スコア、アンダーラインタイムステップの3つの重要な要素について考察する。
定性評価と定量的評価の両方において最先端の手法より優れている。
論文 参考訳(メタデータ) (2025-08-04T08:05:18Z) - ROCM: RLHF on consistency models [8.905375742101707]
一貫性モデルにRLHFを適用するための報酬最適化フレームワークを提案する。
正規化戦略として様々な$f$-divergencesを調査し、報酬とモデルの一貫性のバランスを崩す。
論文 参考訳(メタデータ) (2025-03-08T11:19:48Z) - SD-LoRA: Scalable Decoupled Low-Rank Adaptation for Class Incremental Learning [73.93639228235622]
基礎モデルによる継続的な学習は、シーケンシャルなタスクに取り組むための事前トレーニング中に得られた豊富な知識を活用するための有望なパラダイムとして現れてきた。
既存のプロンプトベースおよびローランク適応ベース(LoRAベース)メソッドでは、プロンプト/ローラプールの拡張や、以前のタスクのサンプルの保持がしばしば必要である。
クラスインクリメンタル学習のためのスケーラブルデカップリングLoRA(SD-LoRA)を提案する。
論文 参考訳(メタデータ) (2025-01-22T20:00:41Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。