論文の概要: FreeLoRA: Enabling Training-Free LoRA Fusion for Autoregressive Multi-Subject Personalization
- arxiv url: http://arxiv.org/abs/2507.01792v1
- Date: Wed, 02 Jul 2025 15:16:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:23:00.346572
- Title: FreeLoRA: Enabling Training-Free LoRA Fusion for Autoregressive Multi-Subject Personalization
- Title(参考訳): FreeLoRA: 自己回帰型マルチオブジェクトパーソナライゼーションのためのトレーニングフリーのLoRAフュージョン
- Authors: Peng Zheng, Ye Wang, Rui Ma, Zuxuan Wu,
- Abstract要約: FreeLoRAは、マルチオブジェクトパーソナライズのための主題固有のLoRAモジュールのトレーニング不要な融合を可能にする。
実験の結果,FreeLoRAは主観的忠実度と即効性の両方において高い性能を発揮することがわかった。
- 参考スコア(独自算出の注目度): 39.50687410991598
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Subject-driven image generation plays a crucial role in applications such as virtual try-on and poster design. Existing approaches typically fine-tune pretrained generative models or apply LoRA-based adaptations for individual subjects. However, these methods struggle with multi-subject personalization, as combining independently adapted modules often requires complex re-tuning or joint optimization. We present FreeLoRA, a simple and generalizable framework that enables training-free fusion of subject-specific LoRA modules for multi-subject personalization. Each LoRA module is adapted on a few images of a specific subject using a Full Token Tuning strategy, where it is applied across all tokens in the prompt to encourage weakly supervised token-content alignment. At inference, we adopt Subject-Aware Inference, activating each module only on its corresponding subject tokens. This enables training-free fusion of multiple personalized subjects within a single image, while mitigating overfitting and mutual interference between subjects. Extensive experiments show that FreeLoRA achieves strong performance in both subject fidelity and prompt consistency.
- Abstract(参考訳): 仮想トライオンやポスターデザインといったアプリケーションでは,被験者駆動の画像生成が重要な役割を担っている。
既存のアプローチは、通常、微調整された事前学習された生成モデル、またはLoRAベースの適応を個々の被験者に適用する。
しかし、これらの手法は多目的パーソナライズに苦慮しており、独立に適応したモジュールを組み合わせるには複雑な再調整や共同最適化が必要となることが多い。
マルチオブジェクトパーソナライズのためのトレーニング不要なLoRAモジュールの融合を可能にする,シンプルで一般化可能なフレームワークであるFreeLoRAを提案する。
各LoRAモジュールは、Full Token Tuningストラテジーを使用して、特定の対象のいくつかのイメージに適応する。
推論では、各モジュールを対応する主題トークンにのみアクティベートする。
これにより、複数のパーソナライズされた被験者を1つの画像内に無訓練で融合させ、オーバーフィットや相互干渉を軽減できる。
広範囲な実験により、FreeLoRAは主観的忠実度と即効性の両方において高い性能を発揮することが示された。
関連論文リスト
- MultLFG: Training-free Multi-LoRA composition using Frequency-domain Guidance [44.4839416120775]
MultLFGは、トレーニング不要なマルチLORA合成のためのフレームワークである。
複数のLoRAの適応的な融合を実現するために周波数領域誘導を使用する。
様々なスタイルやコンセプトセットにまたがって、作曲の忠実さと画質を大幅に向上させる。
論文 参考訳(メタデータ) (2025-05-26T21:05:28Z) - MUSAR: Exploring Multi-Subject Customization from Single-Subject Dataset via Attention Routing [14.88610127301938]
MUSARは、シングルオブジェクトのトレーニングデータのみを必要としながら、堅牢なマルチオブジェクトのカスタマイズを実現するためのフレームワークである。
シングルオブジェクト画像からディップチッチトレーニングペアを構築し、マルチオブジェクト学習を容易にするとともに、ディップチッチ構築によって導入された分布バイアスを積極的に補正する。
実験によると、MUSARは既存のメソッドよりも優れています。
論文 参考訳(メタデータ) (2025-05-05T17:50:24Z) - Each Rank Could be an Expert: Single-Ranked Mixture of Experts LoRA for Multi-Task Learning [53.053604713064544]
Low-Rank Adaptation (LoRA)は、その効率性とモジュール性から、大きな言語モデル(LLM)を特定のドメインに適用するために広く使われている。
最近の研究は、各LoRAモジュールを専門家として扱い、複数の特殊なLoRAモジュールによるタスク干渉を軽減することで、Mixture of Experts (MoE)を採用している。
効果はあるものの、これらの手法は個々のタスク内の知識を分離することが多く、関連するタスク間で共有された知識を完全に活用することができない。
各ランクをテキスト処理することでMoEをLoRAに埋め込むシングルランク専門家LoRA(textbfSMoRA)を提案する。
論文 参考訳(メタデータ) (2025-01-25T06:56:39Z) - LoRACLR: Contrastive Adaptation for Customization of Diffusion Models [62.70911549650579]
LoRACLRは、複数のLoRAモデルを単一の統一モデルにマージする、マルチコンセプト画像生成の新しいアプローチである。
LoRACLRは、これらのモデルの重み空間を整列し、マージするために対照的な目的を使い、干渉を最小限にしながら互換性を確保する。
本結果は,複数の概念を正確にマージし,パーソナライズされた画像生成能力を向上する上で,LoRACLRの有効性を強調した。
論文 参考訳(メタデータ) (2024-12-12T18:59:55Z) - Closed-form merging of parameter-efficient modules for Federated Continual Learning [9.940242741914748]
一度に1つのLoRA行列をトレーニングする交代最適化戦略であるLoRMを導入する。
提案手法をFCIL(Federated Class-Incremental Learning)に適用する。
本手法は,さまざまなFCILシナリオにおける最先端性能を示す。
論文 参考訳(メタデータ) (2024-10-23T15:30:13Z) - LoRA-Composer: Leveraging Low-Rank Adaptation for Multi-Concept Customization in Training-Free Diffusion Models [33.379758040084894]
ドメイン内の課題として、マルチコンセプトのカスタマイズが登場します。
既存のアプローチでは、複数のローランド適応(LoRA)の融合行列をトレーニングして、さまざまな概念をひとつのイメージにマージすることが多い。
LoRA-Composerは、複数のLoRAをシームレスに統合するために設計されたトレーニング不要のフレームワークである。
論文 参考訳(メタデータ) (2024-03-18T09:58:52Z) - Mixture-of-LoRAs: An Efficient Multitask Tuning for Large Language
Models [7.966452497550907]
大規模言語モデル(LLM)を用いたマルチタスク学習のためのMixture-of-LoRA(MoA)アーキテクチャを提案する。
複数のドメイン固有のLoRAモジュールは、Mixture-of-Experts(MoE)で観察される専門家設計原則と一致させることができる。
各LoRAモデルは、新しいドメインに反復的に適応することができ、素早くドメイン固有の適応を可能にする。
論文 参考訳(メタデータ) (2024-03-06T03:33:48Z) - Multimodal Instruction Tuning with Conditional Mixture of LoRA [51.58020580970644]
本稿では,Low-Rank Adaption (LoRA) とマルチモーダル命令チューニングを統合した新しい手法を提案する。
各入力インスタンスのユニークな要求に合わせた低ランク適応行列を動的に構築することで、LoRAを革新する。
様々なマルチモーダル評価データセットの実験結果から、MixLoRAは従来のLoRAを同等以上のランクで上回るだけでなく、性能も向上していることが示された。
論文 参考訳(メタデータ) (2024-02-24T20:15:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。