論文の概要: LoFA: Learning to Predict Personalized Priors for Fast Adaptation of Visual Generative Models
- arxiv url: http://arxiv.org/abs/2512.08785v1
- Date: Tue, 09 Dec 2025 16:39:31 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-10 22:28:08.049616
- Title: LoFA: Learning to Predict Personalized Priors for Fast Adaptation of Visual Generative Models
- Title(参考訳): LoFA: ビジュアル生成モデルの高速適応のために、パーソナライズされた優先順位を予測することを学ぶ
- Authors: Yiming Hao, Mutian Xu, Chongjie Ye, Jie Qin, Shunlin Lu, Yipeng Qin, Xiaoguang Han,
- Abstract要約: Low-Rank Adaptation (LoRA) は、タスク固有のデータと長い最適化の要求のため、実用的ではない。
高速モデル適応のためのパーソナライズされた事前情報を効率的に予測する汎用フレームワークであるLoFAを提案する。
提案手法は,複数のタスクやユーザプロンプトにまたがる,数秒以内の高品質なパーソナライズ前処理を常に予測し,処理時間を要する従来のLoRAよりも優れています。
- 参考スコア(独自算出の注目度): 50.46815266062554
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Personalizing visual generative models to meet specific user needs has gained increasing attention, yet current methods like Low-Rank Adaptation (LoRA) remain impractical due to their demand for task-specific data and lengthy optimization. While a few hypernetwork-based approaches attempt to predict adaptation weights directly, they struggle to map fine-grained user prompts to complex LoRA distributions, limiting their practical applicability. To bridge this gap, we propose LoFA, a general framework that efficiently predicts personalized priors for fast model adaptation. We first identify a key property of LoRA: structured distribution patterns emerge in the relative changes between LoRA and base model parameters. Building on this, we design a two-stage hypernetwork: first predicting relative distribution patterns that capture key adaptation regions, then using these to guide final LoRA weight prediction. Extensive experiments demonstrate that our method consistently predicts high-quality personalized priors within seconds, across multiple tasks and user prompts, even outperforming conventional LoRA that requires hours of processing. Project page: https://jaeger416.github.io/lofa/.
- Abstract(参考訳): 特定のユーザのニーズを満たすために視覚生成モデルをパーソナライズすることは注目されているが、タスク固有のデータと長い最適化の要求により、LoRA(Lo-Rank Adaptation)のような現在の手法は実用的ではない。
いくつかのハイパーネットワークベースのアプローチは、適応重みを直接予測しようとするが、複雑なLORA分布にきめ細かいユーザープロンプトをマッピングするのに苦労し、実用性を制限する。
このギャップを埋めるために、高速モデル適応のためのパーソナライズされた事前を効率的に予測する一般的なフレームワークであるLoFAを提案する。
構造分布パターンは,LoRAとベースモデルパラメータの相対的変化に現れる。
これに基づいて、2段階のハイパーネットワークを設計し、まず鍵適応領域を捕捉する相対分布パターンを予測し、次にこれらを用いて最終LoRA重み予測を導出する。
複数のタスクやユーザプロンプトにまたがって,高品質なパーソナライズされた前処理を数秒で常に予測し,処理時間を要する従来のLoRAよりも優れています。
プロジェクトページ: https://jaeger416.github.io/lofa/。
関連論文リスト
- GLAD: Generalizable Tuning for Vision-Language Models [41.071911050087586]
GLAD (Generalizable LoRA tuning with RegulArized GraDient) という,よりシンプルで汎用的なフレームワークを提案する。
我々は,LoRAを適用するだけで,現在の最先端のプロンプトベースの手法に匹敵するダウンストリームタスクのパフォーマンスが得られることを示す。
論文 参考訳(メタデータ) (2025-07-17T12:58:15Z) - T-LoRA: Single Image Diffusion Model Customization Without Overfitting [2.424910201171407]
本稿では,単一の概念イメージを用いて拡散モデルを適用する上で,最も困難な課題に対処する。
拡散モデルパーソナライズに特化したタイムステップ依存型低ランク適応フレームワークであるT-LoRAを紹介する。
高い拡散時間ステップは、低い時間ステップよりも過度に適合する傾向を示し、時間ステップに敏感な微調整戦略を必要とする。
論文 参考訳(メタデータ) (2025-07-08T13:14:10Z) - Mixture of Low Rank Adaptation with Partial Parameter Sharing for Time Series Forecasting [20.505925622104964]
マルチタスク予測は,異なる時間ステップでの予測が同じ表現を共有する,Expressiveness Bottleneckに苦しむことを示す。
まず,一歩先予測のための基礎モデルを事前学習し,ステップ固有のLoRAモジュールを用いて適応する。
実験により、MoLAはモデル表現性を著しく改善し、最先端の時系列予測手法より優れていることが示された。
論文 参考訳(メタデータ) (2025-05-23T13:24:39Z) - SD-LoRA: Scalable Decoupled Low-Rank Adaptation for Class Incremental Learning [73.93639228235622]
基礎モデルによる継続的な学習は、シーケンシャルなタスクに取り組むための事前トレーニング中に得られた豊富な知識を活用するための有望なパラダイムとして現れてきた。
既存のプロンプトベースおよびローランク適応ベース(LoRAベース)メソッドでは、プロンプト/ローラプールの拡張や、以前のタスクのサンプルの保持がしばしば必要である。
クラスインクリメンタル学習のためのスケーラブルデカップリングLoRA(SD-LoRA)を提案する。
論文 参考訳(メタデータ) (2025-01-22T20:00:41Z) - Test-Time Alignment via Hypothesis Reweighting [56.71167047381817]
大規模な事前訓練されたモデルは、しばしば未指定のタスクで苦労する。
テストタイムのユーザ意図にモデルを整合させるという課題に対処する新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2024-12-11T23:02:26Z) - LoRA Diffusion: Zero-Shot LoRA Synthesis for Diffusion Model Personalization [0.0]
Low-Rank Adaptation (LoRA) や他のパラメータ効率のよい微細チューニング (PEFT) 手法は、テキスト・ツー・イメージ・モデルをパーソナライズするための低メモリ、ストレージ効率のソリューションを提供する。
ハイパーネットワークモデルをトレーニングしてLoRA重みを生成することで、特定のドメインに対する競合品質を実現することができることを示す。
論文 参考訳(メタデータ) (2024-12-03T10:17:15Z) - Unlocking Tuning-Free Few-Shot Adaptability in Visual Foundation Models by Recycling Pre-Tuned LoRAs [76.40876036912537]
大規模言語モデル(LLM)は、微調整を必要とせず、強力な少数ショット適応性を示す。
現在のVisual Foundation Models (VFM) は十分なチューニングデータを持つ明示的な微調整を必要とする。
そこで我々は, メタ学習目的の多様なLoRAからメタLoRAを蒸留するフレームワークであるLoRA Recycleを提案する。
論文 参考訳(メタデータ) (2024-12-03T07:25:30Z) - Lifelong Personalized Low-Rank Adaptation of Large Language Models for Recommendation [50.837277466987345]
我々は、推奨のために大規模言語モデル(LLM)の分野に焦点を当てる。
ユーザ毎に独立したLoRAを管理するPersonalized LoRAモジュールを組み込んだRecLoRAを提案する。
また、Few2Many Learning Strategyを設計し、従来のレコメンデーションモデルをレンズとして使用して、小さなトレーニングスペースをフルスペースに拡大する。
論文 参考訳(メタデータ) (2024-08-07T04:20:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。