論文の概要: LoRAverse: A Submodular Framework to Retrieve Diverse Adapters for Diffusion Models
- arxiv url: http://arxiv.org/abs/2510.15022v1
- Date: Thu, 16 Oct 2025 17:59:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-20 20:17:34.330242
- Title: LoRAverse: A Submodular Framework to Retrieve Diverse Adapters for Diffusion Models
- Title(参考訳): Loraverse: 拡散モデルのための分散アダプタを検索するためのサブモジュールフレームワーク
- Authors: Mert Sonmezer, Matthew Zheng, Pinar Yanardag,
- Abstract要約: 低ランク適応(LoRA)モデルは、事前訓練された拡散モデルのパーソナライズに革命をもたらした。
Civit.aiのようなプラットフォームで100万以上のLoRAアダプタが利用可能であるにもかかわらず、ユーザはナビゲート、セレクション、そして最も適したアダプタを効果的に活用するという課題に直面している。
- 参考スコア(独自算出の注目度): 10.732709225098342
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Low-rank Adaptation (LoRA) models have revolutionized the personalization of pre-trained diffusion models by enabling fine-tuning through low-rank, factorized weight matrices specifically optimized for attention layers. These models facilitate the generation of highly customized content across a variety of objects, individuals, and artistic styles without the need for extensive retraining. Despite the availability of over 100K LoRA adapters on platforms like Civit.ai, users often face challenges in navigating, selecting, and effectively utilizing the most suitable adapters due to their sheer volume, diversity, and lack of structured organization. This paper addresses the problem of selecting the most relevant and diverse LoRA models from this vast database by framing the task as a combinatorial optimization problem and proposing a novel submodular framework. Our quantitative and qualitative experiments demonstrate that our method generates diverse outputs across a wide range of domains.
- Abstract(参考訳): 低ランク適応(LoRA)モデルは、注意層に特異的に最適化された低ランクの係数化重み行列を通して微調整を行うことにより、事前訓練された拡散モデルのパーソナライズに革命をもたらした。
これらのモデルは、広範囲なリトレーニングを必要とせずに、さまざまなオブジェクト、個人、芸術スタイルにまたがる高度にカスタマイズされたコンテンツの生成を促進する。
Civit.aiのようなプラットフォームで100万以上のLoRAアダプタが利用可能であるにもかかわらず、ユーザはその量、多様性、構造化された組織の欠如により、最も適切なアダプタをナビゲートし、選択し、効果的に活用するという課題に直面している。
本稿では、この膨大なデータベースから最も関連性があり多様なLoRAモデルを選択する際に、タスクを組合せ最適化問題としてフレーミングし、新しいサブモジュラーフレームワークを提案する。
定量的および定性的な実験により,本手法は幅広い領域にまたがって多様な出力を生成することを示した。
関連論文リスト
- LoRA-X: Bridging Foundation Models with Training-Free Cross-Model Adaptation [48.22550575107633]
新しいアダプタであるCross-Model Low-Rank Adaptation (LoRA-X)は、ソースモデルとターゲットモデル間のLoRAパラメータのトレーニング不要転送を可能にする。
本実験は,テキスト・ツー・イメージ生成におけるLoRA-Xの有効性を示す。
論文 参考訳(メタデータ) (2025-01-27T23:02:24Z) - AutoLoRA: AutoGuidance Meets Low-Rank Adaptation for Diffusion Models [0.9514837871243403]
低ランク適応(LoRA)は条件付き生成拡散モデルに適用できる微調整技術である。
本稿では,LoRAアプローチを微調整した拡散モデルのための新しいガイダンス手法であるAutoLoRAを紹介する。
論文 参考訳(メタデータ) (2024-10-04T21:57:11Z) - Lifelong Personalized Low-Rank Adaptation of Large Language Models for Recommendation [50.837277466987345]
我々は、推奨のために大規模言語モデル(LLM)の分野に焦点を当てる。
ユーザ毎に独立したLoRAを管理するPersonalized LoRAモジュールを組み込んだRecLoRAを提案する。
また、Few2Many Learning Strategyを設計し、従来のレコメンデーションモデルをレンズとして使用して、小さなトレーニングスペースをフルスペースに拡大する。
論文 参考訳(メタデータ) (2024-08-07T04:20:28Z) - Restore Anything Model via Efficient Degradation Adaptation [129.38475243424563]
RAMは、様々な劣化にまたがる固有の類似性を活用して、効率的で包括的な復元を可能にする統一された経路を取る。
RAMのSOTA性能はRAMのSOTA性能を確認し、トレーニング可能なパラメータで約82%、FLOPで約85%のモデルの複雑さを減少させる。
論文 参考訳(メタデータ) (2024-07-18T10:26:53Z) - AdaMoLE: Fine-Tuning Large Language Models with Adaptive Mixture of Low-Rank Adaptation Experts [0.0]
本稿では,Lank Adaptation ExpertsのAdaptive Mixtureを通じて,大規模言語モデル(LLM)を微調整する新しい手法であるAdaMoLEを紹介する。
AdaMoLEは専用のしきい値ネットワークを使用してアクティベーション閾値を動的に調整し、異なるタスクの複雑さに応じて適応的に応答する。
論文 参考訳(メタデータ) (2024-05-01T07:33:43Z) - SuperLoRA: Parameter-Efficient Unified Adaptation of Multi-Layer Attention Modules [17.740045491119147]
低ランク適応(LoRA)とその変種は、微調整された大型モデルに広く用いられている。
SuperLoRAは、他のLoRA亜種と比較して高い柔軟性を提供し、転送学習タスクに優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2024-03-18T15:40:36Z) - Rewards-in-Context: Multi-objective Alignment of Foundation Models with Dynamic Preference Adjustment [46.44464839353993]
リワード・イン・コンテキスト(Rewards-in-Context, RiC)を導入する。
RiCは単一のファンデーションモデルの教師付き微調整のみを必要とし、推論時間中にユーザの好みを動的に調整する。
論文 参考訳(メタデータ) (2024-02-15T18:58:31Z) - Fast Adaptation with Bradley-Terry Preference Models in Text-To-Image
Classification and Generation [0.0]
我々はBradley-Terry選好モデルを利用して、元のモデルを効率的に微調整する高速適応法を開発した。
このフレームワークの能力の広範な証拠は、マルチモーダルテキストや画像理解に関連するさまざまな領域の実験を通じて提供される。
論文 参考訳(メタデータ) (2023-07-15T07:53:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。