論文の概要: ChimeraLoRA: Multi-Head LoRA-Guided Synthetic Datasets
- arxiv url: http://arxiv.org/abs/2602.19708v1
- Date: Mon, 23 Feb 2026 10:59:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.778507
- Title: ChimeraLoRA: Multi-Head LoRA-Guided Synthetic Datasets
- Title(参考訳): ChimeraLoRA:マルチヘッドのLoRA-Guided Synthetic Dataset
- Authors: Hoyoung Kim, Minwoo Jang, Jabin Koo, Sangdoo Yun, Jungseul Ok,
- Abstract要約: そこで我々は,数ショットの実集合で訓練されたクラスワイズLoRAを提案し,追加の画像を合成する。
多様なデータセットにまたがって、我々の合成画像は多様かつ詳細に富みながら、数発の実際の分布と密接に一致している。
- 参考スコア(独自算出の注目度): 48.20200154292035
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Beyond general recognition tasks, specialized domains including privacy-constrained medical applications and fine-grained settings often encounter data scarcity, especially for tail classes. To obtain less biased and more reliable models under such scarcity, practitioners leverage diffusion models to supplement underrepresented regions of real data. Specifically, recent studies fine-tune pretrained diffusion models with LoRA on few-shot real sets to synthesize additional images. While an image-wise LoRA trained on a single image captures fine-grained details yet offers limited diversity, a class-wise LoRA trained over all shots produces diverse images as it encodes class priors yet tends to overlook fine details. To combine both benefits, we separate the adapter into a class-shared LoRA~$A$ for class priors and per-image LoRAs~$\mathcal{B}$ for image-specific characteristics. To expose coherent class semantics in the shared LoRA~$A$, we propose a semantic boosting by preserving class bounding boxes during training. For generation, we compose $A$ with a mixture of $\mathcal{B}$ using coefficients drawn from a Dirichlet distribution. Across diverse datasets, our synthesized images are both diverse and detail-rich while closely aligning with the few-shot real distribution, yielding robust gains in downstream classification accuracy.
- Abstract(参考訳): 一般的な認識タスク以外にも、プライバシに制約のある医療アプリケーションや細かい設定を含む特殊なドメインは、特に尾クラスのデータ不足に遭遇することが多い。
このような希少さの下でバイアスが少なく信頼性の高いモデルを得るために、実践者は拡散モデルを利用して実際のデータの未表現領域を補う。
特に、最近の研究では、LoRAによる微調整された拡散モデルが、追加の画像を合成するために、数ショットの実集合上で行われている。
イメージワイドのLoRAは、単一のイメージでトレーニングされた画像は、きめ細かい詳細をキャプチャするが、多様性は限定されているが、すべてのショットで訓練されたクラスワイドのLoRAは、クラスオーディエンスをエンコードするが、詳細を見落としてしまう傾向があるため、多様な画像を生成する。
両方の利点を組み合わせるために、私たちは、クラスが共有するLoRA~$A$のクラスとイメージごとのLoRAs~$\mathcal{B}$のイメージ固有の特性にアダプタを分離します。
共有LoRA~$A$でコヒーレントなクラスセマンティクスを公開するために,トレーニング中にクラス境界ボックスを保存することでセマンティクスの強化を提案する。
生成には、ディリクレ分布から引き出された係数を用いて$A$と$\mathcal{B}$を混合する。
多様なデータセット全体にわたって、我々の合成画像は多様かつ詳細に富んでいるが、数発の実際の分布と密に一致しており、下流の分類精度が向上する。
関連論文リスト
- LoFT: LoRA-fused Training Dataset Generation with Few-shot Guidance [96.6544564242316]
本稿では,Few-shot Guidanceを用いたLoRA-Fused Training-data Generationという新しいデータセット生成フレームワークを提案する。
提案手法は,個々の実画像にLoRA重みを微調整し,推定時に融合させ,実画像の特徴を組み合わせた合成画像を生成し,データの多様性と忠実度を向上させる。
実験の結果,LoFT生成データに対するトレーニングは,他の合成データセット法より一貫して優れており,データセットのサイズが大きくなるにつれて精度が著しく向上することがわかった。
論文 参考訳(メタデータ) (2025-05-16T21:17:55Z) - Cached Multi-Lora Composition for Multi-Concept Image Generation [10.433033595844442]
Low-Rank Adaptation (LoRA) はテキスト・ツー・イメージ・モデルにおいて広く採用されている手法である。
現在のアプローチでは、マルチコンセプト画像生成のためにこれらのLoRAを構成する際に大きな課題に直面している。
我々は,複数のLoRAを効率的に統合するために設計された,新しいトレーニングフリーフレームワークであるCached Multi-LoRA(CMLoRA)を紹介した。
論文 参考訳(メタデータ) (2025-02-07T13:41:51Z) - A LoRA is Worth a Thousand Pictures [28.928964530616593]
低ランク適応(LoRA)は、最小限のデータと計算を用いてアーティストのスタイルや主題を再現することができる。
画像生成やトレーニングセットの知識を必要とせずに,LoRA重みだけで効果的なスタイル記述子として機能することを示す。
ゼロショットLORAファインチューニングやモデル属性など,将来的な応用の可能性について論じる。
論文 参考訳(メタデータ) (2024-12-16T18:18:17Z) - LoRA of Change: Learning to Generate LoRA for the Editing Instruction from A Single Before-After Image Pair [116.48684498656871]
視覚的指示を用いた画像編集のためのLoRA of Change (LoC) フレームワークを提案する。
我々は、命令固有のLoRAを学習し、事前のイメージペアで「変更」を符号化し、モデルの解釈可能性と再利用性を高める。
本モデルでは,ユーザ意図に整合した高品質な画像を生成し,現実世界の視覚的指示の幅広い範囲をサポートする。
論文 参考訳(メタデータ) (2024-11-28T13:55:06Z) - Contrastive Test-Time Composition of Multiple LoRA Models for Image Generation [44.037664077117945]
Low-Rank Adaptation (LoRA) はパーソナライズのための強力でポピュラーなテクニックとして登場した。
既存の手法は、異なるLoRAモデル内の注意機構が重なり合うため、しばしば不足する。
テスト時に複数のLoRAモデルのアテンションマップを更新することで,これらの制限に対処する,トレーニング不要なアプローチであるCLoRAを導入する。
論文 参考訳(メタデータ) (2024-03-28T18:58:43Z) - Multi-LoRA Composition for Image Generation [107.83002438126832]
復号化中心の観点から,マルチロラ合成について検討する。
我々は,各聴覚ステップで異なるLoRAを交互に切り替えるLoRA Switchと,より密着的な画像合成を導くためにすべてのLoRAを同時に組み込むLoRA Compositeの2つのトレーニングフリー手法を提案する。
論文 参考訳(メタデータ) (2024-02-26T18:59:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。