論文の概要: Latent Iterative Refinement Flow: A Geometric-Constrained Approach for Few-Shot Generation
- arxiv url: http://arxiv.org/abs/2509.19903v1
- Date: Wed, 24 Sep 2025 08:57:21 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-25 20:53:19.751057
- Title: Latent Iterative Refinement Flow: A Geometric-Constrained Approach for Few-Shot Generation
- Title(参考訳): 潜時反復リファインメントフロー:幾何的制約によるFew-Shot生成
- Authors: Songtao Li, Zhenyu Liao, Tianqi Hou, Ting Gao,
- Abstract要約: 少ショット生成に対する新しいアプローチであるLIRF(Latent Iterative Refinement Flow)を導入する。
LIRFは,新しいtextbfmanifold保存損失をトレーニングしたオートエンコーダを用いて,安定な潜伏空間を確立する。
このサイクルの中で、候補サンプルは幾何的テクスチャ補正演算子によって洗練される。
- 参考スコア(独自算出の注目度): 5.062604189239418
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Few-shot generation, the synthesis of high-quality and diverse samples from limited training data, remains a significant challenge in generative modeling. Existing methods trained from scratch often fail to overcome overfitting and mode collapse, and fine-tuning large models can inherit biases while neglecting the crucial geometric structure of the latent space. To address these limitations, we introduce Latent Iterative Refinement Flow (LIRF), a novel approach that reframes few-shot generation as the progressive densification of geometrically structured manifold. LIRF establishes a stable latent space using an autoencoder trained with our novel \textbf{manifold-preservation loss} $L_{\text{manifold}}$. This loss ensures that the latent space maintains the geometric and semantic correspondence of the input data. Building on this, we propose an iterative generate-correct-augment cycle. Within this cycle, candidate samples are refined by a geometric \textbf{correction operator}, a provably contractive mapping that pulls samples toward the data manifold while preserving diversity. We also provide the \textbf{Convergence Theorem} demonstrating a predictable decrease in Hausdorff distance between generated and true data manifold. We also demonstrate the framework's scalability by generating coherent, high-resolution images on AFHQ-Cat. Ablation studies confirm that both the manifold-preserving latent space and the contractive correction mechanism are critical components of this success. Ultimately, LIRF provides a solution for data-scarce generative modeling that is not only theoretically grounded but also highly effective in practice.
- Abstract(参考訳): 限られた訓練データから高品質で多様なサンプルを合成するショット生成は、生成モデルにおいて重要な課題である。
スクラッチから訓練された既存の方法は、オーバーフィットやモード崩壊を克服できないことが多く、微調整された大型モデルは、潜伏空間の重要な幾何学的構造を無視しながらバイアスを継承することができる。
これらの制約に対処するため、幾何学的に構造化された多様体のプログレッシブデンシフィケーションとして、少数ショット生成を再構成する新しいアプローチであるLatent Iterative Refinement Flow (LIRF)を導入する。
LIRFは、我々の小説 \textbf{manifold-preservation loss} $L_{\text{manifold}}$で訓練されたオートエンコーダを用いて安定な潜伏空間を確立する。
この損失は、潜在空間が入力データの幾何学的および意味的な対応を維持することを保証する。
これに基づいて, 繰り返し生成・修正・拡張サイクルを提案する。
このサイクルの中で、候補サンプルは幾何学的 \textbf{correction operator} によって洗練される。
また、生成したデータ多様体と真データ多様体の間のハウスドルフ距離の予測可能な減少を示す「textbf{Convergence Theorem」も提供する。
また、AFHQ-Cat上でコヒーレントで高解像度の画像を生成することにより、フレームワークのスケーラビリティを実証する。
アブレーション研究は、多様体保存潜在空間と収縮補正機構の両方がこの成功の重要な要素であることを確認した。
結局のところ、LIRFは理論上は基礎を成すだけでなく、実践的にも非常に効果的であるデータスカース生成モデリングのソリューションを提供する。
関連論文リスト
- On Probabilistic Pullback Metrics for Latent Hyperbolic Manifolds [5.724027955589408]
本稿では,階層的関係のモデル化に特に適した双曲的埋め込みについて述べる。
本稿では, LVM の非線形写像によって生じる歪みを考慮に入れた, プルバック計量による双曲多様体の拡張を提案する。
実験により, 引き戻し距離の測地学は双曲型潜在空間の幾何学を尊重するだけでなく, 基礎となるデータ分布と整合することを示した。
論文 参考訳(メタデータ) (2024-10-28T09:13:00Z) - From Semantics to Hierarchy: A Hybrid Euclidean-Tangent-Hyperbolic Space Model for Temporal Knowledge Graph Reasoning [1.1372536310854844]
時間的知識グラフ(TKG)推論は、過去のデータに基づいて将来の出来事を予測する。
既存のユークリッドモデルはセマンティクスを捉えるのに優れているが、階層構造に苦しむ。
ユークリッドモデルと双曲モデルの両方の強みを利用する新しいハイブリッド幾何空間アプローチを提案する。
論文 参考訳(メタデータ) (2024-08-30T10:33:08Z) - Complexity Matters: Rethinking the Latent Space for Generative Modeling [65.64763873078114]
生成的モデリングにおいて、多くの成功したアプローチは、例えば安定拡散のような低次元の潜在空間を利用する。
本研究では, モデル複雑性の観点から潜在空間を再考することにより, 未探索の話題に光を当てることを目的としている。
論文 参考訳(メタデータ) (2023-07-17T07:12:29Z) - Geometric Neural Diffusion Processes [55.891428654434634]
拡散モデルの枠組みを拡張して、無限次元モデリングに一連の幾何学的先行を組み込む。
これらの条件で、生成関数モデルが同じ対称性を持つことを示す。
論文 参考訳(メタデータ) (2023-07-11T16:51:38Z) - ChiroDiff: Modelling chirographic data with Diffusion Models [132.5223191478268]
チャーログラフィーデータのための強力なモデルクラスである「拡散確率モデル(Denoising Diffusion Probabilistic Models)」やDDPMを導入している。
我々のモデルは「ChiroDiff」と呼ばれ、非自己回帰的であり、全体論的概念を捉えることを学び、したがって高い時間的サンプリングレートに回復する。
論文 参考訳(メタデータ) (2023-04-07T15:17:48Z) - VTAE: Variational Transformer Autoencoder with Manifolds Learning [144.0546653941249]
深層生成モデルは、多くの潜伏変数を通して非線形データ分布の学習に成功している。
ジェネレータの非線形性は、潜在空間がデータ空間の不満足な射影を示し、表現学習が不十分になることを意味する。
本研究では、測地学と正確な計算により、深部生成モデルの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-04-03T13:13:19Z) - Few Shot Generative Model Adaption via Relaxed Spatial Structural
Alignment [130.84010267004803]
限られたデータでGAN(Generative Adversarial Network)を訓練することは難しい課題である。
実現可能な解決策は、大規模なソースドメインで十分に訓練されたGANから始め、ターゲットドメインにいくつかのサンプルで適応することである。
本研究では,適応時の対象生成モデルのキャリブレーションを行うための緩和された空間構造アライメント手法を提案する。
論文 参考訳(メタデータ) (2022-03-06T14:26:25Z) - GELATO: Geometrically Enriched Latent Model for Offline Reinforcement
Learning [54.291331971813364]
オフライン強化学習アプローチは、近近法と不確実性認識法に分けられる。
本研究では,この2つを潜在変動モデルに組み合わせることのメリットを実証する。
提案したメトリクスは、分布サンプルのアウトの品質と、データ内のサンプルの不一致の両方を測定します。
論文 参考訳(メタデータ) (2021-02-22T19:42:40Z) - Generative Model without Prior Distribution Matching [26.91643368299913]
変分オートエンコーダ(VAE)とその変分は、いくつかの先行分布を満たすために低次元の潜在表現を学習することによって古典的な生成モデルである。
我々は、先行変数に適合させるのではなく、先行変数が埋め込み分布と一致するように提案する。
論文 参考訳(メタデータ) (2020-09-23T09:33:24Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。