論文の概要: Manifold-Aligned Generative Transport
- arxiv url: http://arxiv.org/abs/2602.19600v1
- Date: Mon, 23 Feb 2026 08:42:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-24 17:42:02.730791
- Title: Manifold-Aligned Generative Transport
- Title(参考訳): マニフォールドアライメント・ジェネレーティブ・トランスポート
- Authors: Xinyu Tian, Xiaotong Shen,
- Abstract要約: 本稿では,低次元の基底分布からデータ空間への1ショットの多様体整列輸送を学習するフローライクな生成器を提案する。
我々は,拡散モデルよりもかなり高速なサンプリングを行いながら,合成データセットとベンチマークデータセット間での忠実度と多様体濃度を実証的に改善した。
- 参考スコア(独自算出の注目度): 11.857867207010981
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: High-dimensional generative modeling is fundamentally a manifold-learning problem: real data concentrate near a low-dimensional structure embedded in the ambient space. Effective generators must therefore balance support fidelity -- placing probability mass near the data manifold -- with sampling efficiency. Diffusion models often capture near-manifold structure but require many iterative denoising steps and can leak off-support; normalizing flows sample in one pass but are limited by invertibility and dimension preservation. We propose MAGT (Manifold-Aligned Generative Transport), a flow-like generator that learns a one-shot, manifold-aligned transport from a low-dimensional base distribution to the data space. Training is performed at a fixed Gaussian smoothing level, where the score is well-defined and numerically stable. We approximate this fixed-level score using a finite set of latent anchor points with self-normalized importance sampling, yielding a tractable objective. MAGT samples in a single forward pass, concentrates probability near the learned support, and induces an intrinsic density with respect to the manifold volume measure, enabling principled likelihood evaluation for generated samples. We establish finite-sample Wasserstein bounds linking smoothing level and score-approximation accuracy to generative fidelity, and empirically improve fidelity and manifold concentration across synthetic and benchmark datasets while sampling substantially faster than diffusion models.
- Abstract(参考訳): 高次元生成モデリングは基本的に多様体学習問題であり、実データは周囲空間に埋め込まれた低次元構造の近くに集中する。
したがって、効率的なジェネレータは、データ多様体の近くに確率質量を置く、サポートの忠実さとサンプリング効率のバランスをとる必要がある。
拡散モデルは、しばしば近接多様体構造を捉えるが、多くの反復的な復調ステップを必要とし、オフサポートをリークすることができる。
本稿では,低次元の基底分布からデータ空間への1ショットの多様体整列輸送を学習する流れ型ジェネレータであるMAGTを提案する。
トレーニングはガウスの平滑化レベルにおいて行われ、スコアは適切に定義され、数値的に安定である。
我々は、この固定レベルスコアを、自己正規化重要度サンプリングによる有限列の潜伏アンカーポイントを用いて近似し、トラクタブルな目的を導出する。
MAGTサンプルを1つの前方通過でサンプリングし、学習した支持点付近で確率を集中し、多様体体積測定に関する本質的な密度を誘導し、生成したサンプルの原理的確率評価を可能にする。
有限サンプルワッサースタイン境界をスムース化レベルとスコア近似精度を生成忠実度にリンクさせ, 合成およびベンチマークデータセット間での忠実度と多様体濃度を実験的に改善し, 拡散モデルよりもかなり高速にサンプリングする。
関連論文リスト
- Efficient Sampling with Discrete Diffusion Models: Sharp and Adaptive Guarantees [9.180350432640912]
連続時間マルコフ連鎖(CTMC)の定式化によるスコアベース離散拡散モデルのサンプリング効率について検討した。
一様離散拡散に対して、$$-leapingアルゴリズムは位数$tilde O(d/varepsilon)$の複雑さを達成することを示す。
離散拡散をマスキングするために,本質的な情報理論量によって収束率を制御した$$-leapingサンプルラを導入する。
論文 参考訳(メタデータ) (2026-02-16T18:48:17Z) - Diffusion Model-Based Posterior Sampling in Full Waveform Inversion [3.2800968305157205]
観測記録の後方サンプリングは フィールドスケールでは めったに実用的ではない
提案手法は,拡散型後方サンプリングと同時音源波形インバージョンデータを組み合わせた手法である。
提案手法は, モデル誤差の低減と, 計算コストの大幅な削減を実現する。
論文 参考訳(メタデータ) (2025-12-14T18:34:12Z) - Multimodal Atmospheric Super-Resolution With Deep Generative Models [1.9367648935513015]
スコアベース拡散モデリング(Score-based diffusion modeling)は、複雑な分布からサンプリングできる生成機械学習アルゴリズムである。
本稿では,高次元力学系の超解像にそのような概念を適用し,低分解能および実験的に観察されたスパースセンサ測定のリアルタイム利用性を考える。
論文 参考訳(メタデータ) (2025-06-28T06:47:09Z) - On the Wasserstein Convergence and Straightness of Rectified Flow [54.580605276017096]
Rectified Flow (RF) は、ノイズからデータへの直流軌跡の学習を目的とした生成モデルである。
RFのサンプリング分布とターゲット分布とのワッサーシュタイン距離に関する理論的解析を行った。
本稿では,従来の経験的知見と一致した1-RFの特異性と直線性を保証する一般的な条件について述べる。
論文 参考訳(メタデータ) (2024-10-19T02:36:11Z) - Convergence of Score-Based Discrete Diffusion Models: A Discrete-Time Analysis [56.442307356162864]
連続時間マルコフ連鎖(CTMC)に基づくスコアベース離散拡散モデルの理論的側面について検討する。
本稿では,事前定義された時間点におけるスコア推定値を利用する離散時間サンプリングアルゴリズムを一般状態空間$[S]d$に導入する。
我々の収束解析はジルサノフ法を用いて離散スコア関数の重要な性質を確立する。
論文 参考訳(メタデータ) (2024-10-03T09:07:13Z) - Boosting Diffusion Models with Moving Average Sampling in Frequency Domain [101.43824674873508]
拡散モデルは、現在のサンプルに頼って次のサンプルをノイズ化し、おそらく不安定化を引き起こす。
本稿では,反復的復調過程をモデル最適化として再解釈し,移動平均機構を利用して全ての先行サンプルをアンサンブルする。
周波数領域における平均サンプリング(MASF)の動作」という完全なアプローチを命名する。
論文 参考訳(メタデータ) (2024-03-26T16:57:55Z) - Score-based generative models learn manifold-like structures with
constrained mixing [2.843124313496295]
スコアベース生成モデルは低次元多様体上でのデータ分布をどうやって学習するか?
本研究では, 局所特徴ベクトルによる線形近似と部分空間を用いて, 訓練されたSBMのスコアモデルについて検討する。
学習されたベクトル場は、多様体内の非保存的場によってサンプルを混合するが、非多様体方向のエネルギー関数が存在するかのように通常の射影と調和する。
論文 参考訳(メタデータ) (2023-11-16T15:15:15Z) - Diffusion Generative Flow Samplers: Improving learning signals through
partial trajectory optimization [87.21285093582446]
Diffusion Generative Flow Samplers (DGFS) はサンプルベースのフレームワークであり、学習プロセスを短い部分的軌道セグメントに分解することができる。
生成フローネットワーク(GFlowNets)のための理論から着想を得た。
論文 参考訳(メタデータ) (2023-10-04T09:39:05Z) - ManiFlow: Implicitly Representing Manifolds with Normalizing Flows [145.9820993054072]
正規化フロー(NF)は、複雑な実世界のデータ分布を正確にモデル化することが示されているフレキシブルな明示的な生成モデルである。
摂動分布から標本を与えられた多様体上の最も可能性の高い点を復元する最適化目的を提案する。
最後に、NFsの明示的な性質、すなわち、ログのような勾配とログのような勾配から抽出された表面正規化を利用する3次元点雲に焦点を当てる。
論文 参考訳(メタデータ) (2022-08-18T16:07:59Z) - Nonlinear Isometric Manifold Learning for Injective Normalizing Flows [58.720142291102135]
アイソメトリーを用いて、多様体学習と密度推定を分離する。
また、確率分布を歪ませない明示的な逆数を持つ埋め込みを設計するためにオートエンコーダを用いる。
論文 参考訳(メタデータ) (2022-03-08T08:57:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。