論文の概要: Riemannian AmbientFlow: Towards Simultaneous Manifold Learning and Generative Modeling from Corrupted Data
- arxiv url: http://arxiv.org/abs/2601.18728v1
- Date: Mon, 26 Jan 2026 17:51:52 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-27 15:23:08.978335
- Title: Riemannian AmbientFlow: Towards Simultaneous Manifold Learning and Generative Modeling from Corrupted Data
- Title(参考訳): Riemannian AmbientFlow: 故障データからの同時マニフォールド学習と生成モデリングを目指して
- Authors: Willem Diepeveen, Oscar Leong,
- Abstract要約: 本稿では,確率的生成モデルと基礎となる非線形データ多様体を,崩壊した観測から直接学習するためのフレームワークを提案する。
我々は、適切な幾何正規化と測定条件の下で、学習されたモデルは、基礎となるデータ分布を制御可能な誤差まで回復し、滑らかなバイリプシッツ多様体のパラメトリゼーションをもたらすことを示す理論的保証を確立する。
- 参考スコア(独自算出の注目度): 4.681760167323748
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Modern generative modeling methods have demonstrated strong performance in learning complex data distributions from clean samples. In many scientific and imaging applications, however, clean samples are unavailable, and only noisy or linearly corrupted measurements can be observed. Moreover, latent structures, such as manifold geometries, present in the data are important to extract for further downstream scientific analysis. In this work, we introduce Riemannian AmbientFlow, a framework for simultaneously learning a probabilistic generative model and the underlying, nonlinear data manifold directly from corrupted observations. Building on the variational inference framework of AmbientFlow, our approach incorporates data-driven Riemannian geometry induced by normalizing flows, enabling the extraction of manifold structure through pullback metrics and Riemannian Autoencoders. We establish theoretical guarantees showing that, under appropriate geometric regularization and measurement conditions, the learned model recovers the underlying data distribution up to a controllable error and yields a smooth, bi-Lipschitz manifold parametrization. We further show that the resulting smooth decoder can serve as a principled generative prior for inverse problems with recovery guarantees. We empirically validate our approach on low-dimensional synthetic manifolds and on MNIST.
- Abstract(参考訳): 近代的な生成モデリング手法は, クリーンサンプルから複雑なデータ分布を学習する上で, 高い性能を示した。
しかし、多くの科学的・画像的応用では、クリーンサンプルは利用できず、ノイズや線形に劣化した測定しか観測できない。
さらに、データに含まれる多様体幾何学のような潜在構造は、より下流の科学的分析のために抽出するために重要である。
本稿では,確率的生成モデルと基礎となる非線形データ多様体を同時に学習するフレームワークであるRiemannian AmbientFlowを紹介する。
AmbientFlowの変分推論フレームワークを基盤として,フローの正規化によって誘導されるデータ駆動リーマン幾何学を導入し,プルバックメトリックとリーマンオートエンコーダによる多様体構造の抽出を可能にする。
我々は、適切な幾何正規化と測定条件の下で、学習されたモデルは、基礎となるデータ分布を制御可能な誤差まで回復し、滑らかなバイリプシッツ多様体のパラメトリゼーションをもたらすことを示す理論的保証を確立する。
さらに, このスムーズなデコーダは, 回復保証付き逆問題に対して, 基本的生成前として機能することを示す。
我々は、低次元合成多様体およびMNISTに対するアプローチを実証的に検証した。
関連論文リスト
- When and how can inexact generative models still sample from the data manifold? [2.4664553878979185]
スコア関数やドリフトベクトル場における学習誤差にもかかわらず、生成されたサンプルはデータ分布の支持を強調させるが、それから強調しないように見える。
我々は、上のリャプノフベクトルとデータ多様体の境界に沿った接空間とのアライメントがロバスト性をもたらすことを示す。
論文 参考訳(メタデータ) (2025-08-11T03:24:34Z) - Riemannian Denoising Diffusion Probabilistic Models [7.964790563398277]
関数のレベル集合であるユークリッド空間の部分多様体上の分布を学習するためのRDDPMを提案する。
連続時間限界における手法の理論解析を行う。
提案手法は,過去の研究から得られたデータセットと,新しいサンプルデータセットで実証された。
論文 参考訳(メタデータ) (2025-05-07T11:37:16Z) - Categorical Flow Matching on Statistical Manifolds [12.646272756981672]
本稿では,情報幾何学に着想を得たパラメータ化確率尺度の多様体上でのフローマッチングフレームワークを提案する。
我々は,多様体間の微分同相法により数値安定性を克服する効率的なトレーニングとサンプリングアルゴリズムを開発した。
我々は、SFMが、既存のモデルがしばしば失敗するような統計多様体上でより複雑なパターンを学習できることを示した。
論文 参考訳(メタデータ) (2024-05-26T05:50:39Z) - Towards Theoretical Understandings of Self-Consuming Generative Models [56.84592466204185]
本稿では,自己消費ループ内で生成モデルを訓練する新たな課題に取り組む。
我々は,このトレーニングが将来のモデルで学習したデータ分布に与える影響を厳格に評価するための理論的枠組みを構築した。
カーネル密度推定の結果は,混合データトレーニングがエラー伝播に与える影響など,微妙な洞察を与える。
論文 参考訳(メタデータ) (2024-02-19T02:08:09Z) - VTAE: Variational Transformer Autoencoder with Manifolds Learning [144.0546653941249]
深層生成モデルは、多くの潜伏変数を通して非線形データ分布の学習に成功している。
ジェネレータの非線形性は、潜在空間がデータ空間の不満足な射影を示し、表現学習が不十分になることを意味する。
本研究では、測地学と正確な計算により、深部生成モデルの性能を大幅に向上させることができることを示す。
論文 参考訳(メタデータ) (2023-04-03T13:13:19Z) - ManiFlow: Implicitly Representing Manifolds with Normalizing Flows [145.9820993054072]
正規化フロー(NF)は、複雑な実世界のデータ分布を正確にモデル化することが示されているフレキシブルな明示的な生成モデルである。
摂動分布から標本を与えられた多様体上の最も可能性の高い点を復元する最適化目的を提案する。
最後に、NFsの明示的な性質、すなわち、ログのような勾配とログのような勾配から抽出された表面正規化を利用する3次元点雲に焦点を当てる。
論文 参考訳(メタデータ) (2022-08-18T16:07:59Z) - Nonlinear Isometric Manifold Learning for Injective Normalizing Flows [58.720142291102135]
アイソメトリーを用いて、多様体学習と密度推定を分離する。
また、確率分布を歪ませない明示的な逆数を持つ埋め込みを設計するためにオートエンコーダを用いる。
論文 参考訳(メタデータ) (2022-03-08T08:57:43Z) - Inferring Manifolds From Noisy Data Using Gaussian Processes [17.166283428199634]
ほとんどの既存の多様体学習アルゴリズムは、元のデータを低次元座標で置き換える。
本稿では,これらの問題に対処するための新しい手法を提案する。
論文 参考訳(メタデータ) (2021-10-14T15:50:38Z) - GELATO: Geometrically Enriched Latent Model for Offline Reinforcement
Learning [54.291331971813364]
オフライン強化学習アプローチは、近近法と不確実性認識法に分けられる。
本研究では,この2つを潜在変動モデルに組み合わせることのメリットを実証する。
提案したメトリクスは、分布サンプルのアウトの品質と、データ内のサンプルの不一致の両方を測定します。
論文 参考訳(メタデータ) (2021-02-22T19:42:40Z) - MMCGAN: Generative Adversarial Network with Explicit Manifold Prior [78.58159882218378]
本稿では,モード崩壊を緩和し,GANのトレーニングを安定させるために,明示的な多様体学習を採用することを提案する。
玩具データと実データの両方を用いた実験により,MMCGANのモード崩壊緩和効果,トレーニングの安定化,生成サンプルの品質向上効果が示された。
論文 参考訳(メタデータ) (2020-06-18T07:38:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。