論文の概要: Synergizing Transport-Based Generative Models and Latent Geometry for Stochastic Closure Modeling
- arxiv url: http://arxiv.org/abs/2602.17089v1
- Date: Thu, 19 Feb 2026 05:24:00 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-20 15:21:28.707602
- Title: Synergizing Transport-Based Generative Models and Latent Geometry for Stochastic Closure Modeling
- Title(参考訳): 確率的クロージャモデリングのための輸送ベース生成モデルと潜時幾何学の相乗化
- Authors: Xinghao Dong, Huchen Yang, Jin-long Wu,
- Abstract要約: 低次元潜在空間における流れのマッチングは閉包モデルの高速サンプリングに適していることを示す。
我々は、潜時空間の歪みを制御し、サンプリングされた閉包項の物理的忠実度を確保する。
- 参考スコア(独自算出の注目度): 1.665466637453776
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Diffusion models recently developed for generative AI tasks can produce high-quality samples while still maintaining diversity among samples to promote mode coverage, providing a promising path for learning stochastic closure models. Compared to other types of generative AI models, such as GANs and VAEs, the sampling speed is known as a key disadvantage of diffusion models. By systematically comparing transport-based generative models on a numerical example of 2D Kolmogorov flows, we show that flow matching in a lower-dimensional latent space is suited for fast sampling of stochastic closure models, enabling single-step sampling that is up to two orders of magnitude faster than iterative diffusion-based approaches. To control the latent space distortion and thus ensure the physical fidelity of the sampled closure term, we compare the implicit regularization offered by a joint training scheme against two explicit regularizers: metric-preserving (MP) and geometry-aware (GA) constraints. Besides offering a faster sampling speed, both explicitly and implicitly regularized latent spaces inherit the key topological information from the lower-dimensional manifold of the original complex dynamical system, which enables the learning of stochastic closure models without demanding a huge amount of training data.
- Abstract(参考訳): 生成AIタスクのために最近開発された拡散モデルは、モードカバレッジを促進するためにサンプル間の多様性を維持しながら高品質なサンプルを生成することができ、確率的クロージャモデルを学ぶための有望なパスを提供する。
GANやVAEのような他の生成AIモデルと比較すると、サンプリング速度は拡散モデルの重要な欠点として知られている。
2次元コルモゴロフ流の数値例における輸送型生成モデルを体系的に比較することにより、低次元潜在空間におけるフローマッチングが確率的クロージャモデルの高速サンプリングに適していることを示し、反復拡散に基づくアプローチよりも最大2桁高速な単一ステップサンプリングを可能にする。
サンプル閉包項の物理的忠実度を抑えるため、連立学習方式によって提供される暗黙の正則化を、メートル法保存(MP)と幾何認識(GA)の制約という2つの明示的な正則化と比較する。
より高速なサンプリング速度を提供する以外に、明示的かつ暗黙的に規則化された潜在空間は、元の複素力学系の下次元多様体から重要な位相情報を継承し、膨大なトレーニングデータを必要としない確率的閉包モデルの学習を可能にする。
関連論文リスト
- Diffusion models for multivariate subsurface generation and efficient probabilistic inversion [0.0]
拡散モデルは、深い生成モデリングタスクのための安定したトレーニングと最先端のパフォーマンスを提供する。
本稿では拡散モデルに固有のノイズ汚染を考慮した近似法を提案する。
統計的ロバスト性は有意に向上し, 後部確率密度関数のサンプリングが向上した。
論文 参考訳(メタデータ) (2025-07-21T17:10:16Z) - Accelerated Diffusion Models via Speculative Sampling [89.43940130493233]
投機的サンプリングは、大規模言語モデルにおける推論を加速する一般的な手法である。
我々は投機的サンプリングを拡散モデルに拡張し、連続したベクトル値のマルコフ連鎖を介してサンプルを生成する。
本稿では,ドラフトモデルをトレーニングする必要のない,シンプルで効果的なアプローチを含む,さまざまなドラフト戦略を提案する。
論文 参考訳(メタデータ) (2025-01-09T16:50:16Z) - Fast Sampling via Discrete Non-Markov Diffusion Models with Predetermined Transition Time [49.598085130313514]
離散非マルコフ拡散モデル(DNDM)を提案する。
これにより、トレーニング不要なサンプリングアルゴリズムにより、関数評価の数を大幅に削減できる。
有限ステップサンプリングから無限ステップサンプリングへの移行について検討し、離散プロセスと連続プロセスのギャップを埋めるための新たな洞察を提供する。
論文 参考訳(メタデータ) (2023-12-14T18:14:11Z) - A Geometric Perspective on Diffusion Models [57.27857591493788]
本稿では,人気のある分散拡散型SDEのODEに基づくサンプリングについて検討する。
我々は、最適なODEベースのサンプリングと古典的な平均シフト(モード探索)アルゴリズムの理論的関係を確立する。
論文 参考訳(メタデータ) (2023-05-31T15:33:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。