論文の概要: Infinite-dimensional generative diffusions via Doob's h-transform
- arxiv url: http://arxiv.org/abs/2602.06621v1
- Date: Fri, 06 Feb 2026 11:25:32 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-09 22:18:26.377415
- Title: Infinite-dimensional generative diffusions via Doob's h-transform
- Title(参考訳): Doobのh-変換による無限次元生成拡散
- Authors: Thorben Pieper-Sethmacher, Daniel Paulin,
- Abstract要約: 本稿では、Doobのh-transformを通じて無限次元における生成拡散モデルを定義するための厳密な枠組みを提案する。
スコアマッチングの目的を最小化することにより,変化した測定値の強制的処理を近似できることを示す。
- 参考スコア(独自算出の注目度): 0.6015898117103069
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper introduces a rigorous framework for defining generative diffusion models in infinite dimensions via Doob's h-transform. Rather than relying on time reversal of a noising process, a reference diffusion is forced towards the target distribution by an exponential change of measure. Compared to existing methodology, this approach readily generalises to the infinite-dimensional setting, hence offering greater flexibility in the diffusion model. The construction is derived rigorously under verifiable conditions, and bounds with respect to the target measure are established. We show that the forced process under the changed measure can be approximated by minimising a score-matching objective and validate our method on both synthetic and real data.
- Abstract(参考訳): 本稿では、Doobのh-transformを通じて無限次元における生成拡散モデルを定義するための厳密な枠組みを提案する。
ノイズ発生過程の時間反転に頼るのではなく、指数的な測定変化によって基準拡散が目標分布に向かって強制される。
既存の方法論と比較すると、このアプローチは容易に無限次元の設定に一般化し、拡散モデルにより大きな柔軟性をもたらす。
この構成は、検証可能な条件下で厳格に導出され、対象の測度に関する境界が確立される。
スコアマッチングの目的を最小化し,本手法を合成データと実データの両方で検証することにより,変化した測度の下での強制過程を近似できることを示す。
関連論文リスト
- TAG:Tangential Amplifying Guidance for Hallucination-Resistant Diffusion Sampling [53.61290359948953]
タンジェンシャル増幅誘導(TAG)は、下層の拡散モデルを変更することなく、軌道信号のみで動作する。
この誘導過程を1次テイラー展開を利用して定式化する。
TAGは、最小限の計算加算で拡散サンプリング忠実度を改善する、プラグアンドプレイのアーキテクチャに依存しないモジュールである。
論文 参考訳(メタデータ) (2025-10-06T06:53:29Z) - Inference-Time Scaling of Diffusion Language Models with Particle Gibbs Sampling [70.8832906871441]
我々は、モデルを再訓練することなく、所望の報酬に向けて世代を操る方法を研究する。
従来の手法では、通常は1つの認知軌道内でサンプリングやフィルタを行い、軌道レベルの改善なしに報酬をステップバイステップで最適化する。
本稿では,拡散言語モデル(PG-DLM)の粒子ギブスサンプリングについて紹介する。
論文 参考訳(メタデータ) (2025-07-11T08:00:47Z) - Provable Maximum Entropy Manifold Exploration via Diffusion Models [58.89696361871563]
探索は科学的な発見のような現実世界の意思決定問題を解決するために重要である。
本稿では,事前学習した拡散モデルにより暗黙的に定義された近似データ多様体に対して,探索をエントロピーとしてキャストする新しいフレームワークを提案する。
本研究では,事前学習した拡散モデルの逐次微調整として探索問題を解くミラー降下に基づくアルゴリズムを開発する。
論文 参考訳(メタデータ) (2025-06-18T11:59:15Z) - Diffusing Differentiable Representations [60.72992910766525]
本稿では,事前学習した拡散モデルを用いて,微分可能な表現(拡散)をサンプリングする,新しい学習自由な手法を提案する。
差分によって引き起こされるサンプルに対する暗黙の制約を特定し、この制約に対処することで、生成されたオブジェクトの一貫性と詳細が大幅に改善されることを示す。
論文 参考訳(メタデータ) (2024-12-09T20:42:58Z) - Trans-Dimensional Generative Modeling via Jump Diffusion Models [46.183265841345644]
本稿では,様々な次元のデータを自然に扱う生成モデルの新たなクラスを提案する。
まず、時間反転生成過程を生成する次元を導出する前に、前方ノイズ発生過程を破壊する次元を定義する。
時間反転生成過程に対する学習近似をシミュレーションし、様々な次元のデータをサンプリングする効果的な方法を提供する。
論文 参考訳(メタデータ) (2023-05-25T17:15:00Z) - Reflected Diffusion Models [93.26107023470979]
本稿では,データのサポートに基づいて進化する反射微分方程式を逆転する反射拡散モデルを提案する。
提案手法は,一般化されたスコアマッチング損失を用いてスコア関数を学習し,標準拡散モデルの主要成分を拡張する。
論文 参考訳(メタデータ) (2023-04-10T17:54:38Z) - Infinite-Dimensional Diffusion Models [3.9748528039819977]
拡散に基づく生成モデルを無限次元で定式化し、関数の生成モデルに適用する。
また,この理論を用いて無限次元拡散モデルの設計ガイドラインも作成する。
論文 参考訳(メタデータ) (2023-02-20T18:00:38Z) - A Variational Perspective on Diffusion-Based Generative Models and Score
Matching [8.93483643820767]
連続時間生成拡散の確率推定のための変分フレームワークを導出する。
本研究は,プラグイン逆SDEの可能性の低い境界を最大化することと,スコアマッチング損失の最小化が等価であることを示す。
論文 参考訳(メタデータ) (2021-06-05T05:50:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。