論文の概要: Efficient Learning of Stationary Diffusions with Stein-type Discrepancies
- arxiv url: http://arxiv.org/abs/2601.16597v1
- Date: Fri, 23 Jan 2026 10:00:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-26 14:27:27.62566
- Title: Efficient Learning of Stationary Diffusions with Stein-type Discrepancies
- Title(参考訳): 定常拡散のステイン型差分による効率的学習
- Authors: Fabian Bleile, Sarah Lumpp, Mathias Drton,
- Abstract要約: 我々は最近導入された固定性(KDS)からのカーネル偏差に基づいて構築する。
スタイン型KDS(SKDS)について紹介する。
我々は,学習した拡散分布と目標分布との整合性を保証する代替SKDSを証明した。
- 参考スコア(独自算出の注目度): 2.7528170226206448
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning a stationary diffusion amounts to estimating the parameters of a stochastic differential equation whose stationary distribution matches a target distribution. We build on the recently introduced kernel deviation from stationarity (KDS), which enforces stationarity by evaluating expectations of the diffusion's generator in a reproducing kernel Hilbert space. Leveraging the connection between KDS and Stein discrepancies, we introduce the Stein-type KDS (SKDS) as an alternative formulation. We prove that a vanishing SKDS guarantees alignment of the learned diffusion's stationary distribution with the target. Furthermore, under broad parametrizations, SKDS is convex with an empirical version that is $ε$-quasiconvex with high probability. Empirically, learning with SKDS attains comparable accuracy to KDS while substantially reducing computational cost and yields improvements over the majority of competitive baselines.
- Abstract(参考訳): 定常拡散の学習は、定常分布が対象分布と一致する確率微分方程式のパラメータを推定する。
我々は,再生成カーネルヒルベルト空間における拡散発生器の期待値を評価することにより,定常性(KDS)を強制するカーネル偏差(KDS)を構築した。
KDSとSteinの相違を生かして、代替の定式化としてStein-type KDS(SKDS)を導入する。
我々は,SKDSの消滅により,学習した拡散の定常分布と目標との整合が保証されることを証明した。
さらに、広いパラメトリゼーションの下では、SKDSは、高い確率でε$-準凸である経験的なバージョンで凸である。
実証的には、SKDSによる学習はKDSに匹敵する精度を達成し、計算コストを大幅に削減し、競争ベースラインの大部分よりも改善をもたらす。
関連論文リスト
- Overcoming Dimensional Factorization Limits in Discrete Diffusion Models through Quantum Joint Distribution Learning [79.65014491424151]
量子離散化拡散確率モデル(QD3PM)を提案する。
これは、指数関数的に大きなヒルベルト空間における拡散と denoising を通じて合同確率学習を可能にする。
本稿では,共同分布学習における量子的優位性を生かして,生成モデルの新たな理論的パラダイムを確立する。
論文 参考訳(メタデータ) (2025-05-08T11:48:21Z) - Generative Latent Neural PDE Solver using Flow Matching [8.397730500554047]
低次元の潜伏空間にPDE状態を埋め込んだPDEシミュレーションのための潜伏拡散モデルを提案する。
我々のフレームワークは、オートエンコーダを使用して、異なるタイプのメッシュを統一された構造化潜在グリッドにマッピングし、複雑なジオメトリをキャプチャします。
数値実験により,提案モデルは,精度と長期安定性の両方において,決定論的ベースラインよりも優れていた。
論文 参考訳(メタデータ) (2025-03-28T16:44:28Z) - Sampling in High-Dimensions using Stochastic Interpolants and Forward-Backward Stochastic Differential Equations [8.509310102094512]
本稿では,高次元確率分布からサンプルを抽出する拡散型アルゴリズムのクラスを提案する。
我々の手法は、確率密度の時間インデクシングされたコレクションを定義するための補間フレームワークに依存している。
提案アルゴリズムは,従来の手法では処理が困難であった分布から,効果的にサンプルを抽出できることを実証する。
論文 参考訳(メタデータ) (2025-02-01T07:27:11Z) - Convergence of Score-Based Discrete Diffusion Models: A Discrete-Time Analysis [56.442307356162864]
連続時間マルコフ連鎖(CTMC)に基づくスコアベース離散拡散モデルの理論的側面について検討する。
本稿では,事前定義された時間点におけるスコア推定値を利用する離散時間サンプリングアルゴリズムを一般状態空間$[S]d$に導入する。
我々の収束解析はジルサノフ法を用いて離散スコア関数の重要な性質を確立する。
論文 参考訳(メタデータ) (2024-10-03T09:07:13Z) - Broadening Target Distributions for Accelerated Diffusion Models via a Novel Analysis Approach [49.97755400231656]
本研究では,新しいDDPMサンプリング器が,これまで考慮されていなかった3種類の分散クラスに対して高速化性能を実現することを示す。
この結果から, DDPM型加速サンプリング器におけるデータ次元$d$への依存性が改善された。
論文 参考訳(メタデータ) (2024-02-21T16:11:47Z) - General regularization in covariate shift adaptation [1.5469452301122175]
データ分布の違いを伴わない標準教師付き学習と同等の精度を達成するために必要なサンプルの量は、最先端の分析によって証明されたものよりも少ないことを示す。
論文 参考訳(メタデータ) (2023-07-21T11:19:00Z) - Using Perturbation to Improve Goodness-of-Fit Tests based on Kernelized
Stein Discrepancy [3.78967502155084]
Kernelized Stein discrepancy (KSD) は、良質なテストで広く使われているスコアベースの不一致である。
我々は、KSD試験が、ターゲットと代替分布が同一の分離モードを持つが混合比が異なる場合、低出力に悩まされることを理論的かつ実証的に示す。
論文 参考訳(メタデータ) (2023-04-28T11:13:18Z) - STEERING: Stein Information Directed Exploration for Model-Based
Reinforcement Learning [111.75423966239092]
遷移モデルの現在の推定値と未知の最適値との間の積分確率距離(IPM)の観点から探索インセンティブを提案する。
KSDに基づく新しいアルゴリズムを開発した。 textbfSTEin information dirtextbfEcted Explor for model-based textbfReinforcement Learntextbfing。
論文 参考訳(メタデータ) (2023-01-28T00:49:28Z) - Controlling Moments with Kernel Stein Discrepancies [74.82363458321939]
Kernel Steindisrepancies (KSD) は分布近似の品質を測定する。
まず、弱収束制御に使用される標準KSDがモーメント収束制御に失敗することを示す。
次に、代替拡散KSDがモーメントと弱収束の両方を制御できる十分な条件を提供する。
論文 参考訳(メタデータ) (2022-11-10T08:24:52Z) - Learnable Distribution Calibration for Few-Shot Class-Incremental
Learning [122.2241120474278]
FSCIL(Few-shot class-incremental Learning)は、古いクラス分布を記憶し、少数のトレーニングサンプルから新しいクラス分布を推定するという課題に直面している。
本稿では,これら2つの課題を統一フレームワークを用いて体系的に解決することを目的とした,学習可能な分布校正手法を提案する。
論文 参考訳(メタデータ) (2022-10-01T09:40:26Z) - Targeted Separation and Convergence with Kernel Discrepancies [61.973643031360254]
カーネルベースの不一致測度は、(i)ターゲットPを他の確率測度から分離するか、(ii)Pへの弱収束を制御する必要がある。
本稿では, (i) と (ii) を保証するのに十分な,必要な新しい条件を導出する。
可分距離空間上のMDDに対して、ボヒナー埋め込み可測度を分離するカーネルを特徴づけ、すべての測度を非有界カーネルと分離するための単純な条件を導入する。
論文 参考訳(メタデータ) (2022-09-26T16:41:16Z) - Non-parametric Kernel-Based Estimation of Probability Distributions for
Precipitation Modeling [0.0]
湿潤時間間隔の降水量の累積分布関数(CDF)の非パラメトリック推定を導出した。
我々は、KCDEが標準的な経験的(階段)推定よりも確率分布のより良い推定値を提供することを示した。
論文 参考訳(メタデータ) (2021-09-21T04:52:00Z) - A Note on Optimizing Distributions using Kernel Mean Embeddings [94.96262888797257]
カーネル平均埋め込みは、その無限次元平均埋め込みによる確率測度を表す。
カーネルが特徴的である場合、カーネルの総和密度を持つ分布は密度が高いことを示す。
有限サンプル設定でそのような分布を最適化するアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-06-18T08:33:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。