論文の概要: Efficient Learning of Stationary Diffusions with Stein-type Discrepancies
- arxiv url: http://arxiv.org/abs/2601.16597v1
- Date: Fri, 23 Jan 2026 10:00:06 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-26 14:27:27.62566
- Title: Efficient Learning of Stationary Diffusions with Stein-type Discrepancies
- Title(参考訳): 定常拡散のステイン型差分による効率的学習
- Authors: Fabian Bleile, Sarah Lumpp, Mathias Drton,
- Abstract要約: 我々は最近導入された固定性(KDS)からのカーネル偏差に基づいて構築する。
スタイン型KDS(SKDS)について紹介する。
我々は,学習した拡散分布と目標分布との整合性を保証する代替SKDSを証明した。
- 参考スコア(独自算出の注目度): 2.7528170226206448
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning a stationary diffusion amounts to estimating the parameters of a stochastic differential equation whose stationary distribution matches a target distribution. We build on the recently introduced kernel deviation from stationarity (KDS), which enforces stationarity by evaluating expectations of the diffusion's generator in a reproducing kernel Hilbert space. Leveraging the connection between KDS and Stein discrepancies, we introduce the Stein-type KDS (SKDS) as an alternative formulation. We prove that a vanishing SKDS guarantees alignment of the learned diffusion's stationary distribution with the target. Furthermore, under broad parametrizations, SKDS is convex with an empirical version that is $ε$-quasiconvex with high probability. Empirically, learning with SKDS attains comparable accuracy to KDS while substantially reducing computational cost and yields improvements over the majority of competitive baselines.
- Abstract(参考訳): 定常拡散の学習は、定常分布が対象分布と一致する確率微分方程式のパラメータを推定する。
我々は,再生成カーネルヒルベルト空間における拡散発生器の期待値を評価することにより,定常性(KDS)を強制するカーネル偏差(KDS)を構築した。
KDSとSteinの相違を生かして、代替の定式化としてStein-type KDS(SKDS)を導入する。
我々は,SKDSの消滅により,学習した拡散の定常分布と目標との整合が保証されることを証明した。
さらに、広いパラメトリゼーションの下では、SKDSは、高い確率でε$-準凸である経験的なバージョンで凸である。
実証的には、SKDSによる学習はKDSに匹敵する精度を達成し、計算コストを大幅に削減し、競争ベースラインの大部分よりも改善をもたらす。
関連論文リスト
- Broadening Target Distributions for Accelerated Diffusion Models via a Novel Analysis Approach [49.97755400231656]
本研究では,新しいDDPMサンプリング器が,これまで考慮されていなかった3種類の分散クラスに対して高速化性能を実現することを示す。
この結果から, DDPM型加速サンプリング器におけるデータ次元$d$への依存性が改善された。
論文 参考訳(メタデータ) (2024-02-21T16:11:47Z) - Using Perturbation to Improve Goodness-of-Fit Tests based on Kernelized
Stein Discrepancy [3.78967502155084]
Kernelized Stein discrepancy (KSD) は、良質なテストで広く使われているスコアベースの不一致である。
我々は、KSD試験が、ターゲットと代替分布が同一の分離モードを持つが混合比が異なる場合、低出力に悩まされることを理論的かつ実証的に示す。
論文 参考訳(メタデータ) (2023-04-28T11:13:18Z) - STEERING: Stein Information Directed Exploration for Model-Based
Reinforcement Learning [111.75423966239092]
遷移モデルの現在の推定値と未知の最適値との間の積分確率距離(IPM)の観点から探索インセンティブを提案する。
KSDに基づく新しいアルゴリズムを開発した。 textbfSTEin information dirtextbfEcted Explor for model-based textbfReinforcement Learntextbfing。
論文 参考訳(メタデータ) (2023-01-28T00:49:28Z) - Controlling Moments with Kernel Stein Discrepancies [74.82363458321939]
Kernel Steindisrepancies (KSD) は分布近似の品質を測定する。
まず、弱収束制御に使用される標準KSDがモーメント収束制御に失敗することを示す。
次に、代替拡散KSDがモーメントと弱収束の両方を制御できる十分な条件を提供する。
論文 参考訳(メタデータ) (2022-11-10T08:24:52Z) - Learnable Distribution Calibration for Few-Shot Class-Incremental
Learning [122.2241120474278]
FSCIL(Few-shot class-incremental Learning)は、古いクラス分布を記憶し、少数のトレーニングサンプルから新しいクラス分布を推定するという課題に直面している。
本稿では,これら2つの課題を統一フレームワークを用いて体系的に解決することを目的とした,学習可能な分布校正手法を提案する。
論文 参考訳(メタデータ) (2022-10-01T09:40:26Z) - Targeted Separation and Convergence with Kernel Discrepancies [61.973643031360254]
カーネルベースの不一致測度は、(i)ターゲットPを他の確率測度から分離するか、(ii)Pへの弱収束を制御する必要がある。
本稿では, (i) と (ii) を保証するのに十分な,必要な新しい条件を導出する。
可分距離空間上のMDDに対して、ボヒナー埋め込み可測度を分離するカーネルを特徴づけ、すべての測度を非有界カーネルと分離するための単純な条件を導入する。
論文 参考訳(メタデータ) (2022-09-26T16:41:16Z) - Non-parametric Kernel-Based Estimation of Probability Distributions for
Precipitation Modeling [0.0]
湿潤時間間隔の降水量の累積分布関数(CDF)の非パラメトリック推定を導出した。
我々は、KCDEが標準的な経験的(階段)推定よりも確率分布のより良い推定値を提供することを示した。
論文 参考訳(メタデータ) (2021-09-21T04:52:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。