論文の概要: Learning Gaussian Mixtures Using the Wasserstein-Fisher-Rao Gradient
Flow
- arxiv url: http://arxiv.org/abs/2301.01766v1
- Date: Wed, 4 Jan 2023 18:59:35 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-05 15:31:22.699407
- Title: Learning Gaussian Mixtures Using the Wasserstein-Fisher-Rao Gradient
Flow
- Title(参考訳): Wasserstein-Fisher-Rao勾配流を用いたガウス混合学習
- Authors: Yuling Yan, Kaizheng Wang, Philippe Rigollet
- Abstract要約: ガウス混合モデルを用いて非パラメトリック最大推定器(NPMLE)を計算するための新しいアルゴリズムを提案する。
この手法は、ワッサーシュタイン-フィッシャー-ラオ幾何学を備えた確率測度空間上の勾配降下に基づく。
提案アルゴリズムの有効性を確認するため,広範囲な数値実験を行った。
- 参考スコア(独自算出の注目度): 12.455057637445174
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Gaussian mixture models form a flexible and expressive parametric family of
distributions that has found applications in a wide variety of applications.
Unfortunately, fitting these models to data is a notoriously hard problem from
a computational perspective. Currently, only moment-based methods enjoy
theoretical guarantees while likelihood-based methods are dominated by
heuristics such as Expectation-Maximization that are known to fail in simple
examples. In this work, we propose a new algorithm to compute the nonparametric
maximum likelihood estimator (NPMLE) in a Gaussian mixture model. Our method is
based on gradient descent over the space of probability measures equipped with
the Wasserstein-Fisher-Rao geometry for which we establish convergence
guarantees. In practice, it can be approximated using an interacting particle
system where the weight and location of particles are updated alternately. We
conduct extensive numerical experiments to confirm the effectiveness of the
proposed algorithm compared not only to classical benchmarks but also to
similar gradient descent algorithms with respect to simpler geometries. In
particular, these simulations illustrate the benefit of updating both weight
and location of the interacting particles.
- Abstract(参考訳): ガウス混合モデルは柔軟で表現力のある分布のパラメトリック族を形成し、様々な応用で応用されている。
残念ながら、これらのモデルをデータに適合させることは、計算の観点から非常に難しい問題である。
現在、モーメントベースの手法のみが理論的保証を享受しているが、確率ベースの手法は単純な例では失敗することが知られている期待最大化のようなヒューリスティックによって支配されている。
本研究では,ガウス混合モデルを用いて非パラメトリック最大推定器(NPMLE)を計算するための新しいアルゴリズムを提案する。
本手法は,収束保証を確立するWasserstein-Fisher-Rao幾何を備えた確率測度空間上の勾配勾配に基づく。
実際には、粒子の重量と位置を交互に更新する相互作用粒子系を用いて近似することができる。
提案アルゴリズムの有効性を確認するために, 従来のベンチマークだけでなく, より単純なジオメトリに関して, 同様の勾配降下アルゴリズムも行った。
特に、これらのシミュレーションは相互作用する粒子の重みと位置の両方を更新する利点を示している。
関連論文リスト
- Gaussian Processes Sampling with Sparse Grids under Additive Schwarz Preconditioner [6.408773096179187]
本稿では,GPモデルの前と後をランダムに実現するためのスケーラブルなアルゴリズムを提案する。
提案アルゴリズムはスパースグリッドを用いた点近似と加法的シュワルツプレコンディショナーを利用する。
論文 参考訳(メタデータ) (2024-08-01T00:19:36Z) - A Fourier Approach to the Parameter Estimation Problem for One-dimensional Gaussian Mixture Models [21.436254507839738]
一次元ガウス混合モデルにおけるパラメータ推定のための新しいアルゴリズムを提案する。
本アルゴリズムは,EMアルゴリズムと比較して,確率,AIC,BICのスコアがよいことを示す。
論文 参考訳(メタデータ) (2024-04-19T03:53:50Z) - Closed-form Filtering for Non-linear Systems [83.91296397912218]
我々は密度近似と計算効率の面でいくつかの利点を提供するガウスPSDモデルに基づく新しいフィルタのクラスを提案する。
本研究では,遷移や観測がガウスPSDモデルである場合,フィルタリングを効率的にクローズド形式で行うことができることを示す。
提案する推定器は, 近似の精度に依存し, 遷移確率の正則性に適応する推定誤差を伴って, 高い理論的保証を享受する。
論文 参考訳(メタデータ) (2024-02-15T08:51:49Z) - Learning Mixtures of Gaussians Using the DDPM Objective [11.086440815804226]
本研究では, 拡散確率モデル(DDPM)の目標値の勾配勾配が混合モデルの真理パラメータを効率的に回収できることを証明した。
この証明の鍵となる要素は、スコアベース手法と他の2つの分散学習アプローチの新たな関連性である。
論文 参考訳(メタデータ) (2023-07-03T17:44:22Z) - Probabilistic Unrolling: Scalable, Inverse-Free Maximum Likelihood
Estimation for Latent Gaussian Models [69.22568644711113]
我々は,モンテカルロサンプリングと反復線形解法を組み合わせた確率的アンローリングを導入し,行列逆転を回避した。
理論的解析により,解法の繰り返しによる解法の解法と逆転が最大値推定の勾配推定を高速化することを示した。
シミュレーションおよび実データ実験において、確率的アンロールは、モデル性能の損失を最小限に抑えながら、勾配EMよりも桁違いに高速な潜在ガウスモデルを学習することを示した。
論文 参考訳(メタデータ) (2023-06-05T21:08:34Z) - Monte Carlo Neural PDE Solver for Learning PDEs via Probabilistic Representation [59.45669299295436]
教師なしニューラルソルバのトレーニングのためのモンテカルロPDEソルバを提案する。
我々は、マクロ現象をランダム粒子のアンサンブルとみなすPDEの確率的表現を用いる。
対流拡散, アレン・カーン, ナヴィエ・ストークス方程式に関する実験により, 精度と効率が著しく向上した。
論文 参考訳(メタデータ) (2023-02-10T08:05:19Z) - Gaussian process regression and conditional Karhunen-Lo\'{e}ve models
for data assimilation in inverse problems [68.8204255655161]
偏微分方程式モデルにおけるデータ同化とパラメータ推定のためのモデル逆アルゴリズムCKLEMAPを提案する。
CKLEMAP法は標準的なMAP法に比べてスケーラビリティがよい。
論文 参考訳(メタデータ) (2023-01-26T18:14:12Z) - Sampling with Mollified Interaction Energy Descent [57.00583139477843]
モーフィファイド相互作用エネルギー降下(MIED)と呼ばれる新しい最適化に基づくサンプリング手法を提案する。
MIEDは、モル化相互作用エネルギー(MIE)と呼ばれる確率測度に関する新しいクラスのエネルギーを最小化する
我々は,制約のないサンプリング問題に対して,我々のアルゴリズムがSVGDのような既存の粒子ベースアルゴリズムと同等に動作することを示す。
論文 参考訳(メタデータ) (2022-10-24T16:54:18Z) - Extracting Stochastic Governing Laws by Nonlocal Kramers-Moyal Formulas [3.8325907381729496]
我々は、(ガウス)ブラウン運動と(非ガウス)レヴィ運動の両方を用いて、規制法則を抽出するデータ駆動アプローチを提案する。
このアプローチがL'evy運動を伴う微分方程式を学習できることを実証する。
論文 参考訳(メタデータ) (2021-08-28T04:56:51Z) - Large-Scale Wasserstein Gradient Flows [84.73670288608025]
ワッサーシュタイン勾配流を近似するスケーラブルなスキームを導入する。
我々のアプローチは、JKOステップを識別するために、入力ニューラルネットワーク(ICNN)に依存しています。
その結果、勾配拡散の各ステップで測定値からサンプリングし、その密度を計算することができる。
論文 参考訳(メタデータ) (2021-06-01T19:21:48Z) - Mean-Field Approximation to Gaussian-Softmax Integral with Application
to Uncertainty Estimation [23.38076756988258]
ディープニューラルネットワークにおける不確実性を定量化するための,新しい単一モデルに基づくアプローチを提案する。
平均場近似式を用いて解析的に難解な積分を計算する。
実験的に,提案手法は最先端の手法と比較して競合的に機能する。
論文 参考訳(メタデータ) (2020-06-13T07:32:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。