論文の概要: Beyond EM Algorithm on Over-specified Two-Component Location-Scale
Gaussian Mixtures
- arxiv url: http://arxiv.org/abs/2205.11078v1
- Date: Mon, 23 May 2022 06:49:55 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-24 16:32:47.570992
- Title: Beyond EM Algorithm on Over-specified Two-Component Location-Scale
Gaussian Mixtures
- Title(参考訳): 過剰な2成分位置-スケールガウス混合に対するEMアルゴリズムの超越
- Authors: Tongzheng Ren and Fuheng Cui and Sujay Sanghavi and Nhat Ho
- Abstract要約: 負の対数様関数の曲率を効率的に探索するために,指数位置更新法(ELU)アルゴリズムを開発した。
ELUアルゴリズムは、対数的な反復数の後、モデルの最終的な統計的半径に収束することを示した。
- 参考スコア(独自算出の注目度): 29.26015093627193
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Expectation-Maximization (EM) algorithm has been predominantly used to
approximate the maximum likelihood estimation of the location-scale Gaussian
mixtures. However, when the models are over-specified, namely, the chosen
number of components to fit the data is larger than the unknown true number of
components, EM needs a polynomial number of iterations in terms of the sample
size to reach the final statistical radius; this is computationally expensive
in practice. The slow convergence of EM is due to the missing of the locally
strong convexity with respect to the location parameter on the negative
population log-likelihood function, i.e., the limit of the negative sample
log-likelihood function when the sample size goes to infinity. To efficiently
explore the curvature of the negative log-likelihood functions, by specifically
considering two-component location-scale Gaussian mixtures, we develop the
Exponential Location Update (ELU) algorithm. The idea of the ELU algorithm is
that we first obtain the exact optimal solution for the scale parameter and
then perform an exponential step-size gradient descent for the location
parameter. We demonstrate theoretically and empirically that the ELU iterates
converge to the final statistical radius of the models after a logarithmic
number of iterations. To the best of our knowledge, it resolves the
long-standing open question in the literature about developing an optimization
algorithm that has optimal statistical and computational complexities for
solving parameter estimation even under some specific settings of the
over-specified Gaussian mixture models.
- Abstract(参考訳): expectation-Maximization (EM) アルゴリズムは、位置スケールのガウス混合の最大推定を近似するために主に用いられている。
しかし、モデルが過剰に指定されている場合、すなわち、データに適合する選択されたコンポーネントの数が未知の真のコンポーネントの数よりも大きい場合、EMは最終的な統計的半径に達するためにサンプルサイズの観点から多項式数の繰り返しを必要とする。
em の緩やかな収束は、負の集団対数様度関数上の位置パラメータ、すなわち標本サイズが無限大となるときの負のサンプル対数様度関数の極限に対する局所的な強い凸性の欠如に起因する。
負の対数様関数の曲率を効率よく探索するために、特に2成分の位置-スケールのガウス混合を考慮し、指数位置更新(ELU)アルゴリズムを開発した。
ELUアルゴリズムの考え方は、まず最初にスケールパラメータの正確な最適解を求め、次に位置パラメータの指数的なステップサイズ勾配を求めることである。
ELUの反復は対数的な反復数の後、モデルの最終的な統計的半径に収束することを示す。
我々の知識を最大限に活用するため、過剰に特定されたガウス混合モデルの特定の設定下においてもパラメータ推定を最適に解くための統計的・計算的複雑度を持つ最適化アルゴリズムの開発に関する文献において、長年の疑問を解決している。
関連論文リスト
- Accelerated zero-order SGD under high-order smoothness and overparameterized regime [79.85163929026146]
凸最適化問題を解くための新しい勾配のないアルゴリズムを提案する。
このような問題は医学、物理学、機械学習で発生する。
両種類の雑音下で提案アルゴリズムの収束保証を行う。
論文 参考訳(メタデータ) (2024-11-21T10:26:17Z) - Semi-Discrete Optimal Transport: Nearly Minimax Estimation With Stochastic Gradient Descent and Adaptive Entropic Regularization [38.67914746910537]
我々は,ラゲールセル推定と密度支持推定の類似性を用いて,OTマップに対して$mathcalO(t-1)$の低いバウンダリレートを証明した。
所望の速さをほぼ達成するために,サンプル数に応じて減少するエントロピー正規化スキームを設計する。
論文 参考訳(メタデータ) (2024-05-23T11:46:03Z) - A Fourier Approach to the Parameter Estimation Problem for One-dimensional Gaussian Mixture Models [21.436254507839738]
一次元ガウス混合モデルにおけるパラメータ推定のための新しいアルゴリズムを提案する。
本アルゴリズムは,EMアルゴリズムと比較して,確率,AIC,BICのスコアがよいことを示す。
論文 参考訳(メタデータ) (2024-04-19T03:53:50Z) - Learning Unnormalized Statistical Models via Compositional Optimization [73.30514599338407]
実データと人工雑音のロジスティックな損失として目的を定式化することにより, ノイズコントラスト推定(NCE)を提案する。
本稿では,非正規化モデルの負の対数類似度を最適化するための直接的アプローチについて検討する。
論文 参考訳(メタデータ) (2023-06-13T01:18:16Z) - Probabilistic Unrolling: Scalable, Inverse-Free Maximum Likelihood
Estimation for Latent Gaussian Models [69.22568644711113]
我々は,モンテカルロサンプリングと反復線形解法を組み合わせた確率的アンローリングを導入し,行列逆転を回避した。
理論的解析により,解法の繰り返しによる解法の解法と逆転が最大値推定の勾配推定を高速化することを示した。
シミュレーションおよび実データ実験において、確率的アンロールは、モデル性能の損失を最小限に抑えながら、勾配EMよりも桁違いに高速な潜在ガウスモデルを学習することを示した。
論文 参考訳(メタデータ) (2023-06-05T21:08:34Z) - Interacting Particle Langevin Algorithm for Maximum Marginal Likelihood
Estimation [2.53740603524637]
我々は,最大限界推定法を実装するための相互作用粒子系のクラスを開発する。
特に、この拡散の定常測度のパラメータ境界がギブス測度の形式であることを示す。
特定の再スケーリングを用いて、このシステムの幾何学的エルゴディディティを証明し、離散化誤差を限定する。
時間的に一様で、粒子の数で増加しない方法で。
論文 参考訳(メタデータ) (2023-03-23T16:50:08Z) - Gaussian process regression and conditional Karhunen-Lo\'{e}ve models
for data assimilation in inverse problems [68.8204255655161]
偏微分方程式モデルにおけるデータ同化とパラメータ推定のためのモデル逆アルゴリズムCKLEMAPを提案する。
CKLEMAP法は標準的なMAP法に比べてスケーラビリティがよい。
論文 参考訳(メタデータ) (2023-01-26T18:14:12Z) - Sparse high-dimensional linear regression with a partitioned empirical
Bayes ECM algorithm [62.997667081978825]
疎高次元線形回帰に対する計算効率が高く強力なベイズ的手法を提案する。
パラメータに関する最小の事前仮定は、プラグイン経験的ベイズ推定(英語版)を用いて用いられる。
提案手法はRパッケージプローブに実装されている。
論文 参考訳(メタデータ) (2022-09-16T19:15:50Z) - Mean-Square Analysis with An Application to Optimal Dimension Dependence
of Langevin Monte Carlo [60.785586069299356]
この研究は、2-ワッサーシュタイン距離におけるサンプリング誤差の非同相解析のための一般的な枠組みを提供する。
我々の理論解析は数値実験によってさらに検証される。
論文 参考訳(メタデータ) (2021-09-08T18:00:05Z) - Improved Convergence Guarantees for Learning Gaussian Mixture Models by
EM and Gradient EM [15.251738476719918]
パラメータを既知の重みのK成分を用いたガウス混合モデルとして推定する問題を考察する。
本稿では, EM と勾配 EM の局所収束について, 従来の研究と比較し, より鮮明な解析を行った。
第2のコントリビューションは,EMと勾配EMによる精度評価のための試料サイズ要件の改善である。
論文 参考訳(メタデータ) (2021-01-03T08:10:01Z) - Sparse Representations of Positive Functions via First and Second-Order
Pseudo-Mirror Descent [15.340540198612823]
推定器の範囲が非負である必要がある場合、予測されるリスク問題を考察する。
Emphpseudo-gradientsを用いた近似ミラーの1階および2階の変種を開発した。
実験は、実際に不均一なプロセス強度推定に好適な性能を示す。
論文 参考訳(メタデータ) (2020-11-13T21:54:28Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。