論文の概要: Uniform Convergence Rates for Maximum Likelihood Estimation under
Two-Component Gaussian Mixture Models
- arxiv url: http://arxiv.org/abs/2006.00704v1
- Date: Mon, 1 Jun 2020 04:13:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-26 07:42:57.526366
- Title: Uniform Convergence Rates for Maximum Likelihood Estimation under
Two-Component Gaussian Mixture Models
- Title(参考訳): 2成分ガウス混合モデルによる最大確率推定のための一様収束率
- Authors: Tudor Manole, Nhat Ho
- Abstract要約: パラメータ推定のための最大極大推定器と最小極小境界に対する一様収束率を導出する。
混合成分の混合割合は, 既知, 固定されていると仮定するが, 混合成分の分離仮定は行わない。
- 参考スコア(独自算出の注目度): 13.769786711365104
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We derive uniform convergence rates for the maximum likelihood estimator and
minimax lower bounds for parameter estimation in two-component location-scale
Gaussian mixture models with unequal variances. We assume the mixing
proportions of the mixture are known and fixed, but make no separation
assumption on the underlying mixture components. A phase transition is shown to
exist in the optimal parameter estimation rate, depending on whether or not the
mixture is balanced. Key to our analysis is a careful study of the dependence
between the parameters of location-scale Gaussian mixture models, as captured
through systems of polynomial equalities and inequalities whose solution set
drives the rates we obtain. A simulation study illustrates the theoretical
findings of this work.
- Abstract(参考訳): 不等分散を持つ2成分位置スケールガウス混合モデルにおけるパラメータ推定のための最大度推定値と最小値下限に対する一様収束率を導出する。
混合成分の混合割合は, 既知, 固定されていると仮定するが, 混合成分の分離仮定は行わない。
相転移は、混合物の平衡の有無に応じて最適なパラメータ推定速度に存在することが示されている。
解析の鍵となるのは, 多項式等式と不等式が解集合の速度を増加させるような, 位置スケールのガウス混合モデルのパラメータ間の依存性について, 注意深く検討することである。
シミュレーション研究は、この研究の理論的発見を説明する。
関連論文リスト
- Summarizing Bayesian Nonparametric Mixture Posterior -- Sliced Optimal Transport Metrics for Gaussian Mixtures [10.694077392690447]
混合モデルの後方推論を要約する既存の方法は、クラスタリングのための暗黙のランダムパーティションの点推定を同定することに焦点を当てている。
本研究では,非パラメトリックベイズ混合モデルにおける後部推論を要約し,混合度(または混合度)の密度推定を推論対象として優先順位付けする手法を提案する。
論文 参考訳(メタデータ) (2024-11-22T02:15:38Z) - Multivariate root-n-consistent smoothing parameter free matching estimators and estimators of inverse density weighted expectations [51.000851088730684]
我々は、パラメトリックな$sqrt n $-rateで収束する、最も近い隣人の新しい修正とマッチング推定器を開発する。
我々は,非パラメトリック関数推定器は含まないこと,特に標本サイズ依存パラメータの平滑化には依存していないことを強調する。
論文 参考訳(メタデータ) (2024-07-11T13:28:34Z) - On the best approximation by finite Gaussian mixtures [7.084611118322622]
一般ガウス位置混合を有限混合で近似する問題を考える。
所定の精度を達成する有限混合の最小順序は定数係数で決定される。
論文 参考訳(メタデータ) (2024-04-13T06:57:44Z) - Robust scalable initialization for Bayesian variational inference with
multi-modal Laplace approximations [0.0]
フル共分散構造を持つ変分混合は、パラメータ数による変動パラメータによる二次的な成長に苦しむ。
本稿では,変分推論のウォームスタートに使用できる初期ガウスモデル近似を構築する方法を提案する。
論文 参考訳(メタデータ) (2023-07-12T19:30:04Z) - Statistical Efficiency of Score Matching: The View from Isoperimetry [96.65637602827942]
本研究では, スコアマッチングの統計的効率と推定される分布の等尺性との間に, 密接な関係を示す。
これらの結果はサンプル状態と有限状態の両方で定式化する。
論文 参考訳(メタデータ) (2022-10-03T06:09:01Z) - Refined Convergence Rates for Maximum Likelihood Estimation under Finite
Mixture Models [13.769786711365104]
有限混合モデル下での最大極大推定(MLE)の収束率を再検討する。
典型的には, ペナル化されたMLEの成分のサブセットは, 過去に予想されていたよりもはるかに早く収束することが示されている。
論文 参考訳(メタデータ) (2022-02-17T17:46:40Z) - A Robust and Flexible EM Algorithm for Mixtures of Elliptical
Distributions with Missing Data [71.9573352891936]
本稿では、ノイズや非ガウス的なデータに対するデータ計算の欠如に対処する。
楕円分布と潜在的な欠落データを扱う特性を混合した新しいEMアルゴリズムについて検討した。
合成データの実験的結果は,提案アルゴリズムが外れ値に対して頑健であり,非ガウスデータで使用可能であることを示す。
論文 参考訳(メタデータ) (2022-01-28T10:01:37Z) - A similarity-based Bayesian mixture-of-experts model [0.5156484100374058]
多変量回帰問題に対する新しい非パラメトリック混合実験モデルを提案する。
条件付きモデルを用いて、サンプル外入力の予測は、観測された各データポイントと類似性に基づいて行われる。
混合物のパラメータと距離測定値に基づいて後部推論を行う。
論文 参考訳(メタデータ) (2020-12-03T18:08:30Z) - Consistent Estimation of Identifiable Nonparametric Mixture Models from
Grouped Observations [84.81435917024983]
この研究は、グループ化された観測から任意の同定可能な混合モデルを一貫して推定するアルゴリズムを提案する。
ペア化された観測のために実践的な実装が提供され、アプローチは既存の手法より優れていることを示す。
論文 参考訳(メタデータ) (2020-06-12T20:44:22Z) - Minimax Optimal Estimation of KL Divergence for Continuous Distributions [56.29748742084386]
Kullback-Leibler の同一および独立に分布するサンプルからの発散は、様々な領域において重要な問題である。
単純で効果的な推定器の1つは、これらのサンプル間の近辺 k に基づいている。
論文 参考訳(メタデータ) (2020-02-26T16:37:37Z) - Algebraic and Analytic Approaches for Parameter Learning in Mixture
Models [66.96778152993858]
1次元の混合モデルにおけるパラメータ学習のための2つの異なるアプローチを提案する。
これらの分布のいくつかについては、パラメータ推定の最初の保証を示す。
論文 参考訳(メタデータ) (2020-01-19T05:10:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。