論文の概要: Parsimonious Gaussian mixture models with piecewise-constant eigenvalue profiles
- arxiv url: http://arxiv.org/abs/2507.01542v1
- Date: Wed, 02 Jul 2025 09:52:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:23:00.138872
- Title: Parsimonious Gaussian mixture models with piecewise-constant eigenvalue profiles
- Title(参考訳): ピースワイズ定数固有値プロファイルを持つ擬似ガウス混合モデル
- Authors: Tom Szwagier, Pierre-Alexandre Mattei, Charles Bouveyron, Xavier Pennec,
- Abstract要約: 我々は,一対一の共分散固有値プロファイルを持つ擬似GMMの新たなファミリーを導入する。
様々な教師なし実験において、我々のモデルによって達成された、優れた可能性とパーシモニーのトレードオフを示す。
- 参考スコア(独自算出の注目度): 16.798207551231872
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Gaussian mixture models (GMMs) are ubiquitous in statistical learning, particularly for unsupervised problems. While full GMMs suffer from the overparameterization of their covariance matrices in high-dimensional spaces, spherical GMMs (with isotropic covariance matrices) certainly lack flexibility to fit certain anisotropic distributions. Connecting these two extremes, we introduce a new family of parsimonious GMMs with piecewise-constant covariance eigenvalue profiles. These extend several low-rank models like the celebrated mixtures of probabilistic principal component analyzers (MPPCA), by enabling any possible sequence of eigenvalue multiplicities. If the latter are prespecified, then we can naturally derive an expectation-maximization (EM) algorithm to learn the mixture parameters. Otherwise, to address the notoriously-challenging issue of jointly learning the mixture parameters and hyperparameters, we propose a componentwise penalized EM algorithm, whose monotonicity is proven. We show the superior likelihood-parsimony tradeoffs achieved by our models on a variety of unsupervised experiments: density fitting, clustering and single-image denoising.
- Abstract(参考訳): ガウス混合モデル(GMM)は統計学習において、特に教師なし問題に対してユビキタスである。
フル GMM は高次元空間における共分散行列の過度パラメータ化に悩まされるが、球面 GMM (等方共分散行列を持つ) はある種の異方性分布に適合する柔軟性を欠いている。
これら2つのエフェクトを接続し、一括的に共分散固有値プロファイルを持つ擬似GMMの新しいファミリーを導入する。
これらは、確率的主成分分析器(MPPCA)の豊富な混合のようないくつかの低ランクモデルを拡張し、任意の固有値乗数列を可能にする。
後者が事前に指定されている場合、混合パラメータを学習するための期待最大化(EM)アルゴリズムを自然に導き出すことができる。
そうでなければ、混合パラメータとハイパーパラメータを共同で学習する悪名高い問題に対処するために、単調性を証明した成分的にペナル化されたEMアルゴリズムを提案する。
我々は、密度適合性、クラスタリング、単一画像のデノベーションなど、教師なしの実験において、我々のモデルによって達成された優れた可能性とパーシモニーのトレードオフを示す。
関連論文リスト
- Toward Global Convergence of Gradient EM for Over-Parameterized Gaussian Mixture Models [47.294535652946095]
ガウス混合モデル(GMM)の勾配予測-最大化(EM)アルゴリズムについて検討する。
これは、2ドル以上の成分を持つガウス混合に対する最初の大域収束結果である。
論文 参考訳(メタデータ) (2024-06-29T16:44:29Z) - Adaptive Fuzzy C-Means with Graph Embedding [84.47075244116782]
ファジィクラスタリングアルゴリズムは、大まかに2つの主要なグループに分類できる: ファジィC平均法(FCM)と混合モデルに基づく方法。
本稿では,FCMを用いたクラスタリングモデルを提案する。
論文 参考訳(メタデータ) (2024-05-22T08:15:50Z) - Robust scalable initialization for Bayesian variational inference with
multi-modal Laplace approximations [0.0]
フル共分散構造を持つ変分混合は、パラメータ数による変動パラメータによる二次的な成長に苦しむ。
本稿では,変分推論のウォームスタートに使用できる初期ガウスモデル近似を構築する方法を提案する。
論文 参考訳(メタデータ) (2023-07-12T19:30:04Z) - On the properties of Gaussian Copula Mixture Models [0.0]
本稿では,GCMMの数学的定義を示し,その可能性関数の性質について検討する。
本論文では,コプラの混合に対するパラメータを推定するための拡張期待アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-05-02T14:59:37Z) - A Robust and Flexible EM Algorithm for Mixtures of Elliptical
Distributions with Missing Data [71.9573352891936]
本稿では、ノイズや非ガウス的なデータに対するデータ計算の欠如に対処する。
楕円分布と潜在的な欠落データを扱う特性を混合した新しいEMアルゴリズムについて検討した。
合成データの実験的結果は,提案アルゴリズムが外れ値に対して頑健であり,非ガウスデータで使用可能であることを示す。
論文 参考訳(メタデータ) (2022-01-28T10:01:37Z) - Learning Gaussian Mixtures with Generalised Linear Models: Precise
Asymptotics in High-dimensions [79.35722941720734]
多クラス分類問題に対する一般化線形モデルは、現代の機械学習タスクの基本的な構成要素の1つである。
実験的リスク最小化による高次元推定器の精度を実証する。
合成データの範囲を超えて我々の理論をどのように適用できるかを論じる。
論文 参考訳(メタデータ) (2021-06-07T16:53:56Z) - A Rigorous Link Between Self-Organizing Maps and Gaussian Mixture Models [78.6363825307044]
本研究は、自己組織化マップ(SOM)とガウス混合モデル(GMM)の関係を数学的に扱うものである。
我々は,エネルギーベースSOMモデルを勾配勾配下降と解釈できることを示した。
このリンクはSOMsを生成確率モデルとして扱うことができ、SOMsを使用して外れ値を検出したりサンプリングしたりするための正式な正当性を与える。
論文 参考訳(メタデータ) (2020-09-24T14:09:04Z) - Clustering of non-Gaussian data by variational Bayes for normal inverse
Gaussian mixture models [0.0]
実際の状況では、重い尾を持つ非ガウス的データや非対称なデータが多く存在する。
NIG混合モデルでは、期待最大化法と変分ベイズアルゴリズムの両方が提案されている。
NIG混合のための別のVBアルゴリズムを提案し、欠点を改善する。
また,クラスタ数決定の難しさを克服するため,ディリクレプロセス混合モデルの拡張も提案する。
論文 参考訳(メタデータ) (2020-09-13T14:13:27Z) - Self-regularizing Property of Nonparametric Maximum Likelihood Estimator
in Mixture Models [39.27013036481509]
一般ガウス混合に対する非パラメトリック最大度(NPMLE)モデルを導入する。
サンプルサイズに基づくNPMLEは高い確率で$O(log n)$原子(質量点)を持つことを示す。
特に、任意の混合は、$Olog選択を持つ有限の混合から統計的に入っている。
論文 参考訳(メタデータ) (2020-08-19T03:39:13Z) - Algebraic and Analytic Approaches for Parameter Learning in Mixture
Models [66.96778152993858]
1次元の混合モデルにおけるパラメータ学習のための2つの異なるアプローチを提案する。
これらの分布のいくつかについては、パラメータ推定の最初の保証を示す。
論文 参考訳(メタデータ) (2020-01-19T05:10:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。