論文の概要: Whitening Spherical Gaussian Mixtures in the Large-Dimensional Regime
- arxiv url: http://arxiv.org/abs/2509.17636v1
- Date: Mon, 22 Sep 2025 11:43:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-09-23 18:58:16.350444
- Title: Whitening Spherical Gaussian Mixtures in the Large-Dimensional Regime
- Title(参考訳): 大規模レジームにおける白色球状ガウス混合
- Authors: Mohammed Racim Moussa Boudjemaa, Alper Kalle, Xiaoyi Mai, José Henrique de Morais Goulart, Cédric Févotte,
- Abstract要約: ホワイトニング(Whitening)は、教師なし学習における古典的なテクニックであり、データの標準化によって推定作業を容易にする。
データが高次元かつ少ない大次元レジーム(LDR)では、標準白化行列はスペクトルが歪んでいるため、非効率になる。
- 参考スコア(独自算出の注目度): 9.134244356393664
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Whitening is a classical technique in unsupervised learning that can facilitate estimation tasks by standardizing data. An important application is the estimation of latent variable models via the decomposition of tensors built from high-order moments. In particular, whitening orthogonalizes the means of a spherical Gaussian mixture model (GMM), thereby making the corresponding moment tensor orthogonally decomposable, hence easier to decompose. However, in the large-dimensional regime (LDR) where data are high-dimensional and scarce, the standard whitening matrix built from the sample covariance becomes ineffective because the latter is spectrally distorted. Consequently, whitened means of a spherical GMM are no longer orthogonal. Using random matrix theory, we derive exact limits for their dot products, which are generally nonzero in the LDR. As our main contribution, we then construct a corrected whitening matrix that restores asymptotic orthogonality, allowing for performance gains in spherical GMM estimation.
- Abstract(参考訳): ホワイトニング(Whitening)は、教師なし学習における古典的なテクニックであり、データの標準化によって推定作業を容易にする。
重要な応用は、高次モーメントから構築されたテンソルの分解による潜在変数モデルの推定である。
特に、ホワイトニングは球状ガウス混合モデル(GMM)の手段を直交し、対応するモーメントテンソルを直交的に分解しやすくする。
しかし、データが高次元かつ少ない大次元レジーム(LDR)では、サンプル共分散から構築された標準白化行列は、後者がスペクトル的に歪んでいるため、効果が低下する。
したがって、球面GMMの白色化手段はもはや直交しない。
ランダム行列理論を用いて、LDRでは一般にゼロではない点積の正確な極限を導出する。
主な貢献として、漸近直交を復元し、球面GMM推定の性能向上を可能にする補正された白化行列を構築する。
関連論文リスト
- Conjugate gradient methods for high-dimensional GLMMs [1.9249322453427302]
一般化線形混合モデル(GLMM)は統計解析において広く用いられているツールである。
多くの計算手法の主なボトルネックは、ランダム効果に関連する高次元精度行列の逆転にある。
通常のGLMMに対して、元の精度がスパースである場合でも、Colesky因子は密であることを示す。
そこで我々は,特に共役勾配法 (CG) に近似した反復的手法に目を向ける。
論文 参考訳(メタデータ) (2024-11-07T14:09:12Z) - The Inductive Bias of Flatness Regularization for Deep Matrix
Factorization [58.851514333119255]
この研究は、ディープ線形ネットワークにおけるヘッセン解の最小トレースの帰納バイアスを理解するための第一歩となる。
測定値の標準等尺性(RIP)が1より大きいすべての深さについて、ヘッセンのトレースを最小化することは、対応する終端行列パラメータのシャッテン 1-ノルムを最小化するのとほぼ同値であることを示す。
論文 参考訳(メタデータ) (2023-06-22T23:14:57Z) - The Implicit Bias of Batch Normalization in Linear Models and Two-layer
Linear Convolutional Neural Networks [117.93273337740442]
勾配勾配勾配は、exp(-Omega(log2 t))$収束率でトレーニングデータ上の一様マージン分類器に収束することを示す。
また、バッチ正規化はパッチワイドの均一なマージンに対して暗黙の偏りを持つことを示す。
論文 参考訳(メタデータ) (2023-06-20T16:58:00Z) - Spectral clustering under degree heterogeneity: a case for the random
walk Laplacian [83.79286663107845]
本稿では,ランダムウォークラプラシアンを用いたグラフスペクトル埋め込みが,ノード次数に対して完全に補正されたベクトル表現を生成することを示す。
次数補正ブロックモデルの特別な場合、埋め込みはK個の異なる点に集中し、コミュニティを表す。
論文 参考訳(メタデータ) (2021-05-03T16:36:27Z) - Understanding Implicit Regularization in Over-Parameterized Single Index
Model [55.41685740015095]
我々は高次元単一インデックスモデルのための正規化自由アルゴリズムを設計する。
暗黙正則化現象の理論的保証を提供する。
論文 参考訳(メタデータ) (2020-07-16T13:27:47Z) - Effective Learning of a GMRF Mixture Model [8.336315962271396]
我々はGMMをガウスマルコフ確率場混合モデル(GMRF-MM)に限定することを提案する。
各行列の空間パターンが知られているとき、その行列の最大近似(MLE)の効率的な最適化法を提案する。
GMRFとGMRF-MMの両症例でGLASSOの「偏り」はGLASSOよりも優れていた。
論文 参考訳(メタデータ) (2020-05-18T19:00:14Z) - Mixture model for designs in high dimensional regression and the LASSO [0.0]
LASSOは、回帰モデル bean y & = & Xbeta + z, eean における変数選択の技法である。
本稿では,カラムの潜在的クラスタ化の性質を自然な方法で捉えることができる設計行列の混合モデルを提案する。
論文 参考訳(メタデータ) (2012-10-17T15:10:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。