論文の概要: Characterizing Evolution in Expectation-Maximization Estimates for Overspecified Mixed Linear Regression
- arxiv url: http://arxiv.org/abs/2508.10154v1
- Date: Wed, 13 Aug 2025 19:37:59 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-15 22:24:48.099862
- Title: Characterizing Evolution in Expectation-Maximization Estimates for Overspecified Mixed Linear Regression
- Title(参考訳): 過特定混合線形回帰の予測最大化推定における特徴付け進化
- Authors: Zhankun Luo, Abolfazl Hashemi,
- Abstract要約: そこで本研究では,予測最大化アルゴリズムの振る舞いに関する理論的理解を,対象モデルの不特定という文脈で展開する。
統計的精度は$O((d/n)1/2)$であるのに対し、十分にバランスの取れた固定混合重量を持つ場合は$O((d/n)1/4)$$$$$$n$である。
- 参考スコア(独自算出の注目度): 5.883916678819683
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Mixture models have attracted significant attention due to practical effectiveness and comprehensive theoretical foundations. A persisting challenge is model misspecification, which occurs when the model to be fitted has more mixture components than those in the data distribution. In this paper, we develop a theoretical understanding of the Expectation-Maximization (EM) algorithm's behavior in the context of targeted model misspecification for overspecified two-component Mixed Linear Regression (2MLR) with unknown $d$-dimensional regression parameters and mixing weights. In Theorem 5.1 at the population level, with an unbalanced initial guess for mixing weights, we establish linear convergence of regression parameters in $O(\log(1/\epsilon))$ steps. Conversely, with a balanced initial guess for mixing weights, we observe sublinear convergence in $O(\epsilon^{-2})$ steps to achieve the $\epsilon$-accuracy at Euclidean distance. In Theorem 6.1 at the finite-sample level, for mixtures with sufficiently unbalanced fixed mixing weights, we demonstrate a statistical accuracy of $O((d/n)^{1/2})$, whereas for those with sufficiently balanced fixed mixing weights, the accuracy is $O((d/n)^{1/4})$ given $n$ data samples. Furthermore, we underscore the connection between our population level and finite-sample level results: by setting the desired final accuracy $\epsilon$ in Theorem 5.1 to match that in Theorem 6.1 at the finite-sample level, namely letting $\epsilon = O((d/n)^{1/2})$ for sufficiently unbalanced fixed mixing weights and $\epsilon = O((d/n)^{1/4})$ for sufficiently balanced fixed mixing weights, we intuitively derive iteration complexity bounds $O(\log (1/\epsilon))=O(\log (n/d))$ and $O(\epsilon^{-2})=O((n/d)^{1/2})$ at the finite-sample level for sufficiently unbalanced and balanced initial mixing weights. We further extend our analysis in overspecified setting to low SNR regime.
- Abstract(参考訳): 混合モデルは、実用的効果と包括的な理論的基礎のために大きな注目を集めている。
これは、適合するモデルがデータ分散のモデルよりも混合成分が多い場合に発生する。
本稿では,不特定な2成分混合線形回帰(2MLR)に対して,未知の$d$次元回帰パラメータと混合重みを持つターゲットモデルの不特定という文脈において,予測最大化(EM)アルゴリズムの振る舞いを理論的に理解する。
Theorem 5.1 at the population level, with a un balanced initial guess for mix weights, we establish linear convergence of regression parameters in $O(\log(1/\epsilon)$ steps。
逆に、ウェイトを混合するためのバランスの取れた初期推定により、ユークリッド距離での$\epsilon$-精度を達成するために$O(\epsilon^{-2})$のステップでのサブ線形収束を観測する。
有限サンプルレベルでのTheorem 6.1では、十分にバランスの取れていない固定混合重量の混合物に対して、統計的精度は$O((d/n)^{1/2})$であるが、十分にバランスの取れた固定混合重量の場合には$O((d/n)^{1/4})$$$$$$$n$のデータサンプルを示す。
さらに、所望の最終精度$\epsilon$ in Theorem 5.1を有限サンプルレベルで設定することで、不均衡な固定混合重量に対して$\epsilon = O((d/n)^{1/2})$を、十分にバランスの取れた固定混合重量に対して$\epsilon = O((d/n)^{1/4})$を、十分にバランスの取れた固定混合重量に対して$O(\log (1/\epsilon))=O(\log (n/d))$と$O(\epsilon^{-2)=O(n/d)$を、有限アンバランスな混合重量に対して$O(\log (1/\epsilon)=O(\log (n/d)$と$O(\epsilon-2)=O(n/d1/2)$を直感的に導出する。
我々はさらに、過剰な設定で分析を低SNR体制にまで拡張する。
関連論文リスト
- Semidefinite programming relaxations and debiasing for MAXCUT-based clustering [1.9761774213809036]
2つのガウス分布を$mathbbRp$で混合して引き出す小さなデータサンプルを$n$で分割する問題を考察する。
グラフ上の最大カットを求めるように定式化された整数二次プログラムの半定値プログラミング緩和を用いる。
論文 参考訳(メタデータ) (2024-01-16T03:14:24Z) - Breaking the Heavy-Tailed Noise Barrier in Stochastic Optimization Problems [56.86067111855056]
構造密度の重み付き雑音によるクリップ最適化問題を考察する。
勾配が有限の順序モーメントを持つとき、$mathcalO(K-(alpha - 1)/alpha)$よりも高速な収束率が得られることを示す。
得られた推定値が無視可能なバイアスと制御可能な分散を持つことを示す。
論文 参考訳(メタデータ) (2023-11-07T17:39:17Z) - A Unified Framework for Uniform Signal Recovery in Nonlinear Generative
Compressed Sensing [68.80803866919123]
非線形測定では、ほとんどの先行結果は一様ではない、すなわち、すべての$mathbfx*$に対してではなく、固定された$mathbfx*$に対して高い確率で保持される。
本フレームワークはGCSに1ビット/一様量子化観測と単一インデックスモデルを標準例として適用する。
また、指標集合が計量エントロピーが低い製品プロセスに対して、より厳密な境界を生み出す濃度不等式も開発する。
論文 参考訳(メタデータ) (2023-09-25T17:54:19Z) - A Simple Proof of the Mixing of Metropolis-Adjusted Langevin Algorithm
under Smoothness and Isoperimetry [4.657614491309671]
MALAは$Oleft(frac(LUpsilon)frac12psi_mu2 logleft(frac1epsilonright)right logleft(frac1epsilonright)rightで混合する。
MALAは$Oleft(frac(LUpsilon)frac12psi_mu2 logleft(frac1epsilonright)rightで混在している。
論文 参考訳(メタデータ) (2023-04-08T20:17:29Z) - Mean-Square Analysis with An Application to Optimal Dimension Dependence
of Langevin Monte Carlo [60.785586069299356]
この研究は、2-ワッサーシュタイン距離におけるサンプリング誤差の非同相解析のための一般的な枠組みを提供する。
我々の理論解析は数値実験によってさらに検証される。
論文 参考訳(メタデータ) (2021-09-08T18:00:05Z) - Optimal Robust Linear Regression in Nearly Linear Time [97.11565882347772]
学習者が生成モデル$Y = langle X,w* rangle + epsilon$から$n$のサンプルにアクセスできるような高次元頑健な線形回帰問題について検討する。
i) $X$ is L4-L2 hypercontractive, $mathbbE [XXtop]$ has bounded condition number and $epsilon$ has bounded variance, (ii) $X$ is sub-Gaussian with identity second moment and $epsilon$ is
論文 参考訳(メタデータ) (2020-07-16T06:44:44Z) - Sample Complexity of Asynchronous Q-Learning: Sharper Analysis and
Variance Reduction [63.41789556777387]
非同期Q-ラーニングはマルコフ決定過程(MDP)の最適行動値関数(またはQ-関数)を学習することを目的としている。
Q-関数の入出力$varepsilon$-正確な推定に必要なサンプルの数は、少なくとも$frac1mu_min (1-gamma)5varepsilon2+ fract_mixmu_min (1-gamma)$の順である。
論文 参考訳(メタデータ) (2020-06-04T17:51:00Z) - A Precise High-Dimensional Asymptotic Theory for Boosting and
Minimum-$\ell_1$-Norm Interpolated Classifiers [3.167685495996986]
本稿では,分離可能なデータの強化に関する高精度な高次元理論を確立する。
統計モデルのクラスでは、ブースティングの普遍性誤差を正確に解析する。
また, 推力試験誤差と最適ベイズ誤差の関係を明示的に説明する。
論文 参考訳(メタデータ) (2020-02-05T00:24:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。