論文の概要: Overspecified Mixture Discriminant Analysis: Exponential Convergence, Statistical Guarantees, and Remote Sensing Applications
- arxiv url: http://arxiv.org/abs/2510.27056v1
- Date: Thu, 30 Oct 2025 23:56:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-03 17:52:15.938275
- Title: Overspecified Mixture Discriminant Analysis: Exponential Convergence, Statistical Guarantees, and Remote Sensing Applications
- Title(参考訳): 過特定混合判別分析:指数収束、統計的保証、リモートセンシング応用
- Authors: Arman Bolatov, Alan Legg, Igor Melnykov, Amantay Nurlanuly, Maxat Tezekbayev, Zhenisbek Assylbekov,
- Abstract要約: 本研究では,混合判別分析(MDA)の分類誤差について,実際のデータ分布に存在する混合成分数を超える場合の分類誤差について検討する。
予測最大化(EM)アルゴリズムのアルゴリズム収束と統計的分類誤差の両方を解析する。
- 参考スコア(独自算出の注目度): 2.124297073085513
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This study explores the classification error of Mixture Discriminant Analysis (MDA) in scenarios where the number of mixture components exceeds those present in the actual data distribution, a condition known as overspecification. We use a two-component Gaussian mixture model within each class to fit data generated from a single Gaussian, analyzing both the algorithmic convergence of the Expectation-Maximization (EM) algorithm and the statistical classification error. We demonstrate that, with suitable initialization, the EM algorithm converges exponentially fast to the Bayes risk at the population level. Further, we extend our results to finite samples, showing that the classification error converges to Bayes risk with a rate $n^{-1/2}$ under mild conditions on the initial parameter estimates and sample size. This work provides a rigorous theoretical framework for understanding the performance of overspecified MDA, which is often used empirically in complex data settings, such as image and text classification. To validate our theory, we conduct experiments on remote sensing datasets.
- Abstract(参考訳): 本研究では,混合識別分析(MDA)の分類誤差について,混合成分の数が実際のデータ分布に存在する成分を超える場合の分類誤差について検討する。
各クラス内で2成分のガウス混合モデルを用いて単一のガウスから生成されたデータに適合し、期待最大化(EM)アルゴリズムのアルゴリズム収束と統計的分類誤差の両方を解析する。
適切な初期化を行うことで,EMアルゴリズムは集団レベルでベイズリスクに指数関数的に収束することを示した。
さらに, 実験結果を有限標本に拡張し, 分類誤差がベイズリスクに収束し, 初期パラメータ推定値と試料サイズについて軽度条件下で$n^{-1/2}$となることを示した。
この研究は、画像やテキストの分類などの複雑なデータ設定で実証的に使用される過度に特定されたMDAの性能を理解するための厳密な理論的枠組みを提供する。
この理論を検証するために,リモートセンシングデータセットの実験を行った。
関連論文リスト
- Network EM Algorithm for Gaussian Mixture Model in Decentralized Federated Learning [1.4549461207028445]
ガウス混合モデルに対する様々なネットワーク期待-最大化(EM)アルゴリズムについて検討する。
モーメント・ネットワークEM (MNEM) アルゴリズムを導入し, モーメント・パラメータを用いて現在の推定値と過去の推定値の両方からの情報を組み合わせる。
また,部分ラベル付きデータを利用する半教師付きMNEMアルゴリズムを開発した。
論文 参考訳(メタデータ) (2024-11-08T14:25:46Z) - Statistical Inference in Classification of High-dimensional Gaussian Mixture [1.2354076490479515]
高次元極限における正規化凸分類器の一般クラスの挙動について検討する。
我々の焦点は、推定器の一般化誤差と変数選択性である。
論文 参考訳(メタデータ) (2024-10-25T19:58:36Z) - The Breakdown of Gaussian Universality in Classification of High-dimensional Linear Factor Mixtures [6.863637695977277]
一般的な混合データ環境下での分類における経験的リスク最小化の高次元的特徴について述べる。
その分解の影響を理解するために、ガウス普遍性の条件を定義し、損失関数の選択に対するそれらの影響について議論する。
論文 参考訳(メタデータ) (2024-10-08T01:45:37Z) - A Robust and Flexible EM Algorithm for Mixtures of Elliptical
Distributions with Missing Data [71.9573352891936]
本稿では、ノイズや非ガウス的なデータに対するデータ計算の欠如に対処する。
楕円分布と潜在的な欠落データを扱う特性を混合した新しいEMアルゴリズムについて検討した。
合成データの実験的結果は,提案アルゴリズムが外れ値に対して頑健であり,非ガウスデータで使用可能であることを示す。
論文 参考訳(メタデータ) (2022-01-28T10:01:37Z) - Riemannian classification of EEG signals with missing values [67.90148548467762]
本稿では脳波の分類に欠落したデータを扱うための2つの方法を提案する。
第1のアプローチでは、インプットされたデータと$k$-nearestの隣人アルゴリズムとの共分散を推定し、第2のアプローチでは、期待最大化アルゴリズム内で観測データの可能性を活用することにより、観測データに依存する。
その結果, 提案手法は観測データに基づく分類よりも優れており, 欠落したデータ比が増大しても高い精度を維持することができることがわかった。
論文 参考訳(メタデータ) (2021-10-19T14:24:50Z) - Learning Gaussian Mixtures with Generalised Linear Models: Precise
Asymptotics in High-dimensions [79.35722941720734]
多クラス分類問題に対する一般化線形モデルは、現代の機械学習タスクの基本的な構成要素の1つである。
実験的リスク最小化による高次元推定器の精度を実証する。
合成データの範囲を超えて我々の理論をどのように適用できるかを論じる。
論文 参考訳(メタデータ) (2021-06-07T16:53:56Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - Asymptotic Analysis of an Ensemble of Randomly Projected Linear
Discriminants [94.46276668068327]
[1]では、ランダムに投影された線形判別式のアンサンブルを用いてデータセットを分類する。
我々は,計算コストのかかるクロスバリデーション推定器の代替として,誤分類確率の一貫した推定器を開発する。
また、実データと合成データの両方で投影次元を調整するための推定器の使用を実証する。
論文 参考訳(メタデータ) (2020-04-17T12:47:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。