論文の概要: Pair Correlation Factor and the Sample Complexity of Gaussian Mixtures
- arxiv url: http://arxiv.org/abs/2508.03633v1
- Date: Tue, 05 Aug 2025 16:50:33 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-06 18:18:56.080331
- Title: Pair Correlation Factor and the Sample Complexity of Gaussian Mixtures
- Title(参考訳): ガウス混合系の対相関係数と試料複雑度
- Authors: Farzad Aryan,
- Abstract要約: 本稿では,コンポーネント手段のクラスタリングを計測する幾何量であるemphPair correlation Factor (PCF)を紹介する。
最小のギャップとは異なり、PCFはパラメータ回復の難しさをより正確に判断する。
均一な球面の場合、通常の$epsilon-2$以上のサンプルが必要な場合に、サンプルの複雑さ境界を改良したアルゴリズムを与える。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study the problem of learning Gaussian Mixture Models (GMMs) and ask: which structural properties govern their sample complexity? Prior work has largely tied this complexity to the minimum pairwise separation between components, but we demonstrate this view is incomplete. We introduce the \emph{Pair Correlation Factor} (PCF), a geometric quantity capturing the clustering of component means. Unlike the minimum gap, the PCF more accurately dictates the difficulty of parameter recovery. In the uniform spherical case, we give an algorithm with improved sample complexity bounds, showing when more than the usual $\epsilon^{-2}$ samples are necessary.
- Abstract(参考訳): ガウス混合モデル(GMM)の学習問題について検討し、どの構造特性がサンプルの複雑さを制御しているのかを問う。
これまでの作業は、この複雑さをコンポーネント間の最小対分離に大きく結び付けてきましたが、この見方は不完全です。
本稿では,コンポーネント手段のクラスタリングを計測する幾何量である 'emph{Pair correlation Factor} (PCF) を紹介する。
最小のギャップとは異なり、PCFはパラメータ回復の難しさをより正確に判断する。
一様球面の場合、通常の$\epsilon^{-2}$以上のサンプルが必要な場合に、改良されたサンプル複雑性境界を持つアルゴリズムを与える。
関連論文リスト
- Robust Learnability of Sample-Compressible Distributions under Noisy or Adversarial Perturbations [0.723486289593299]
2018年、アシュティアーニらは、分布クラスの構造的性質として、元々リトルストーンとウォーマス (1986) によるエンハンブル圧縮性を再編成した。
我々は、必要かつ十分な条件のセットを条件として、摂動サンプルからでも、サンプル圧縮可能なファミリーが学習可能であることを確証する。
論文 参考訳(メタデータ) (2025-06-07T01:11:50Z) - Nearly Optimal Sample Complexity for Learning with Label Proportions [54.67830198790247]
トレーニングセットの例をバッグにグループ化する部分情報設定であるLLP(Learning from Label Proportions)について検討する。
部分的な可観測性にもかかわらず、ゴールは個々の例のレベルで小さな後悔を達成することである。
我々は, LLPの2乗損失下でのサンプル複雑性について, 標本複雑性が本質的に最適であることを示す。
論文 参考訳(メタデータ) (2025-05-08T15:45:23Z) - Do we really need the Rademacher complexities? [3.683202928838613]
凸クラスにおける2乗損失に関する学習の基本的な問題について検討する。
一般的な信念とは対照的に、最小限の仮定の下では、サンプルの複雑さはラデマッハ複雑性によって支配されないことが証明される。
論文 参考訳(メタデータ) (2025-02-21T00:40:22Z) - Information-Computation Tradeoffs for Learning Margin Halfspaces with
Random Classification Noise [50.64137465792738]
ランダム分類ノイズを用いたPAC$gamma$-marginハーフスペースの問題について検討する。
我々は、問題のサンプル複雑性と計算効率の良いアルゴリズムのサンプル複雑性との間に固有のギャップを示唆する情報計算トレードオフを確立する。
論文 参考訳(メタデータ) (2023-06-28T16:33:39Z) - Sample Complexity of Probability Divergences under Group Symmetry [13.084804346845816]
群不変分布の変分分散推定におけるサンプル複雑性の改善を厳密に定量化する。
ワッサーシュタイン1計量とリプシッツ規則化された$alpha$-divergencesの場合、標本の複雑さの減少は群が有限であれば群のサイズに比例する。
論文 参考訳(メタデータ) (2023-02-03T18:50:15Z) - On-Demand Sampling: Learning Optimally from Multiple Distributions [63.20009081099896]
社会と現実世界の考察は、マルチディストリビューション学習パラダイムの台頭につながっている。
これらの学習パラダイムの最適なサンプル複雑性を確立し、このサンプル複雑性を満たすアルゴリズムを提供する。
アルゴリズムの設計と解析は,ゼロサムゲーム解決のためのオンライン学習手法の拡張によって実現されている。
論文 参考訳(メタデータ) (2022-10-22T19:07:26Z) - Forster Decomposition and Learning Halfspaces with Noise [60.691817861402676]
フォースター変換 (Forster transform) は、分布を優れた反集中特性を持つものに変換する演算である。
本稿では,Forster変換が存在し,効率よく計算できる少数の分布の解離混合として,任意の分布を効率的に分解可能であることを示す。
論文 参考訳(メタデータ) (2021-07-12T17:00:59Z) - The Sample Complexity of Distribution-Free Parity Learning in the Robust
Shuffle Model [11.821892196198457]
我々は$d$-bitパリティ関数の学習のサンプル複雑さが$Omega (2d/2)$であることを示した。
また、単純なシャッフルモデルプロトコルをスケッチし、その結果が$poly(d)$ factorにきついことを示す。
論文 参考訳(メタデータ) (2021-03-29T15:26:02Z) - Revisiting the Sample Complexity of Sparse Spectrum Approximation of
Gaussian Processes [60.479499225746295]
本稿では,ガウス過程に対して,パラメータ空間全体に対して同時に保持可能な保証付きスケーラブルな近似を導入する。
我々の近似は、スパーススペクトルガウス過程(SSGP)のための改良されたサンプル複雑性解析から得られる。
論文 参考訳(メタデータ) (2020-11-17T05:41:50Z) - Robustly Learning any Clusterable Mixture of Gaussians [55.41573600814391]
本研究では,高次元ガウス混合系の対向ロバスト条件下での効率的な学習性について検討する。
理論的に最適に近い誤り証明である$tildeO(epsilon)$の情報を、$epsilon$-corrupted $k$-mixtureで学習するアルゴリズムを提供する。
我々の主な技術的貢献は、ガウス混合系からの新しい頑健な識別可能性証明クラスターであり、これは正方形の定度証明システムによって捉えることができる。
論文 参考訳(メタデータ) (2020-05-13T16:44:12Z) - The EM Algorithm gives Sample-Optimality for Learning Mixtures of
Well-Separated Gaussians [21.780375994511324]
我々は、期待最大化(EM)に対する新しい結果を証明する: EMは、分離された$Omega(sqrtlog k)$の下で局所的に収束することを示す。
我々の結果は、(潜在的に異なる)ガウス成分の事前の知識を前提としない。
論文 参考訳(メタデータ) (2020-02-02T05:09:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。