論文の概要: Learning Mixtures of Gaussians with Censored Data
- arxiv url: http://arxiv.org/abs/2305.04127v1
- Date: Sat, 6 May 2023 19:58:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-09 17:30:08.496960
- Title: Learning Mixtures of Gaussians with Censored Data
- Title(参考訳): 知覚データを用いたガウスの混合学習
- Authors: Wai Ming Tai, Bryon Aragam
- Abstract要約: 本稿では,ガウシアンと検閲データとの混合学習の問題点について考察する。
本稿では,$frac1varepsilonO(k)$サンプルだけで重量を$w_i$,平均$mu_i$を$varepsilon$エラーで推定するアルゴリズムを提案する。
- 参考スコア(独自算出の注目度): 9.053430799456587
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We study the problem of learning mixtures of Gaussians with censored data.
Statistical learning with censored data is a classical problem, with numerous
practical applications, however, finite-sample guarantees for even simple
latent variable models such as Gaussian mixtures are missing. Formally, we are
given censored data from a mixture of univariate Gaussians $$\sum_{i=1}^k w_i
\mathcal{N}(\mu_i,\sigma^2),$$ i.e. the sample is observed only if it lies
inside a set $S$. The goal is to learn the weights $w_i$ and the means $\mu_i$.
We propose an algorithm that takes only $\frac{1}{\varepsilon^{O(k)}}$ samples
to estimate the weights $w_i$ and the means $\mu_i$ within $\varepsilon$ error.
- Abstract(参考訳): ガウシアンと検閲データとの混合学習の問題について検討する。
検閲されたデータを用いた統計的学習は古典的な問題であり、多くの実用的な応用があるが、ガウス混合のような単純な潜在変数モデルに対する有限サンプル保証は欠落している。
正式には、不定値ガウスの混合物である$$\sum_{i=1}^k w_i \mathcal{n}(\mu_i,\sigma^2) から検閲されたデータが与えられる。
目標は、ウェイト $w_i$ と平均 $\mu_i$ を学ぶことである。
我々は、$w_i$と$\varepsilon$エラー内の平均$\mu_i$を推定するために、$\frac{1}{\varepsilon^{o(k)}}$サンプルだけを取るアルゴリズムを提案する。
関連論文リスト
- Dimension-free Private Mean Estimation for Anisotropic Distributions [55.86374912608193]
以前の$mathRd上の分布に関する民間推定者は、次元性の呪いに苦しむ。
本稿では,サンプルの複雑さが次元依存性を改善したアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-11-01T17:59:53Z) - Mixtures of Gaussians are Privately Learnable with a Polynomial Number of Samples [9.649879910148854]
差分プライバシー(DP)制約下におけるガウシアン混合量の推定問題について検討する。
主な結果は、$textpoly(k,d,1/alpha,1/varepsilon,log (1/delta))$サンプルが$k$ Gaussians in $mathbbRd$から$alpha$までを推定するのに十分であることです。
これは GMM の構造的仮定を一切含まない問題に対する最初の有限標本複雑性上界である。
論文 参考訳(メタデータ) (2023-09-07T17:02:32Z) - Near-Optimal Bounds for Learning Gaussian Halfspaces with Random
Classification Noise [50.64137465792738]
この問題に対する効率的なSQアルゴリズムは、少なくとも$Omega(d1/2/(maxp, epsilon)2)$. のサンプル複雑性を必要とする。
我々の下限は、この1/epsilon$に対する二次的依存は、効率的なアルゴリズムに固有のものであることを示唆している。
論文 参考訳(メタデータ) (2023-07-13T18:59:28Z) - Gaussian Mean Testing Made Simple [46.03021473600576]
a distribution $p$ on $mathbbRd$ の i.d. サンプルを考えると、このタスクは以下のケースで高い確率で区別することである。
一ページ解析によるガウス平均検定の極めて単純なアルゴリズムを提案する。
論文 参考訳(メタデータ) (2022-10-25T01:59:13Z) - A Fourier Approach to Mixture Learning [46.995354373649675]
d = O(log k/loglog k)$ dimensions under separation $d/sqrtlog k (modulo factor)。
我々の結果は、分布のフーリエスペクトルの穏やかな条件の下で、非ガウス分布の混合を学習するために容易に拡張できる。
論文 参考訳(メタデータ) (2022-10-05T17:35:46Z) - Multimeasurement Generative Models [7.502947376736449]
我々は、密度$p_X$ in $mathbbRd$を未知分布からサンプリングする問題を学習とサンプリングの問題を$p_mathbfY$ in $mathbbRMd$とする。
論文 参考訳(メタデータ) (2021-12-18T02:11:36Z) - Privately Learning Mixtures of Axis-Aligned Gaussians [12.77304082363491]
ここでは,$widetildeO(k2 d log3/2 (1/delta) / alpha2 varepsilon)$サンプルは,$k$軸整列ガウスの混合を学習するのに十分であることを示す。
混合分布をプライベートに学習する新しい手法を設計する。
論文 参考訳(メタデータ) (2021-06-03T22:34:23Z) - The Sample Complexity of Robust Covariance Testing [56.98280399449707]
i. i. d.
形式 $Z = (1-epsilon) X + epsilon B$ の分布からのサンプル。ここで $X$ はゼロ平均で未知の共分散である Gaussian $mathcalN(0, Sigma)$ である。
汚染がない場合、事前の研究は、$O(d)$サンプルを使用するこの仮説テストタスクの単純なテスターを与えた。
サンプル複雑性の上限が $omega(d2)$ for $epsilon$ an arbitrarily small constant and $gamma であることを証明します。
論文 参考訳(メタデータ) (2020-12-31T18:24:41Z) - Robustly Learning any Clusterable Mixture of Gaussians [55.41573600814391]
本研究では,高次元ガウス混合系の対向ロバスト条件下での効率的な学習性について検討する。
理論的に最適に近い誤り証明である$tildeO(epsilon)$の情報を、$epsilon$-corrupted $k$-mixtureで学習するアルゴリズムを提供する。
我々の主な技術的貢献は、ガウス混合系からの新しい頑健な識別可能性証明クラスターであり、これは正方形の定度証明システムによって捉えることができる。
論文 参考訳(メタデータ) (2020-05-13T16:44:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。