論文の概要: Robust Learning of Mixtures of Gaussians
- arxiv url: http://arxiv.org/abs/2007.05912v1
- Date: Sun, 12 Jul 2020 05:15:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 06:12:36.568901
- Title: Robust Learning of Mixtures of Gaussians
- Title(参考訳): ガウス系混合物のロバスト学習
- Authors: Daniel M. Kane
- Abstract要約: 我々は、$X$が任意の$d$-次元ガウス多様体の均等な重み付け混合であるときに、$poly(eps)$を総変量で誤りを犯すことを学ぶ。
特に、$X$ が 2 つの任意の$d$次元ガウス多様体の均等な重み付き混合であれば、$X$ a $eps$-fraction からサンプルにアクセスする時間アルゴリズムを考案する。
- 参考スコア(独自算出の注目度): 13.173307471333617
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We resolve one of the major outstanding problems in robust statistics. In
particular, if $X$ is an evenly weighted mixture of two arbitrary
$d$-dimensional Gaussians, we devise a polynomial time algorithm that given
access to samples from $X$ an $\eps$-fraction of which have been adversarially
corrupted, learns $X$ to error $\poly(\eps)$ in total variation distance.
- Abstract(参考訳): 我々はロバスト統計学における主要な課題の1つを解決する。
特に、$X$ が 2 つの任意の$d$-次元ガウス多様体の均等な重み付き混合であれば、逆向きに破損した$X$ a $\eps$-fraction からサンプルにアクセスする多項式時間アルゴリズムを考案し、誤差 $\poly(\eps)$ を全変動距離で学習する。
関連論文リスト
- Sample-Efficient Private Learning of Mixtures of Gaussians [11.392841244701605]
およそ$kd2 + k1.5 d1.75 + k2 d$サンプルは、$k$任意の$d$次元ガウスの混合を学ぶのに十分である。
我々の作業は、以前の最高の結果 [AAL24b] よりも改善され、$d$が$k2$よりもはるかに大きい場合、確実に最適です。
論文 参考訳(メタデータ) (2024-11-04T17:23:52Z) - Learning general Gaussian mixtures with efficient score matching [16.06356123715737]
我々は、$d$次元で$k$ガウシアンの混合を学習する問題を研究する。
我々は、下層の混合成分について分離を前提としない。
我々は、ターゲット混合物から$dmathrmpoly(k/varepsilon)$サンプルを抽出し、サンプル-ポリノミカル時間で実行し、サンプリング器を構築するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-04-29T17:30:36Z) - Learning GMMs with Nearly Optimal Robustness Guarantees [25.313563663123354]
ロバスト性保証は多対数因子に最適である。
我々のアルゴリズムの核心は、不適切な学習問題の解法に対応する方程式の系を緩和する新しい方法である。
論文 参考訳(メタデータ) (2021-04-19T22:14:54Z) - Small Covers for Near-Zero Sets of Polynomials and Learning Latent
Variable Models [56.98280399449707]
我々は、s$ of cardinality $m = (k/epsilon)o_d(k1/d)$ に対して $epsilon$-cover が存在することを示す。
構造的結果に基づいて,いくつかの基本的高次元確率モデル隠れ変数の学習アルゴリズムを改良した。
論文 参考訳(メタデータ) (2020-12-14T18:14:08Z) - Robustly Learning Mixtures of $k$ Arbitrary Gaussians [47.40835932474677]
任意の固定された$k$に対して$k$任意のガウスの混合を$mathbbRd$で頑健に推定する問題に対して、一定数の任意の汚職が存在する場合の時間アルゴリズムを与える。
本研究の主なツールは,2乗法に依拠する効率的な分節クラスタリングアルゴリズムと,Frobeniusノルムおよび低ランク項の誤りを許容する新しいテンソル分解アルゴリズムである。
論文 参考訳(メタデータ) (2020-12-03T17:54:03Z) - Optimal Robust Linear Regression in Nearly Linear Time [97.11565882347772]
学習者が生成モデル$Y = langle X,w* rangle + epsilon$から$n$のサンプルにアクセスできるような高次元頑健な線形回帰問題について検討する。
i) $X$ is L4-L2 hypercontractive, $mathbbE [XXtop]$ has bounded condition number and $epsilon$ has bounded variance, (ii) $X$ is sub-Gaussian with identity second moment and $epsilon$ is
論文 参考訳(メタデータ) (2020-07-16T06:44:44Z) - FANOK: Knockoffs in Linear Time [73.5154025911318]
本稿では,ガウスモデル-Xノックオフを効率的に実装し,大規模特徴選択問題における誤発見率を制御するアルゴリズムについて述べる。
当社のメソッドは、最大50,000ドルという問題でテストしています。
論文 参考訳(メタデータ) (2020-06-15T21:55:34Z) - Robustly Learning any Clusterable Mixture of Gaussians [55.41573600814391]
本研究では,高次元ガウス混合系の対向ロバスト条件下での効率的な学習性について検討する。
理論的に最適に近い誤り証明である$tildeO(epsilon)$の情報を、$epsilon$-corrupted $k$-mixtureで学習するアルゴリズムを提供する。
我々の主な技術的貢献は、ガウス混合系からの新しい頑健な識別可能性証明クラスターであり、これは正方形の定度証明システムによって捉えることができる。
論文 参考訳(メタデータ) (2020-05-13T16:44:12Z) - Curse of Dimensionality on Randomized Smoothing for Certifiable
Robustness [151.67113334248464]
我々は、他の攻撃モデルに対してスムースな手法を拡張することは困難であることを示す。
我々はCIFARに関する実験結果を示し,その理論を検証した。
論文 参考訳(メタデータ) (2020-02-08T22:02:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。