論文の概要: SoS Degree Reduction with Applications to Clustering and Robust Moment
Estimation
- arxiv url: http://arxiv.org/abs/2101.01509v1
- Date: Tue, 5 Jan 2021 13:49:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-04-11 11:41:25.102120
- Title: SoS Degree Reduction with Applications to Clustering and Robust Moment
Estimation
- Title(参考訳): sos度低減とクラスタリングとロバストモーメント推定への応用
- Authors: David Steurer, Stefan Tiegel
- Abstract要約: 我々は,新しい変数を導入することにより,二乗証明の総和の程度を大幅に減少させる汎用フレームワークを開発した。
クラスタリングとロバストモーメント推定という2つの重要な推定問題に対して,2乗和に基づくアルゴリズムを高速化する。
- 参考スコア(独自算出の注目度): 3.6042575355093907
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We develop a general framework to significantly reduce the degree of
sum-of-squares proofs by introducing new variables. To illustrate the power of
this framework, we use it to speed up previous algorithms based on
sum-of-squares for two important estimation problems, clustering and robust
moment estimation. The resulting algorithms offer the same statistical
guarantees as the previous best algorithms but have significantly faster
running times. Roughly speaking, given a sample of $n$ points in dimension $d$,
our algorithms can exploit order-$\ell$ moments in time $d^{O(\ell)}\cdot
n^{O(1)}$, whereas a naive implementation requires time $(d\cdot n)^{O(\ell)}$.
Since for the aforementioned applications, the typical sample size is
$d^{\Theta(\ell)}$, our framework improves running times from $d^{O(\ell^2)}$
to $d^{O(\ell)}$.
- Abstract(参考訳): 我々は新しい変数を導入することで2乗証明の総和の度合いを著しく低減する一般的な枠組みを開発する。
このフレームワークのパワーを説明するために、クラスタリングとロバストモーメント推定という2つの重要な推定問題に対する2乗和に基づくアルゴリズムを高速化する。
得られたアルゴリズムは、以前の最高のアルゴリズムと同じ統計的保証を提供するが、実行時間が大幅に速い。
大まかに言えば、次元 $d$ の n$ のサンプルが与えられると、我々のアルゴリズムは、時間 $d^{o(\ell)}\cdot n^{o(1)}$ でorder-\ell$ momentsを活用できるが、単純な実装では $(d\cdot n)^{o(\ell)}$ である。
上記のアプリケーションの場合、典型的なサンプルサイズは $d^{\Theta(\ell)}$ なので、我々のフレームワークは実行時間を $d^{O(\ell^2)}$ から $d^{O(\ell)}$ に改善します。
関連論文リスト
- Inverting the Leverage Score Gradient: An Efficient Approximate Newton Method [10.742859956268655]
本稿では,レバレッジスコア勾配から固有モデルパラメータを復元することを目的とする。
具体的には、レバレッジスコア勾配の逆転を$g(x)$として精査する。
論文 参考訳(メタデータ) (2024-08-21T01:39:42Z) - A Sub-Quadratic Time Algorithm for Robust Sparse Mean Estimation [6.853165736531941]
逆数外乱の存在下でのスパース平均推定のアルゴリズム的問題について検討する。
我々の主な貢献は、$mathrmpoly(k,log d,1/epsilon)$サンプルを用いて、エフェサブクアクラティック時間で実行される頑健なスパース平均推定アルゴリズムである。
論文 参考訳(メタデータ) (2024-03-07T18:23:51Z) - A Scalable Algorithm for Individually Fair K-means Clustering [77.93955971520549]
Jung et al. と Mahabadi et al が導入した個別フェア (p$, $k$) クラスタリング問題に対するスケーラブルなアルゴリズムを提案する。
クラスタリングは、各$xin P$に対して$delta(x)$ of $x$の範囲内で中心となる場合、個別にフェアと呼ばれる。
我々は,従来よりもアルゴリズムがはるかに高速であるだけでなく,低コストのソリューションを生み出すことを実証的に示す。
論文 参考訳(メタデータ) (2024-02-09T19:01:48Z) - Efficient Algorithms for Generalized Linear Bandits with Heavy-tailed
Rewards [40.99322897009357]
トランケーションと平均中央値に基づく2つの新しいアルゴリズムを提案する。
我々のトラニケーションベースのアルゴリズムは、既存のトラニケーションベースのアプローチと区別して、オンライン学習をサポートする。
我々のアルゴリズムは,$epsilon=1$の既存アルゴリズムと比較して,対数係数による後悔境界を改善する。
論文 参考訳(メタデータ) (2023-10-28T13:01:10Z) - Do you know what q-means? [50.045011844765185]
クラスタリングは、大規模なデータセットを分析する上で最も重要なツールの1つである。
クラスタリングのための"$q$-means"アルゴリズムの改良版を提案する。
また、$Obig(frack2varepsilon2(sqrtkd + log(Nd))big で実行される $varepsilon に対する "dequantized" アルゴリズムも提示する。
論文 参考訳(メタデータ) (2023-08-18T17:52:12Z) - An Oblivious Stochastic Composite Optimization Algorithm for Eigenvalue
Optimization Problems [76.2042837251496]
相補的な合成条件に基づく2つの難解なミラー降下アルゴリズムを導入する。
注目すべきは、どちらのアルゴリズムも、目的関数のリプシッツ定数や滑らかさに関する事前の知識なしで機能する。
本稿では,大規模半確定プログラム上での手法の効率性とロバスト性を示す。
論文 参考訳(メタデータ) (2023-06-30T08:34:29Z) - Pseudonorm Approachability and Applications to Regret Minimization [73.54127663296906]
我々は、高次元 $ell_infty$-approachability 問題を、低次元の擬ノルムアプローチ可能性問題に変換する。
我々は、$ell$や他のノルムに対するアプローチ可能性に関する以前の研究に類似した疑似ノルムアプローチ可能性のアルゴリズム理論を開発する。
論文 参考訳(メタデータ) (2023-02-03T03:19:14Z) - Private estimation algorithms for stochastic block models and mixture
models [63.07482515700984]
効率的なプライベート推定アルゴリズムを設計するための一般的なツール。
最初の効率的な$(epsilon, delta)$-differentially private algorithm for both weak recovery and exact recovery。
論文 参考訳(メタデータ) (2023-01-11T09:12:28Z) - Clustering Mixture Models in Almost-Linear Time via List-Decodable Mean
Estimation [58.24280149662003]
本稿では,データセットの大部分を敵が破壊できるリストデコタブル平均推定の問題について検討する。
我々は、ほぼ最適な統計的保証を達成するために、リストデコダブル平均推定のための新しいアルゴリズムを開発した。
論文 参考訳(メタデータ) (2021-06-16T03:34:14Z) - Learning Sparse Classifiers: Continuous and Mixed Integer Optimization
Perspectives [10.291482850329892]
混合整数計画法(MIP)は、(最適に) $ell_0$-正規化回帰問題を解くために用いられる。
数分で5万ドルの機能を処理できる正確なアルゴリズムと、$papprox6$でインスタンスに対処できる近似アルゴリズムの2つのクラスを提案する。
さらに,$ell$-regularizedsに対する新しい推定誤差境界を提案する。
論文 参考訳(メタデータ) (2020-01-17T18:47:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。