論文の概要: GROS: A General Robust Aggregation Strategy
- arxiv url: http://arxiv.org/abs/2402.15442v1
- Date: Fri, 23 Feb 2024 17:00:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-26 13:51:13.345065
- Title: GROS: A General Robust Aggregation Strategy
- Title(参考訳): GROS: 一般的なロバスト集約戦略
- Authors: Alejandro Cholaquidis, Emilien Joly, Leonardo Moreno
- Abstract要約: 距離空間における推定器を組み合わせるための新しい、非常に一般的な、堅牢な手順が導入された。
最小化が標本を乗っ取ると、同じ(定数まで)準ガウス性が得られることを示す。
GROSの性能は5つのシミュレーション研究により評価した。
- 参考スコア(独自算出の注目度): 49.1574468325115
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: A new, very general, robust procedure for combining estimators in metric
spaces is introduced GROS. The method is reminiscent of the well-known median
of means, as described in \cite{devroye2016sub}. Initially, the sample is
divided into $K$ groups. Subsequently, an estimator is computed for each group.
Finally, these $K$ estimators are combined using a robust procedure. We prove
that this estimator is sub-Gaussian and we get its break-down point, in the
sense of Donoho. The robust procedure involves a minimization problem on a
general metric space, but we show that the same (up to a constant)
sub-Gaussianity is obtained if the minimization is taken over the sample,
making GROS feasible in practice. The performance of GROS is evaluated through
five simulation studies: the first one focuses on classification using
$k$-means, the second one on the multi-armed bandit problem, the third one on
the regression problem. The fourth one is the set estimation problem under a
noisy model. Lastly, we apply GROS to get a robust persistent diagram.
- Abstract(参考訳): 距離空間における推定器を組み合わせるための新しい、非常に一般的な、堅牢な手順がGROSを導入している。
この方法は、よく知られた平均の中央値を想起させるもので、 \cite{devroye2016sub} に記述されている。
まず、サンプルは$k$グループに分割される。
その後、各グループに対する推定値を算出する。
最後に、これらの$K$推定器はロバストな手順で結合される。
この推定器が準ガウジアンであることを証明し、ドノホの意味でそのブレークダウンポイントを得る。
このロバストな手順は、一般計量空間上の最小化問題を含むが、この最小化がサンプルを乗っ取ると、同じ(定数まで)準ガウス性が得られることが示され、実際にGROSが実現可能である。
grosの性能は5つのシミュレーション研究によって評価される: 1つ目は$k$-meansを使った分類、もう1つはマルチアームのバンディット問題、2つ目は回帰問題である。
第4の問題は、ノイズモデルに基づく集合推定問題である。
最後に、grosを堅牢な永続的なダイアグラムに当てはめます。
関連論文リスト
- Learning general Gaussian mixtures with efficient score matching [16.06356123715737]
我々は、$d$次元で$k$ガウシアンの混合を学習する問題を研究する。
我々は、下層の混合成分について分離を前提としない。
我々は、ターゲット混合物から$dmathrmpoly(k/varepsilon)$サンプルを抽出し、サンプル-ポリノミカル時間で実行し、サンプリング器を構築するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2024-04-29T17:30:36Z) - Optimal score estimation via empirical Bayes smoothing [13.685846094715364]
未知確率分布$rho*$のスコア関数を$n$独立分布および$d$次元における同一分布観測から推定する問題について検討する。
ガウスカーネルに基づく正規化スコア推定器は、一致するミニマックス下界によって最適に示され、この値が得られることを示す。
論文 参考訳(メタデータ) (2024-02-12T16:17:40Z) - Hessian Averaging in Stochastic Newton Methods Achieves Superlinear
Convergence [69.65563161962245]
ニュートン法を用いて,滑らかで強凸な目的関数を考える。
最適段階において局所収束に遷移する普遍重み付き平均化スキームが存在することを示す。
論文 参考訳(メタデータ) (2022-04-20T07:14:21Z) - Adaptive Estimation of Random Vectors with Bandit Feedback: A
mean-squared error viewpoint [13.089182408360225]
まず、MSE推定のための濃度を定めます。
次に,帯域幅フィードバックによる推定問題を列挙し,逐次除去アルゴリズムの変種を提案する。
論文 参考訳(メタデータ) (2022-03-31T05:33:32Z) - Distributed Sparse Regression via Penalization [5.990069843501885]
エージェントのネットワーク上の線形回帰を、(集中ノードを持たない)無向グラフとしてモデル化する。
推定問題は、局所的なLASSO損失関数の和とコンセンサス制約の2次ペナルティの最小化として定式化される。
本稿では, ペナル化問題に適用した近似勾配アルゴリズムが, 集中的な統計的誤差の順序の許容値まで線形に収束することを示す。
論文 参考訳(メタデータ) (2021-11-12T01:51:50Z) - Consistent Estimation for PCA and Sparse Regression with Oblivious
Outliers [13.244654316770815]
我々は効率よく計算可能で一貫した推定器を設計する機械を開発する。
スパース回帰では、最適なサンプルサイズ$ngsim (klog d)/alpha2$の整合性を達成する。
PCAの文脈では、パラメータ行列上の広いスパイキネス仮定の下で最適な誤差を保証する。
論文 参考訳(メタデータ) (2021-11-04T15:59:44Z) - Optimal Robust Linear Regression in Nearly Linear Time [97.11565882347772]
学習者が生成モデル$Y = langle X,w* rangle + epsilon$から$n$のサンプルにアクセスできるような高次元頑健な線形回帰問題について検討する。
i) $X$ is L4-L2 hypercontractive, $mathbbE [XXtop]$ has bounded condition number and $epsilon$ has bounded variance, (ii) $X$ is sub-Gaussian with identity second moment and $epsilon$ is
論文 参考訳(メタデータ) (2020-07-16T06:44:44Z) - Sharp Statistical Guarantees for Adversarially Robust Gaussian
Classification [54.22421582955454]
逆向きに頑健な分類の過剰リスクに対する最適ミニマックス保証の最初の結果を提供する。
結果はAdvSNR(Adversarial Signal-to-Noise Ratio)の項で述べられており、これは標準的な線形分類と逆数設定との類似の考え方を一般化している。
論文 参考訳(メタデータ) (2020-06-29T21:06:52Z) - Private Stochastic Non-Convex Optimization: Adaptive Algorithms and
Tighter Generalization Bounds [72.63031036770425]
有界非次元最適化のための差分プライベート(DP)アルゴリズムを提案する。
標準勾配法に対する経験的優位性について,2つの一般的なディープラーニング手法を実証する。
論文 参考訳(メタデータ) (2020-06-24T06:01:24Z) - Learning Minimax Estimators via Online Learning [55.92459567732491]
確率分布のパラメータを推定するミニマックス推定器を設計する際の問題点を考察する。
混合ケースナッシュ平衡を求めるアルゴリズムを構築した。
論文 参考訳(メタデータ) (2020-06-19T22:49:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。