論文の概要: Outlier-robust Estimation of a Sparse Linear Model Using Invexity
- arxiv url: http://arxiv.org/abs/2306.12678v1
- Date: Thu, 22 Jun 2023 05:48:25 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-23 15:25:37.265948
- Title: Outlier-robust Estimation of a Sparse Linear Model Using Invexity
- Title(参考訳): invexityを用いたスパース線形モデルのoutlier-robust推定
- Authors: Adarsh Barik and Jean Honorio
- Abstract要約: 本稿では,外乱サンプルの存在下での正答率でスパース回帰ベクトルを推定する問題について検討する。
クリーンサンプルを同定する外乱ラッソのバージョンを提案する。
また,この問題に対する新しい凸緩和法を提供し,この緩和に関する理論的な保証を提供する。
- 参考スコア(独自算出の注目度): 31.061339148448006
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we study problem of estimating a sparse regression vector with
correct support in the presence of outlier samples. The inconsistency of
lasso-type methods is well known in this scenario. We propose a combinatorial
version of outlier-robust lasso which also identifies clean samples.
Subsequently, we use these clean samples to make a good estimation. We also
provide a novel invex relaxation for the combinatorial problem and provide
provable theoretical guarantees for this relaxation. Finally, we conduct
experiments to validate our theory and compare our results against standard
lasso.
- Abstract(参考訳): 本稿では,外乱サンプルの存在下での正しい支持でスパース回帰ベクトルを推定する問題について検討する。
ラッソ型手法の不整合はこのシナリオでよく知られている。
クリーンサンプルを識別するoutlier-robust lassoの組合せバージョンを提案する。
その後、これらのクリーンなサンプルを使用して良い評価を行う。
また、組合せ問題に対する新しい凸緩和を提供し、この緩和に対する証明可能な理論的保証を提供する。
最後に、我々は理論を検証する実験を行い、結果を標準ラッソと比較する。
関連論文リスト
- Distribution Estimation under the Infinity Norm [19.997465098927858]
我々は$ell_infty$ノルムの下で離散確率分布を推定するための新しい境界を示す。
我々のデータ依存収束保証は、現在知られている結果に対して最大極大推定器を著しく改善する。
論文 参考訳(メタデータ) (2024-02-13T12:49:50Z) - Which Pretrain Samples to Rehearse when Finetuning Pretrained Models? [60.59376487151964]
特定のタスクに関する微調整済みモデルが、テキストとビジョンタスクの事実上のアプローチになった。
このアプローチの落とし穴は、微調整中に起こる事前学習の知識を忘れることである。
本研究では,実際に忘れられているサンプルを識別・優先順位付けする新しいサンプリング手法であるmix-cdを提案する。
論文 参考訳(メタデータ) (2024-02-12T22:32:12Z) - Rethinking Collaborative Metric Learning: Toward an Efficient
Alternative without Negative Sampling [156.7248383178991]
コラボレーティブ・メトリック・ラーニング(CML)パラダイムはレコメンデーション・システム(RS)分野に広く関心を集めている。
負のサンプリングが一般化誤差のバイアス付き推定に繋がることがわかった。
そこで我々は,SFCML (textitSampling-Free Collaborative Metric Learning) という名前のCMLに対して,負のサンプリングを伴わない効率的な手法を提案する。
論文 参考訳(メタデータ) (2022-06-23T08:50:22Z) - Bayes Classification using an approximation to the Joint Probability
Distribution of the Attributes [1.0660480034605242]
本研究では,テストサンプルの近傍の情報を用いて条件付き確率を推定する手法を提案する。
本稿では,カリフォルニア大学アーバイン校(UCI)の機械学習リポジトリから得られた幅広いデータセットに対する提案手法の性能について述べる。
論文 参考訳(メタデータ) (2022-05-29T22:24:02Z) - An Analysis of Ensemble Sampling [28.18592417451813]
アンサンブルサンプリングは、モデルパラメータの正確な後部分布を維持する際に、トンプソンサンプリングの実用的な近似として機能する。
線形バンディット問題にアンサンブルサンプリングを適用する際に望ましい振る舞いを確実にするベイズ後悔境界を確立する。
論文 参考訳(メタデータ) (2022-03-02T18:41:22Z) - The Adaptive Doubly Robust Estimator for Policy Evaluation in Adaptive
Experiments and a Paradox Concerning Logging Policy [13.772109618082382]
適応実験から得られた依存サンプルに対する2重頑健(DR)推定器を提案する。
提案するDR推定器は,他の推定器と比較して優れた性能を示す傾向にあるという実証的パラドックスを報告する。
論文 参考訳(メタデータ) (2020-10-08T06:42:48Z) - Good Classifiers are Abundant in the Interpolating Regime [64.72044662855612]
補間分類器間のテストエラーの完全な分布を正確に計算する手法を開発した。
テストエラーは、最悪の補間モデルのテストエラーから大きく逸脱する、小さな典型的な$varepsilon*$に集中する傾向にある。
以上の結果から,統計的学習理論における通常の解析手法は,実際に観測された優れた一般化性能を捉えるのに十分な粒度にはならない可能性が示唆された。
論文 参考訳(メタデータ) (2020-06-22T21:12:31Z) - Nonparametric Score Estimators [49.42469547970041]
未知分布によって生成されたサンプルの集合からスコアを推定することは確率モデルの推論と学習における基本的なタスクである。
正規化非パラメトリック回帰の枠組みの下で、これらの推定器の統一的なビューを提供する。
カールフリーカーネルと高速収束による計算効果を享受する反復正規化に基づくスコア推定器を提案する。
論文 参考訳(メタデータ) (2020-05-20T15:01:03Z) - Efficiently Sampling Functions from Gaussian Process Posteriors [76.94808614373609]
高速後部サンプリングのための簡易かつ汎用的なアプローチを提案する。
分離されたサンプルパスがガウス過程の後部を通常のコストのごく一部で正確に表現する方法を実証する。
論文 参考訳(メタデータ) (2020-02-21T14:03:16Z) - Estimating Gradients for Discrete Random Variables by Sampling without
Replacement [93.09326095997336]
我々は、置換のないサンプリングに基づいて、離散確率変数に対する期待値の偏りのない推定器を導出する。
推定器は3つの異なる推定器のラオ・ブラックウェル化として導出可能であることを示す。
論文 参考訳(メタデータ) (2020-02-14T14:15:18Z) - On Contrastive Learning for Likelihood-free Inference [20.49671736540948]
Likelihood-freeメソッドは、可能性を評価することができるシミュレータモデルでパラメータ推論を行う。
この可能性のない問題の方法の1つのクラスは、パラメータ観測サンプルのペアを区別するために分類器を使用する。
別の一般的な手法のクラスは、パラメータの後方に直接条件分布を適合させ、特に最近の変種はフレキシブルな神経密度推定器の使用を可能にする。
論文 参考訳(メタデータ) (2020-02-10T13:14:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。