論文の概要: Robust Lasso-Zero for sparse corruption and model selection with missing
covariates
- arxiv url: http://arxiv.org/abs/2005.05628v2
- Date: Wed, 23 Mar 2022 15:04:10 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-03 19:43:50.210572
- Title: Robust Lasso-Zero for sparse corruption and model selection with missing
covariates
- Title(参考訳): スパース汚職に対するロバスト・ラッソ・ゼロと補変数の欠如によるモデル選択
- Authors: Pascaline Descloux (UNIGE), Claire Boyer, Julie Josse (CRISAM), Aude
Sportisse, Sylvain Sardy
- Abstract要約: スパース汚職問題に対するラッソ・ゼロ法の拡張であるロバスト・ラッソ・ゼロを提案する。
我々は、Thresholded Justice Pursuitと呼ばれる推定器のわずかに単純化されたバージョンのパラメータの記号回復に関する理論的保証を与える。
- 参考スコア(独自算出の注目度): 7.69971486557519
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose Robust Lasso-Zero, an extension of the Lasso-Zero methodology,
initially introduced for sparse linear models, to the sparse corruptions
problem. We give theoretical guarantees on the sign recovery of the parameters
for a slightly simplified version of the estimator, called Thresholded Justice
Pursuit. The use of Robust Lasso-Zero is showcased for variable selection with
missing values in the covariates. In addition to not requiring the
specification of a model for the covariates, nor estimating their covariance
matrix or the noise variance, the method has the great advantage of handling
missing not-at random values without specifying a parametric model. Numerical
experiments and a medical application underline the relevance of Robust
Lasso-Zero in such a context with few available competitors. The method is easy
to use and implemented in the R library lass0.
- Abstract(参考訳): スパース線形モデルに対して最初に導入されたラッソ・ゼロ法の拡張であるロバスト・ラッソ・ゼロをスパース汚職問題に対して提案する。
我々は、Thresholded Justice Pursuitと呼ばれる推定器のわずかに単純化されたバージョンのパラメータの記号回復に関する理論的保証を与える。
Robust Lasso-Zero の使用は、共変量に欠落した値を持つ変数選択のために示される。
共変量モデルの仕様を必要とせず、共変量行列やノイズ分散を推定するだけでなく、パラメトリックモデルを特定することなく、欠落した不一致値を扱うという大きな利点がある。
数値実験と医学的応用は、利用可能な競争相手がほとんどいないような文脈におけるロバストなラッソゼロの関連性を基礎としている。
このメソッドは簡単に使用でき、Rライブラリ lass0で実装されている。
関連論文リスト
- Lasso with Latents: Efficient Estimation, Covariate Rescaling, and
Computational-Statistical Gaps [29.13944209460543]
本研究では、観測されていない潜伏変数から強い相関関係が生じる自然なスパース線形回帰設定を提案する。
この設定では、強い相関関係に起因する問題を解析し、驚くほど単純な修正を設計する。
結果として生じる「再スケールされたラッソ」アルゴリズムのサンプルの複雑さは、(最悪の場合)下層の信号の間隔に二次的に依存する。
論文 参考訳(メタデータ) (2024-02-23T16:16:38Z) - Convergence of uncertainty estimates in Ensemble and Bayesian sparse
model discovery [4.446017969073817]
ブートストラップに基づく逐次しきい値最小二乗推定器による雑音に対する精度と頑健性の観点から経験的成功を示す。
このブートストラップに基づくアンサンブル手法は,誤差率の指数収束率で,確率的に正しい可変選択を行うことができることを示す。
論文 参考訳(メタデータ) (2023-01-30T04:07:59Z) - One-Pixel Shortcut: on the Learning Preference of Deep Neural Networks [28.502489028888608]
Unlearnable Example (ULE) は、DNNのトレーニングのための不正使用からデータを保護することを目的としている。
逆行訓練では、誤り最小化ノイズの非学習性は著しく低下する。
本稿では,各画像の1ピクセルのみを摂動させ,データセットを学習不能にする,新しいモデルフリー手法であるemphOne-Pixel Shortcutを提案する。
論文 参考訳(メタデータ) (2022-05-24T15:17:52Z) - Improved, Deterministic Smoothing for L1 Certified Robustness [119.86676998327864]
分割雑音を伴う非加法的決定論的平滑化法(dssn)を提案する。
一様加法平滑化とは対照的に、ssn認証は無作為なノイズコンポーネントを独立に必要としない。
これは、規範ベースの敵対的脅威モデルに対して決定論的「ランダム化平滑化」を提供する最初の仕事である。
論文 参考訳(メタデータ) (2021-03-17T21:49:53Z) - Learnable Boundary Guided Adversarial Training [66.57846365425598]
私たちは、あるクリーンモデルからのモデルロジットを使用して、別のロバストモデルの学習をガイドします。
我々は、CIFAR-100上で、追加の実データや合成データなしで、新しい最先端のロバスト性を実現する。
論文 参考訳(メタデータ) (2020-11-23T01:36:05Z) - Nearly Dimension-Independent Sparse Linear Bandit over Small Action
Spaces via Best Subset Selection [71.9765117768556]
本研究では,高次元線形モデルの下での文脈的帯域問題について考察する。
この設定は、パーソナライズされたレコメンデーション、オンライン広告、パーソナライズされた医療など、不可欠な応用を見出す。
本稿では,最適部分集合選択法を用いて2重成長エポックを推定する手法を提案する。
論文 参考訳(メタデータ) (2020-09-04T04:10:39Z) - On Lower Bounds for Standard and Robust Gaussian Process Bandit
Optimization [55.937424268654645]
有界ノルムを持つ関数のブラックボックス最適化問題に対するアルゴリズム非依存な下界を考える。
本稿では, 単純さ, 汎用性, エラー確率への依存性の向上など, 後悔の下位境界を導出するための新しい証明手法を提案する。
論文 参考訳(メタデータ) (2020-08-20T03:48:14Z) - Novelty Detection via Robust Variational Autoencoding [13.664682865991255]
本稿では,トレーニングポイントの破壊を許容する新規性検出法を提案する。
本手法は,非破壊訓練点のモデルを生成することを目的とした,ロバストな変分オートエンコーダ(VAE)を訓練する。
論文 参考訳(メタデータ) (2020-06-09T22:34:27Z) - What needles do sparse neural networks find in nonlinear haystacks [0.0]
人工ニューラルネットワーク(ANN)におけるスパーシリティ誘導ペナルティは、特にノイズが高く、トレーニングセットが小さい状況において、過度な適合を避ける。
線形モデルの場合、そのようなアプローチは、適切なコセンのペナルティパラメータに対するレギュレーションにおいて高い確率で重要な特徴を確実に回復する。
簡単なモデルを用いてモンテカルロシミュレーションを行い,提案手法の有効性を示した。
論文 参考訳(メタデータ) (2020-06-07T04:46:55Z) - Preventing Posterior Collapse with Levenshtein Variational Autoencoder [61.30283661804425]
我々は,エビデンス・ロー・バウンド(ELBO)を最適化し,後部崩壊を防止できる新しい目的に置き換えることを提案する。
本稿では,Levenstein VAEが後方崩壊防止のための代替手法よりも,より情報的な潜伏表現を生成することを示す。
論文 参考訳(メタデータ) (2020-04-30T13:27:26Z) - SUMO: Unbiased Estimation of Log Marginal Probability for Latent
Variable Models [80.22609163316459]
無限級数のランダム化トランケーションに基づく潜在変数モデルに対して、ログ境界確率の非バイアス推定器とその勾配を導入する。
推定器を用いてトレーニングしたモデルは、同じ平均計算コストに対して、標準的な重要度サンプリングに基づくアプローチよりも優れたテストセット確率を与えることを示す。
論文 参考訳(メタデータ) (2020-04-01T11:49:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。