論文の概要: Robust penalized least squares of depth trimmed residuals regression for
high-dimensional data
- arxiv url: http://arxiv.org/abs/2309.01666v1
- Date: Mon, 4 Sep 2023 15:33:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-09-06 18:00:54.262693
- Title: Robust penalized least squares of depth trimmed residuals regression for
high-dimensional data
- Title(参考訳): 高次元データに対するロバストペナル化最小2乗の深さトリミング残差回帰
- Authors: Yijun Zuo
- Abstract要約: ビッグデータ時代のデータの課題は、(i)次元$p$がサンプルサイズ$n$(ii)アウトリーチよりも大きいことや、汚染された点がしばしば隠され、検出しにくいことなどである。
本稿では, 文献の強靭性の観点から, 先進的な罰則回帰法を体系的に検討する。
最小2乗の深さトリミング残差に基づく新しい強靭なペナル化回帰法を提案し, 慎重に検討した。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Challenges with data in the big-data era include (i) the dimension $p$ is
often larger than the sample size $n$ (ii) outliers or contaminated points are
frequently hidden and more difficult to detect. Challenge (i) renders most
conventional methods inapplicable. Thus, it attracts tremendous attention from
statistics, computer science, and bio-medical communities. Numerous penalized
regression methods have been introduced as modern methods for analyzing
high-dimensional data. Disproportionate attention has been paid to the
challenge (ii) though. Penalized regression methods can do their job very well
and are expected to handle the challenge (ii) simultaneously. Most of them,
however, can break down by a single outlier (or single adversary contaminated
point) as revealed in this article.
The latter systematically examines leading penalized regression methods in
the literature in terms of their robustness, provides quantitative assessment,
and reveals that most of them can break down by a single outlier. Consequently,
a novel robust penalized regression method based on the least sum of squares of
depth trimmed residuals is proposed and studied carefully. Experiments with
simulated and real data reveal that the newly proposed method can outperform
some leading competitors in estimation and prediction accuracy in the cases
considered.
- Abstract(参考訳): ビッグデータ時代のデータへの挑戦には
(i) 次元 $p$ は、しばしばサンプルサイズ $n$ よりも大きい
(ii)外れ値や汚染点がしばしば隠蔽され、検出が困難になる。
挑戦
(i)ほとんどの従来手法は適用できない。
そのため、統計学、計算機科学、生物医学のコミュニティから大きな注目を集めている。
近代的な高次元データ解析法として, ペナルティ化回帰法が数多く導入されている。
その挑戦に不当な注意が払われた
(ii)だが。
罰則回帰法は、非常にうまく仕事をこなすことができ、課題に対処することが期待される
(ii)同時に。
しかし、そのほとんどは、この記事で明かされているように、1つの外れ値(または1つの敵の汚染点)によって分解することができる。
後者は、その頑健さの観点から文学における重回帰法を体系的に検討し、定量的評価を提供し、それらのほとんどが1つの外れ値で崩壊できることを明らかにする。
その結果, 最小2乗の深さトリミング残差に基づいて, 新たな厳格化回帰法を提案し, 慎重に検討した。
シミュレーションおよび実データを用いた実験により,提案手法は検討された場合の予測精度や予測精度において,先進的な競合に勝ることを示した。
関連論文リスト
- Analysis of Bootstrap and Subsampling in High-dimensional Regularized Regression [29.57766164934947]
統計モデルの不確実性を推定するための一般的な再サンプリング手法について検討する。
一般化線形モデル(英語版)の文脈において、これらの手法によって推定されるバイアスと分散の厳密な記述を提供する。
論文 参考訳(メタデータ) (2024-02-21T08:50:33Z) - Enhancing Consistency and Mitigating Bias: A Data Replay Approach for
Incremental Learning [100.7407460674153]
ディープラーニングシステムは、一連のタスクから学ぶとき、破滅的な忘れがちだ。
問題を緩和するため、新しいタスクを学ぶ際に経験豊富なタスクのデータを再生する手法が提案されている。
しかし、メモリ制約やデータプライバシーの問題を考慮すると、実際には期待できない。
代替として、分類モデルからサンプルを反転させることにより、データフリーなデータ再生法を提案する。
論文 参考訳(メタデータ) (2024-01-12T12:51:12Z) - Deep Ensembles Meets Quantile Regression: Uncertainty-aware Imputation for Time Series [45.76310830281876]
量子回帰に基づくタスクネットワークのアンサンブルを用いて不確実性を推定する新しい手法であるQuantile Sub-Ensemblesを提案する。
提案手法は,高い損失率に頑健な高精度な計算法を生成するだけでなく,非生成モデルの高速な学習により,計算効率も向上する。
論文 参考訳(メタデータ) (2023-12-03T05:52:30Z) - Towards Practical Robustness Auditing for Linear Regression [8.9598796481325]
データセットの小さなサブセットの存在を発見または否定するアルゴリズムについて検討する。
これらの手法は, 技術の状況を大きく上回り, 数次元における回帰問題の堅牢性チェックに有用であることを示す。
我々は、アルゴリズムの頑健な統計学における最近の革新から引き出されたアイデアを用いて、スペクトルアルゴリズムを用いて、この課題を先導する。
論文 参考訳(メタデータ) (2023-07-30T20:47:36Z) - Uncertainty-Aware Instance Reweighting for Off-Policy Learning [63.31923483172859]
本研究では,不確実性を考慮した逆確率スコア推定器 (UIPS) を提案する。
実世界の3つのレコメンデーションデータセットを用いた実験結果から,提案したUIPS推定器の有効サンプル効率が示された。
論文 参考訳(メタデータ) (2023-03-11T11:42:26Z) - A Bayesian Robust Regression Method for Corrupted Data Reconstruction [5.298637115178182]
我々は適応的敵攻撃に抵抗できる効果的なロバスト回帰法を開発した。
まず TRIP (hard Thresholding approach to Robust regression with sImple Prior) アルゴリズムを提案する。
次に、より堅牢なBRHT (robust Bayesian Reweighting regression via Hard Thresholding) アルゴリズムを構築するためにベイズ再重み付け(Bayesian reweighting)というアイデアを用いる。
論文 参考訳(メタデータ) (2022-12-24T17:25:53Z) - Retire: Robust Expectile Regression in High Dimensions [3.9391041278203978]
ペナル化量子化法と期待回帰法は、高次元データの異方性検出に有用な手段を提供する。
我々は,頑健な期待回帰(退職)を提案し,研究する。
提案手法は半平滑なニュートン座標降下アルゴリズムにより効率よく解けることを示す。
論文 参考訳(メタデータ) (2022-12-11T18:03:12Z) - ZigZag: Universal Sampling-free Uncertainty Estimation Through Two-Step Inference [54.17205151960878]
汎用的でデプロイが容易なサンプリング不要のアプローチを導入します。
我々は,最先端手法と同等の信頼性のある不確実性推定を,計算コストを著しく低減した形で生成する。
論文 参考訳(メタデータ) (2022-11-21T13:23:09Z) - Vector-Valued Least-Squares Regression under Output Regularity
Assumptions [73.99064151691597]
最小二乗回帰問題を無限次元出力で解くために,還元ランク法を提案し,解析する。
提案手法の学習バウンダリを導出し、フルランク手法と比較して統計的性能の設定を改善する研究を行う。
論文 参考訳(メタデータ) (2022-11-16T15:07:00Z) - Scale-Equivalent Distillation for Semi-Supervised Object Detection [57.59525453301374]
近年のSemi-Supervised Object Detection (SS-OD) 法は主に自己学習に基づいており、教師モデルにより、ラベルなしデータを監視信号としてハードな擬似ラベルを生成する。
実験結果から,これらの手法が直面する課題を分析した。
本稿では,大規模オブジェクトサイズの分散とクラス不均衡に頑健な簡易かつ効果的なエンド・ツー・エンド知識蒸留フレームワークであるSED(Scale-Equivalent Distillation)を提案する。
論文 参考訳(メタデータ) (2022-03-23T07:33:37Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。