論文の概要: A Statistical Learning Assessment of Huber Regression
- arxiv url: http://arxiv.org/abs/2009.12755v1
- Date: Sun, 27 Sep 2020 06:08:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-14 03:27:20.667725
- Title: A Statistical Learning Assessment of Huber Regression
- Title(参考訳): フーバー回帰の統計的学習評価
- Authors: Yunlong Feng and Qiang Wu
- Abstract要約: 本研究では,ハマー回帰推定器の通常のリスク整合性は,平均回帰における学習可能性を保証することができないことを示す。
また、平均回帰を実行するために、Huberレグレッションは適応的な方法で実装されるべきであると主張する。
フーバー回帰推定器の収束率をほぼ確実に設定する。
- 参考スコア(独自算出の注目度): 8.834480010537229
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: As one of the triumphs and milestones of robust statistics, Huber regression
plays an important role in robust inference and estimation. It has also been
finding a great variety of applications in machine learning. In a parametric
setup, it has been extensively studied. However, in the statistical learning
context where a function is typically learned in a nonparametric way, there is
still a lack of theoretical understanding of how Huber regression estimators
learn the conditional mean function and why it works in the absence of
light-tailed noise assumptions. To address these fundamental questions, we
conduct an assessment of Huber regression from a statistical learning
viewpoint. First, we show that the usual risk consistency property of Huber
regression estimators, which is usually pursued in machine learning, cannot
guarantee their learnability in mean regression. Second, we argue that Huber
regression should be implemented in an adaptive way to perform mean regression,
implying that one needs to tune the scale parameter in accordance with the
sample size and the moment condition of the noise. Third, with an adaptive
choice of the scale parameter, we demonstrate that Huber regression estimators
can be asymptotic mean regression calibrated under $(1+\epsilon)$-moment
conditions ($\epsilon>0$). Last but not least, under the same moment
conditions, we establish almost sure convergence rates for Huber regression
estimators. Note that the $(1+\epsilon)$-moment conditions accommodate the
special case where the response variable possesses infinite variance and so the
established convergence rates justify the robustness feature of Huber
regression estimators. In the above senses, the present study provides a
systematic statistical learning assessment of Huber regression estimators and
justifies their merits in terms of robustness from a theoretical viewpoint.
- Abstract(参考訳): 強固な統計の勝利とマイルストーンの1つとして、フーバー回帰は強固な推論と推定において重要な役割を果たす。
また、機械学習の様々な応用も発見されている。
パラメトリックな設定では、広く研究されている。
しかし、関数が通常非パラメトリックな方法で学習される統計的学習コンテキストでは、フーバー回帰推定器が条件付き平均関数をどのように学習するか、そしてそれが光尾付き雑音仮定がなければなぜ機能するのかについての理論的理解が不足している。
これらの基本的な問題に対処するため,統計的学習の観点からハマー回帰を評価する。
まず,機械学習で通常実施されているフーバー回帰推定器のリスク一貫性特性は,平均回帰における学習可能性を保証することができないことを示す。
第二に、フーバー回帰は平均回帰を行うために適応的に実装されるべきであり、ノイズのサンプルサイズとモーメント条件に応じてスケールパラメータを調整する必要があることを示唆する。
第3に、スケールパラメータの適応的選択により、ハマー回帰推定器は1+\epsilon)$-moment条件(\epsilon>0$)の下で漸近平均回帰をキャリブレーションできることを示した。
最後に、同じモーメント条件下では、フーバー回帰推定器の収束率をほぼ確実に設定する。
1+\epsilon)$-moment条件は応答変数が無限分散を持つ特別な場合に対応するので、確立された収束率はフーバー回帰推定器のロバスト性特徴を正当化する。
本研究は,フーバー回帰推定器の系統的統計的学習評価を提供し,理論的観点からのロバスト性の観点からそのメリットを正当化する。
関連論文リスト
- Relaxed Quantile Regression: Prediction Intervals for Asymmetric Noise [51.87307904567702]
量子レグレッション(Quantile regression)は、出力の分布における量子の実験的推定を通じてそのような間隔を得るための主要なアプローチである。
本稿では、この任意の制約を除去する量子回帰に基づく区間構成の直接的な代替として、Relaxed Quantile Regression (RQR)を提案する。
これにより、柔軟性が向上し、望ましい品質が向上することが実証された。
論文 参考訳(メタデータ) (2024-06-05T13:36:38Z) - Selective Nonparametric Regression via Testing [54.20569354303575]
本研究では,所定の点における条件分散の値に関する仮説を検証し,留置手順を開発する。
既存の手法とは異なり、提案手法は分散自体の値だけでなく、対応する分散予測器の不確実性についても考慮することができる。
論文 参考訳(メタデータ) (2023-09-28T13:04:11Z) - Beta quantile regression for robust estimation of uncertainty in the
presence of outliers [1.6377726761463862]
量子回帰(Quantile Regression)は、ディープニューラルネットワークにおけるアレタリック不確実性を推定するために用いられる。
本稿では、頑健な分散の概念を取り入れた量子レグレッションのためのロバストな解を提案する。
論文 参考訳(メタデータ) (2023-09-14T01:18:57Z) - Non-Asymptotic Guarantees for Robust Statistical Learning under
$(1+\varepsilon)$-th Moment Assumption [0.716879432974126]
本稿では,統計レグレッションの多種族を対象としたログトランケート型M-メチエータを提案する。
標準推定よりもログトランケート推定の方が優れていることを示す。
論文 参考訳(メタデータ) (2022-01-10T06:22:30Z) - Understanding the Under-Coverage Bias in Uncertainty Estimation [58.03725169462616]
量子レグレッションは、現実の望ましいカバレッジレベルよりもアンファンダーカバー(enmphunder-cover)する傾向がある。
我々は、量子レグレッションが固有のアンダーカバーバイアスに悩まされていることを証明している。
我々の理論は、この過大被覆バイアスが特定の高次元パラメータ推定誤差に起因することを明らかにしている。
論文 参考訳(メタデータ) (2021-06-10T06:11:55Z) - Learning Probabilistic Ordinal Embeddings for Uncertainty-Aware
Regression [91.3373131262391]
不確かさが唯一の確実性である。
伝統的に、直接回帰定式化を考慮し、ある確率分布の族に出力空間を変更することによって不確実性をモデル化する。
現在のレグレッション技術における不確実性をモデル化する方法は、未解決の問題である。
論文 参考訳(メタデータ) (2021-03-25T06:56:09Z) - SLOE: A Faster Method for Statistical Inference in High-Dimensional
Logistic Regression [68.66245730450915]
実用データセットに対する予測の偏見を回避し、頻繁な不確実性を推定する改善された手法を開発している。
私たちの主な貢献は、推定と推論の計算時間をマグニチュードの順序で短縮する収束保証付き信号強度の推定器SLOEです。
論文 参考訳(メタデータ) (2021-03-23T17:48:56Z) - New Insights into Learning with Correntropy Based Regression [3.066157114715031]
本研究では,コレントロピーに基づく回帰回帰が条件付きモード関数や条件付き平均関数に対して一定の条件下で頑健に働くことを示す。
また,条件付き平均関数を学習する際の新しい結果も提示する。
論文 参考訳(メタデータ) (2020-06-19T21:14:34Z) - Censored Quantile Regression Forest [81.9098291337097]
我々は、検閲に適応し、データが検閲を示さないときに量子スコアをもたらす新しい推定方程式を開発する。
提案手法は, パラメトリックなモデリング仮定を使わずに, 時間単位の定量を推定することができる。
論文 参考訳(メタデータ) (2020-01-08T23:20:23Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。