論文の概要: Statistical Robustness of Interval CVaR Based Regression Models under Perturbation and Contamination
- arxiv url: http://arxiv.org/abs/2601.11420v1
- Date: Fri, 16 Jan 2026 16:41:57 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-19 20:21:50.562393
- Title: Statistical Robustness of Interval CVaR Based Regression Models under Perturbation and Contamination
- Title(参考訳): 内部CVaRを用いた摂動・汚染下の回帰モデルの統計的ロバスト性
- Authors: Yulei You, Junyi Liu,
- Abstract要約: いわゆる区間条件値-at-risk(In-CVaR)に基づく頑健な非線形回帰に対処する。
我々は汚染下でのロバスト性を厳密に定量化し、広範囲の回帰モデルに対する分布分解点を統一的に研究した。
In-CVaRに基づく推定器は、損失の最大部分がトリミングされている場合に限り、Prokhorov測定の点で質的に頑健であることを示す。
- 参考スコア(独自算出の注目度): 1.578201299411112
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robustness under perturbation and contamination is a prominent issue in statistical learning. We address the robust nonlinear regression based on the so-called interval conditional value-at-risk (In-CVaR), which is introduced to enhance robustness by trimming extreme losses. While recent literature shows that the In-CVaR based statistical learning exhibits superior robustness performance than classical robust regression models, its theoretical robustness analysis for nonlinear regression remains largely unexplored. We rigorously quantify robustness under contamination, with a unified study of distributional breakdown point for a broad class of regression models, including linear, piecewise affine and neural network models with $\ell_1$, $\ell_2$ and Huber losses. Moreover, we analyze the qualitative robustness of the In-CVaR based estimator under perturbation. We show that under several minor assumptions, the In-CVaR based estimator is qualitatively robust in terms of the Prokhorov metric if and only if the largest portion of losses is trimmed. Overall, this study analyzes robustness properties of In-CVaR based nonlinear regression models under both perturbation and contamination, which illustrates the advantages of In-CVaR risk measure over conditional value-at-risk and expectation for robust regression in both theory and numerical experiments.
- Abstract(参考訳): 摂動と汚染によるロバスト性は統計的学習において顕著な問題である。
In-CVaR(Inter interval Conditional value-at-risk)は, 過度な損失を減らして頑健性を高めるために導入された。
近年の文献では、In-CVaRに基づく統計的学習は古典的頑健回帰モデルよりも優れた頑健性を示すが、その非線形回帰に対する理論的頑健性解析は未解明のままである。
我々は, 汚染下でのロバスト性について, 線形, ピースワイドアフィン, ニューラルネットワークモデルを含む, 幅広い回帰モデルの分布分解点について, $\ell_1$, $\ell_2$, Huber損失を含む統一的な研究により, 厳密に定量化する。
さらに, 摂動下でのIn-CVaRに基づく推定器の定性的ロバスト性を解析した。
いくつかの小さな仮定の下で、In-CVaRに基づく推定器は、損失の最大の部分がトリミングされている場合に限り、プロホロフ計量の点で質的に堅牢であることを示す。
本研究は,In-CVaRに基づく非線形回帰モデルにおいて,摂動と汚染の両面において頑健性特性を解析し,条件付きリスクに対するIn-CVaRリスク測定の利点と,理論および数値実験の両方において頑健性レグレッションを期待することを明らかにする。
関連論文リスト
- TraCeR: Transformer-Based Competing Risk Analysis with Longitudinal Covariates [0.0]
TraCeRはトランスフォーマーベースの生存分析フレームワークである。
一連の測定結果からハザード関数を推定する。
複数の実世界のデータセットの実験は、実質的で統計的に重要なパフォーマンス改善を示している。
論文 参考訳(メタデータ) (2025-12-19T23:24:47Z) - Risk and cross validation in ridge regression with correlated samples [72.59731158970894]
我々は,データポイントが任意の相関関係を持つ場合,リッジ回帰のイン・オブ・サンプルリスクのトレーニング例を提供する。
この設定では、一般化されたクロスバリデーション推定器(GCV)がサンプル外リスクを正確に予測できないことを示す。
さらに、テストポイントがトレーニングセットと非自明な相関を持つ場合、時系列予測でしばしば発生する設定にまで分析を拡張します。
論文 参考訳(メタデータ) (2024-08-08T17:27:29Z) - Deep Learning Based Residuals in Non-linear Factor Models: Precision
Matrix Estimation of Returns with Low Signal-to-Noise Ratio [0.0]
本稿では,大規模なポートフォリオにおける資産返却の精度行列に対する一貫した推定器と収束率を紹介する。
金融市場に典型的な低信号対雑音比環境においても, 評価は引き続き有効である。
論文 参考訳(メタデータ) (2022-09-09T20:29:54Z) - Are Latent Factor Regression and Sparse Regression Adequate? [0.49416305961918056]
準ガウス雑音と重み付き雑音の存在下でのモデル推定に関する理論的保証を提供する。
本稿ではFacter-Adjusted de-Biased Test (FabTest) と2段階のANOVA型テストを提案する。
数値計算の結果,潜在因子回帰モデルと疎線形回帰モデルに対するモデルの有効性と有効性を示した。
論文 参考訳(メタデータ) (2022-03-02T16:22:23Z) - Regularized Modal Regression on Markov-dependent Observations: A
Theoretical Assessment [13.852720406291875]
本稿では,マルコフ依存構造における正規化モード回帰(RMR)の統計的性質について述べる。
適度な条件下では,RMR推定器の上限を確立し,学習率を明示する。
以上の結果から,マルコフ連鎖のスペクトルギャップに依存する乗算因子によってサンプルサイズが割引される場合,マルコフ依存性が一般化誤差に与える影響が示唆された。
論文 参考訳(メタデータ) (2021-12-09T09:08:52Z) - The Interplay Between Implicit Bias and Benign Overfitting in Two-Layer
Linear Networks [51.1848572349154]
ノイズの多いデータに完全に適合するニューラルネットワークモデルは、見当たらないテストデータにうまく一般化できる。
我々は,2層線形ニューラルネットワークを2乗損失の勾配流で補間し,余剰リスクを導出する。
論文 参考訳(メタデータ) (2021-08-25T22:01:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。