論文の概要: Semi-supervised learning for linear extremile regression
- arxiv url: http://arxiv.org/abs/2507.01314v1
- Date: Wed, 02 Jul 2025 02:59:15 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-03 14:22:59.991739
- Title: Semi-supervised learning for linear extremile regression
- Title(参考訳): 線形極端回帰のための半教師付き学習
- Authors: Rong Jiang, Keming Yu, Jiangfeng Wang,
- Abstract要約: 本稿では,線形極端回帰の新たな定義とそれに伴う推定手法を提案する。
この手法の回帰係数推定器は$sqrtn$-consistencyを達成し、非パラメトリック極端回帰は提供できない。
本稿では,特定線形極端回帰モデルが誤特定される場合であっても,推定効率を高めるための半教師付き学習手法を提案する。
- 参考スコア(独自算出の注目度): 0.8973184739267972
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Extremile regression, as a least squares analog of quantile regression, is potentially useful tool for modeling and understanding the extreme tails of a distribution. However, existing extremile regression methods, as nonparametric approaches, may face challenges in high-dimensional settings due to data sparsity, computational inefficiency, and the risk of overfitting. While linear regression serves as the foundation for many other statistical and machine learning models due to its simplicity, interpretability, and relatively easy implementation, particularly in high-dimensional settings, this paper introduces a novel definition of linear extremile regression along with an accompanying estimation methodology. The regression coefficient estimators of this method achieve $\sqrt{n}$-consistency, which nonparametric extremile regression may not provide. In particular, while semi-supervised learning can leverage unlabeled data to make more accurate predictions and avoid overfitting to small labeled datasets in high-dimensional spaces, we propose a semi-supervised learning approach to enhance estimation efficiency, even when the specified linear extremile regression model may be misspecified. Both simulation studies and real data analyses demonstrate the finite-sample performance of our proposed methods.
- Abstract(参考訳): 極小回帰(Extremile regression)は、量子レグレッションの最小2乗類似として、分布の極小をモデル化し理解するための潜在的に有用なツールである。
しかし、既存の極端回帰法は、非パラメトリックなアプローチとして、データの分散性、計算の非効率性、過度な適合のリスクにより、高次元設定において困難に直面する可能性がある。
線形回帰は、その単純さ、解釈可能性、比較的簡単な実装、特に高次元設定において、多くの統計的および機械学習モデルの基盤となっているが、本研究では、線形極端回帰の新たな定義と、それに伴う推定手法を紹介する。
この手法の回帰係数推定器は$\sqrt{n}$-consistencyを達成し、非パラメトリック極端回帰は提供できない。
特に、半教師付き学習はラベル付きデータを利用してより正確な予測を行い、高次元空間における小さなラベル付きデータセットへの過度な適合を避けることができるが、指定された線形極小回帰モデルが誤特定された場合でも、推定効率を高めるための半教師付き学習手法を提案する。
シミュレーションと実データ解析の両方が提案手法の有限サンプル性能を実証している。
関連論文リスト
- A Simplified Analysis of SGD for Linear Regression with Weight Averaging [64.2393952273612]
最近の研究は、定常学習率を用いた線形回帰におけるSGD最適化のためのシャープレートを提供する。
簡単な線形代数ツールを用いて,2021ベニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグニグナグニグニグニグニグニグニグニグニグニグニグネグニグニグニグニグネグニグニグネグニ
我々の研究は線形回帰の勾配勾配を非常に容易に解析し、ミニバッチと学習率のスケジューリングのさらなる分析に役立てることができると信じている。
論文 参考訳(メタデータ) (2025-06-18T15:10:38Z) - Progression: an extrapolation principle for regression [0.0]
本稿では,新しい統計外挿原理を提案する。
これは、予測器とトレーニング予測器のサンプルの境界における応答との単純な関係を仮定する。
我々の半パラメトリック法である進行法は、この外挿原理を活用し、トレーニングデータ範囲を超えた近似誤差の保証を提供する。
論文 参考訳(メタデータ) (2024-10-30T17:29:51Z) - Engression: Extrapolation through the Lens of Distributional Regression [2.519266955671697]
我々は、エングレースと呼ばれるニューラルネットワークに基づく分布回帰手法を提案する。
エングレスモデル(engression model)は、適合した条件分布からサンプリングできるという意味で生成され、高次元結果にも適している。
一方、最小二乗法や量子回帰法のような従来の回帰手法は、同じ仮定の下では不十分である。
論文 参考訳(メタデータ) (2023-07-03T08:19:00Z) - Sparse high-dimensional linear regression with a partitioned empirical
Bayes ECM algorithm [62.997667081978825]
疎高次元線形回帰に対する計算効率が高く強力なベイズ的手法を提案する。
パラメータに関する最小の事前仮定は、プラグイン経験的ベイズ推定(英語版)を用いて用いられる。
提案手法はRパッケージプローブに実装されている。
論文 参考訳(メタデータ) (2022-09-16T19:15:50Z) - Prediction Intervals and Confidence Regions for Symbolic Regression
Models based on Likelihood Profiles [0.0]
回帰モデルの不確実性の定量化は、モデルの解釈と意思決定にとって重要である。
線形近似といわゆる確率プロファイルは、信頼度と予測間隔の計算においてよく知られた可能性である。
これらの単純で効果的な手法は、遺伝子プログラミングの文献で完全に無視されている。
論文 参考訳(メタデータ) (2022-09-14T07:07:55Z) - Benign overfitting and adaptive nonparametric regression [71.70323672531606]
本研究では,データポイントを高い確率で補間する連続関数である推定器を構築する。
我々は未知の滑らかさに適応してH"古いクラスのスケールにおいて平均2乗リスクの下で最小値の最適速度を得る。
論文 参考訳(メタデータ) (2022-06-27T14:50:14Z) - Scalable Marginal Likelihood Estimation for Model Selection in Deep
Learning [78.83598532168256]
階層型モデル選択は、推定困難のため、ディープラーニングではほとんど使われない。
本研究は,検証データが利用できない場合,限界的可能性によって一般化が向上し,有用であることを示す。
論文 参考訳(メタデータ) (2021-04-11T09:50:24Z) - Simple Imputation Rules for Prediction with Missing Data: Contrasting
Theoretical Guarantees with Empirical Performance [7.642646077340124]
実際のデータセットでは、データの欠落が一般的な問題である。
本稿では, 理論的, 実証的証拠を対比して, 即効性パイプラインの性能について検討する。
論文 参考訳(メタデータ) (2021-04-07T14:45:14Z) - A Hypergradient Approach to Robust Regression without Correspondence [85.49775273716503]
本稿では,入力データと出力データとの対応が不十分な回帰問題について考察する。
ほとんどの既存手法はサンプルサイズが小さい場合にのみ適用できる。
シャッフル回帰問題に対する新しい計算フレームワークであるROBOTを提案する。
論文 参考訳(メタデータ) (2020-11-30T21:47:38Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。