論文の概要: Improving Nonparametric Classification via Local Radial Regression with
an Application to Stock Prediction
- arxiv url: http://arxiv.org/abs/2112.13951v1
- Date: Tue, 28 Dec 2021 00:32:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-30 14:03:10.603564
- Title: Improving Nonparametric Classification via Local Radial Regression with
an Application to Stock Prediction
- Title(参考訳): 局所ラジアル回帰による非パラメトリック分類の改善とストック予測への応用
- Authors: Ruixing Cao, Akifumi Okuno, Kei Nakagawa, Hidetoshi Shimodaira
- Abstract要約: よく知られた非パラメトリックカーネルのスムーズ化と$k$-nearest(k$-NN)推定器は一貫性があるが、特にボールの大きな半径に対して偏りがある。
本稿では,LPoRとMS-$k$-NNの利点を組み合わせた局所ラジアル回帰(LRR)とそのロジスティック回帰(LRLR)を提案する。
LPoRとMS-$k$NNよりLRLRの方が優れていることを示す。
- 参考スコア(独自算出の注目度): 16.000748943982494
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For supervised classification problems, this paper considers estimating the
query's label probability through local regression using observed covariates.
Well-known nonparametric kernel smoother and $k$-nearest neighbor ($k$-NN)
estimator, which take label average over a ball around the query, are
consistent but asymptotically biased particularly for a large radius of the
ball. To eradicate such bias, local polynomial regression (LPoR) and multiscale
$k$-NN (MS-$k$-NN) learn the bias term by local regression around the query and
extrapolate it to the query itself. However, their theoretical optimality has
been shown for the limit of the infinite number of training samples. For
correcting the asymptotic bias with fewer observations, this paper proposes a
local radial regression (LRR) and its logistic regression variant called local
radial logistic regression (LRLR), by combining the advantages of LPoR and
MS-$k$-NN. The idea is simple: we fit the local regression to observed labels
by taking the radial distance as the explanatory variable and then extrapolate
the estimated label probability to zero distance. Our numerical experiments,
including real-world datasets of daily stock indices, demonstrate that LRLR
outperforms LPoR and MS-$k$-NN.
- Abstract(参考訳): 教師付き分類問題に対しては、観測された共変量を用いて局所回帰を用いてクエリのラベル確率を推定する。
有名な非パラメトリックカーネルスムーズなスムーズで$k$-nearestの隣人(k$-NN)推定器は、クエリの周囲のボールにラベル平均を取るが、特にボールの大きな半径に対して漸近的に偏りがある。
そのようなバイアスを根絶するために、局所多項式回帰(LPoR)とマルチスケール$k$-NN(MS-$k$-NN)は、クエリ周辺の局所回帰によってバイアス項を学習し、クエリ自体に外挿する。
しかし、その理論的最適性は無限個のトレーニングサンプルの限界のために示されている。
本稿では,lpor と ms-$k$-nn の利点を組み合わせることにより,漸近的バイアスを少ない観測で補正するために,局所的ラジアル回帰 (lrr) と局所的ラジアルロジスティック回帰 (lrlr) と呼ばれるロジスティック回帰 (ロジスティック回帰) を提案する。
そのアイデアは単純で、半径距離を説明変数とし、推定されたラベル確率をゼロ距離に外挿することで、観測されたラベルに局所回帰を適合させる。
LPoRとMS-$k$-NNよりLRLRの方が優れていることを示す。
関連論文リスト
- Multivariate root-n-consistent smoothing parameter free matching estimators and estimators of inverse density weighted expectations [51.000851088730684]
我々は、パラメトリックな$sqrt n $-rateで収束する、最も近い隣人の新しい修正とマッチング推定器を開発する。
我々は,非パラメトリック関数推定器は含まないこと,特に標本サイズ依存パラメータの平滑化には依存していないことを強調する。
論文 参考訳(メタデータ) (2024-07-11T13:28:34Z) - Relaxed Quantile Regression: Prediction Intervals for Asymmetric Noise [51.87307904567702]
量子レグレッション(Quantile regression)は、出力の分布における量子の実験的推定を通じてそのような間隔を得るための主要なアプローチである。
本稿では、この任意の制約を除去する量子回帰に基づく区間構成の直接的な代替として、Relaxed Quantile Regression (RQR)を提案する。
これにより、柔軟性が向上し、望ましい品質が向上することが実証された。
論文 参考訳(メタデータ) (2024-06-05T13:36:38Z) - Optimal Bias-Correction and Valid Inference in High-Dimensional Ridge Regression: A Closed-Form Solution [0.0]
寸法$p$がサンプルサイズ$n$より小さい場合、バイアスを効果的に補正するための反復戦略を導入する。
p>n$の場合、提案した非バイアス推定器の残余バイアスが到達不能であるようなバイアスを最適に緩和する。
本手法は,様々な分野にわたるリッジ回帰推論におけるバイアス問題に対する変換解を提供する。
論文 参考訳(メタデータ) (2024-05-01T10:05:19Z) - Policy Evaluation in Distributional LQR [70.63903506291383]
ランダムリターンの分布を閉形式で表現する。
この分布は有限個の確率変数で近似できることを示す。
近似回帰分布を用いて,リスク・アバースLQRに対するゼロ階ポリシー勾配アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-23T20:27:40Z) - Kernel-based off-policy estimation without overlap: Instance optimality
beyond semiparametric efficiency [53.90687548731265]
本研究では,観測データに基づいて線形関数を推定するための最適手順について検討する。
任意の凸および対称函数クラス $mathcalF$ に対して、平均二乗誤差で有界な非漸近局所ミニマックスを導出する。
論文 参考訳(メタデータ) (2023-01-16T02:57:37Z) - Retire: Robust Expectile Regression in High Dimensions [3.9391041278203978]
ペナル化量子化法と期待回帰法は、高次元データの異方性検出に有用な手段を提供する。
我々は,頑健な期待回帰(退職)を提案し,研究する。
提案手法は半平滑なニュートン座標降下アルゴリズムにより効率よく解けることを示す。
論文 参考訳(メタデータ) (2022-12-11T18:03:12Z) - Beyond Ridge Regression for Distribution-Free Data [8.523307608620094]
正規化最大可能性 (pNML) は、データ上に分布の仮定が作成されない分布自由設定に対する min-max 後悔解として提案されている。
仮説クラスに事前のような関数を適用することで、その有効サイズが減少する。
尾根回帰経験的リスク最小化器(Ridge ERM)によるLpNML予測と関連するpNML
我々のLpNMLは、PMLB集合のリッジERM誤差を最大20%低減し、
論文 参考訳(メタデータ) (2022-06-17T13:16:46Z) - Near-optimal inference in adaptive linear regression [60.08422051718195]
最小二乗法のような単純な方法でさえ、データが適応的に収集されるときの非正規な振る舞いを示すことができる。
我々は,これらの分布異常を少なくとも2乗推定で補正するオンラインデバイアス推定器のファミリーを提案する。
我々は,マルチアームバンディット,自己回帰時系列推定,探索による能動的学習などの応用を通して,我々の理論の有用性を実証する。
論文 参考訳(メタデータ) (2021-07-05T21:05:11Z) - SLOE: A Faster Method for Statistical Inference in High-Dimensional
Logistic Regression [68.66245730450915]
実用データセットに対する予測の偏見を回避し、頻繁な不確実性を推定する改善された手法を開発している。
私たちの主な貢献は、推定と推論の計算時間をマグニチュードの順序で短縮する収束保証付き信号強度の推定器SLOEです。
論文 参考訳(メタデータ) (2021-03-23T17:48:56Z) - Robust Gaussian Process Regression with a Bias Model [0.6850683267295248]
既存のほとんどのアプローチは、重い尾の分布から誘導される非ガウス的確率に、外れやすいガウス的確率を置き換えるものである。
提案手法は、未知の回帰関数の雑音および偏りの観測として、外れ値をモデル化する。
バイアス推定に基づいて、ロバストなGP回帰を標準のGP回帰問題に還元することができる。
論文 参考訳(メタデータ) (2020-01-14T06:21:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。