論文の概要: Improving Nonparametric Classification via Local Radial Regression with
an Application to Stock Prediction
- arxiv url: http://arxiv.org/abs/2112.13951v1
- Date: Tue, 28 Dec 2021 00:32:02 GMT
- ステータス: 処理完了
- システム内更新日: 2021-12-30 14:03:10.603564
- Title: Improving Nonparametric Classification via Local Radial Regression with
an Application to Stock Prediction
- Title(参考訳): 局所ラジアル回帰による非パラメトリック分類の改善とストック予測への応用
- Authors: Ruixing Cao, Akifumi Okuno, Kei Nakagawa, Hidetoshi Shimodaira
- Abstract要約: よく知られた非パラメトリックカーネルのスムーズ化と$k$-nearest(k$-NN)推定器は一貫性があるが、特にボールの大きな半径に対して偏りがある。
本稿では,LPoRとMS-$k$-NNの利点を組み合わせた局所ラジアル回帰(LRR)とそのロジスティック回帰(LRLR)を提案する。
LPoRとMS-$k$NNよりLRLRの方が優れていることを示す。
- 参考スコア(独自算出の注目度): 16.000748943982494
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: For supervised classification problems, this paper considers estimating the
query's label probability through local regression using observed covariates.
Well-known nonparametric kernel smoother and $k$-nearest neighbor ($k$-NN)
estimator, which take label average over a ball around the query, are
consistent but asymptotically biased particularly for a large radius of the
ball. To eradicate such bias, local polynomial regression (LPoR) and multiscale
$k$-NN (MS-$k$-NN) learn the bias term by local regression around the query and
extrapolate it to the query itself. However, their theoretical optimality has
been shown for the limit of the infinite number of training samples. For
correcting the asymptotic bias with fewer observations, this paper proposes a
local radial regression (LRR) and its logistic regression variant called local
radial logistic regression (LRLR), by combining the advantages of LPoR and
MS-$k$-NN. The idea is simple: we fit the local regression to observed labels
by taking the radial distance as the explanatory variable and then extrapolate
the estimated label probability to zero distance. Our numerical experiments,
including real-world datasets of daily stock indices, demonstrate that LRLR
outperforms LPoR and MS-$k$-NN.
- Abstract(参考訳): 教師付き分類問題に対しては、観測された共変量を用いて局所回帰を用いてクエリのラベル確率を推定する。
有名な非パラメトリックカーネルスムーズなスムーズで$k$-nearestの隣人(k$-NN)推定器は、クエリの周囲のボールにラベル平均を取るが、特にボールの大きな半径に対して漸近的に偏りがある。
そのようなバイアスを根絶するために、局所多項式回帰(LPoR)とマルチスケール$k$-NN(MS-$k$-NN)は、クエリ周辺の局所回帰によってバイアス項を学習し、クエリ自体に外挿する。
しかし、その理論的最適性は無限個のトレーニングサンプルの限界のために示されている。
本稿では,lpor と ms-$k$-nn の利点を組み合わせることにより,漸近的バイアスを少ない観測で補正するために,局所的ラジアル回帰 (lrr) と局所的ラジアルロジスティック回帰 (lrlr) と呼ばれるロジスティック回帰 (ロジスティック回帰) を提案する。
そのアイデアは単純で、半径距離を説明変数とし、推定されたラベル確率をゼロ距離に外挿することで、観測されたラベルに局所回帰を適合させる。
LPoRとMS-$k$-NNよりLRLRの方が優れていることを示す。
関連論文リスト
- Policy Evaluation in Distributional LQR [70.63903506291383]
ランダムリターンの分布を閉形式で表現する。
この分布は有限個の確率変数で近似できることを示す。
近似回帰分布を用いて,リスク・アバースLQRに対するゼロ階ポリシー勾配アルゴリズムを提案する。
論文 参考訳(メタデータ) (2023-03-23T20:27:40Z) - Kernel-based off-policy estimation without overlap: Instance optimality
beyond semiparametric efficiency [53.90687548731265]
本研究では,観測データに基づいて線形関数を推定するための最適手順について検討する。
任意の凸および対称函数クラス $mathcalF$ に対して、平均二乗誤差で有界な非漸近局所ミニマックスを導出する。
論文 参考訳(メタデータ) (2023-01-16T02:57:37Z) - Retire: Robust Expectile Regression in High Dimensions [3.9391041278203978]
ペナル化量子化法と期待回帰法は、高次元データの異方性検出に有用な手段を提供する。
我々は,頑健な期待回帰(退職)を提案し,研究する。
提案手法は半平滑なニュートン座標降下アルゴリズムにより効率よく解けることを示す。
論文 参考訳(メタデータ) (2022-12-11T18:03:12Z) - Beyond Ridge Regression for Distribution-Free Data [8.523307608620094]
正規化最大可能性 (pNML) は、データ上に分布の仮定が作成されない分布自由設定に対する min-max 後悔解として提案されている。
仮説クラスに事前のような関数を適用することで、その有効サイズが減少する。
尾根回帰経験的リスク最小化器(Ridge ERM)によるLpNML予測と関連するpNML
我々のLpNMLは、PMLB集合のリッジERM誤差を最大20%低減し、
論文 参考訳(メタデータ) (2022-06-17T13:16:46Z) - Random Forest Weighted Local Fr\'echet Regression with Random Objects [52.25304029942005]
本稿では,新しいランダム森林重み付き局所Fr'echet回帰パラダイムを提案する。
最初の方法は,これらの重みを局所平均として利用し,条件付きFr'echet平均を解く。
第二の手法は局所線形Fr'echet回帰を行い、どちらも既存のFr'echet回帰法を大幅に改善した。
論文 参考訳(メタデータ) (2022-02-10T09:10:59Z) - Oversampling Divide-and-conquer for Response-skewed Kernel Ridge
Regression [20.00435452480056]
本研究では,分割・分散手法の限界を克服するために,新しい応答適応分割戦略を開発する。
提案手法は, 従来のダックKRR推定値よりも小さい平均二乗誤差(AMSE)を有することを示す。
論文 参考訳(メタデータ) (2021-07-13T04:01:04Z) - Near-optimal inference in adaptive linear regression [60.08422051718195]
最小二乗法のような単純な方法でさえ、データが適応的に収集されるときの非正規な振る舞いを示すことができる。
我々は,これらの分布異常を少なくとも2乗推定で補正するオンラインデバイアス推定器のファミリーを提案する。
我々は,マルチアームバンディット,自己回帰時系列推定,探索による能動的学習などの応用を通して,我々の理論の有用性を実証する。
論文 参考訳(メタデータ) (2021-07-05T21:05:11Z) - SLOE: A Faster Method for Statistical Inference in High-Dimensional
Logistic Regression [68.66245730450915]
実用データセットに対する予測の偏見を回避し、頻繁な不確実性を推定する改善された手法を開発している。
私たちの主な貢献は、推定と推論の計算時間をマグニチュードの順序で短縮する収束保証付き信号強度の推定器SLOEです。
論文 参考訳(メタデータ) (2021-03-23T17:48:56Z) - Online nonparametric regression with Sobolev kernels [99.12817345416846]
我々は、ソボレフ空間のクラス上の後悔の上限を$W_pbeta(mathcalX)$, $pgeq 2, beta>fracdp$ とする。
上界は minimax regret analysis で支えられ、$beta> fracd2$ または $p=infty$ の場合、これらの値は(本質的に)最適である。
論文 参考訳(メタデータ) (2021-02-06T15:05:14Z) - Robust Gaussian Process Regression with a Bias Model [0.6850683267295248]
既存のほとんどのアプローチは、重い尾の分布から誘導される非ガウス的確率に、外れやすいガウス的確率を置き換えるものである。
提案手法は、未知の回帰関数の雑音および偏りの観測として、外れ値をモデル化する。
バイアス推定に基づいて、ロバストなGP回帰を標準のGP回帰問題に還元することができる。
論文 参考訳(メタデータ) (2020-01-14T06:21:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。