論文の概要: Generalized Linear Tree Space Nearest Neighbor
- arxiv url: http://arxiv.org/abs/2103.16408v1
- Date: Tue, 30 Mar 2021 15:02:07 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-31 14:44:41.461083
- Title: Generalized Linear Tree Space Nearest Neighbor
- Title(参考訳): 一般化線形ツリー空間最近傍
- Authors: Michael Kim
- Abstract要約: 本稿では, 近傍(1NN) 空間の順序時間分割(OOF)空間に投影することにより, 決定木を積み重ねる新しい手法を提案する。
これら1つの近傍の予測は線形モデルによって結合される。
Generalized Linear Tree Space Nearest Neighbor(GLTSNN)は、いくつかの公開データセットのランダムフォレスト(RF)と比較して、平均平方誤差(MSE)に関して競争力があります。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present a novel method of stacking decision trees by projection into an
ordered time split out-of-fold (OOF) one nearest neighbor (1NN) space. The
predictions of these one nearest neighbors are combined through a linear model.
This process is repeated many times and averaged to reduce variance.
Generalized Linear Tree Space Nearest Neighbor (GLTSNN) is competitive with
respect to Mean Squared Error (MSE) compared to Random Forest (RF) on several
publicly available datasets. Some of the theoretical and applied advantages of
GLTSNN are discussed. We conjecture a classifier based upon the GLTSNN would
have an error that is asymptotically bounded by twice the Bayes error rate like
k = 1 Nearest Neighbor.
- Abstract(参考訳): そこで本研究では, 1 つの近傍 (1nn) 空間を分割した順序時間に投影することで決定木を積み重ねる新しい手法を提案する。
これら1つの近傍の予測は線形モデルによって結合される。
このプロセスは何度も繰り返され、分散を減らすために平均される。
GLTSNN(Generalized Linear Tree Space Nearest Neighbor)は、いくつかの公開データセット上のランダムフォレスト(RF)と比較して、平均平方誤差(MSE)に対して競合する。
GLTSNNの理論的および応用的な利点について論じる。
我々は、GLTSNNに基づく分類器は、k = 1 近傍近傍のベイズ誤差率の2倍の漸近的に有界な誤差を持つであろうと推測する。
関連論文リスト
- Adaptive $k$-nearest neighbor classifier based on the local estimation of the shape operator [49.87315310656657]
我々は, 局所曲率をサンプルで探索し, 周辺面積を適応的に定義する適応型$k$-nearest(kK$-NN)アルゴリズムを提案する。
多くの実世界のデータセットから、新しい$kK$-NNアルゴリズムは、確立された$k$-NN法と比較してバランスの取れた精度が優れていることが示されている。
論文 参考訳(メタデータ) (2024-09-08T13:08:45Z) - A unified weighting framework for evaluating nearest neighbour classification [1.1470070927586018]
従来型 (NN), ファジィ (FNN), ファジィ粗 (FRNN) の総合的および大規模評価を行った。
理論上最適なサムワース重みはカーネルに収束することを示す。
また, 距離とスケーリングの指標についても検討し, 相互に関連性を示す。
論文 参考訳(メタデータ) (2023-11-28T15:24:02Z) - INK: Injecting kNN Knowledge in Nearest Neighbor Machine Translation [57.952478914459164]
kNN-MTは、推論中に隣接する表現に基づいて予測を円滑にするための効果的なパラダイムを提供する。
我々は,kNN近傍の表現を少数の新しいパラメータで調整することで,表現空間を円滑にするための効果的なトレーニングフレームワークINKを提案する。
4つのベンチマークデータセットでの実験では、メソッドは1.99 COMETと1.0 BLEUの平均ゲインを達成し、0.02倍のメモリ空間と1.9倍の推論速度を持つ最先端のkNN-MTシステムより優れていた。
論文 参考訳(メタデータ) (2023-06-10T08:39:16Z) - k-NNN: Nearest Neighbors of Neighbors for Anomaly Detection [20.204147875108976]
異常検出は、標準から大きく逸脱した画像を特定することを目的としている。
埋め込み空間における特徴の様々な構造と重要性を考慮に入れた新しい演算子を提案する。
既存のアルゴリズムに最も近いコンポーネントをk-NNN演算子に置き換えるだけで、残りのアルゴリズムに手を加えずに、各アルゴリズムの処理結果を改善できることが示される。
論文 参考訳(メタデータ) (2023-05-28T11:39:51Z) - DNNR: Differential Nearest Neighbors Regression [8.667550264279166]
K-nearest neighbors(KNN)は、機械学習において最も早く、最も確立されたアルゴリズムの1つである。
回帰タスクでは、KNNは、多くの課題を引き起こす地区内のターゲットを平均化する。
両問題に同時に対処するDNNR(differial Nearest Neighbors Regression)を提案する。
論文 参考訳(メタデータ) (2022-05-17T15:22:53Z) - Minimax Optimal Algorithms with Fixed-$k$-Nearest Neighbors [13.231906521852718]
大規模なデータセットを小さなグループに分割する分散学習シナリオを考察する。
分類,回帰,密度推定のための固定k$-NN情報を集約する最適ルールを提案する。
十分多数のグループに固定された$k$の分散アルゴリズムは、乗算対数係数までの最小誤差率を得ることを示す。
論文 参考訳(メタデータ) (2022-02-05T01:59:09Z) - Rethinking Nearest Neighbors for Visual Classification [56.00783095670361]
k-NNは、トレーニングセット内のテストイメージとトップk隣人間の距離を集約する遅延学習手法である。
我々は,教師付き手法と自己監督型手法のいずれでも,事前学習した視覚表現を持つk-NNを2つのステップで採用する。
本研究は,幅広い分類タスクに関する広範な実験により,k-NN統合の汎用性と柔軟性を明らかにした。
論文 参考訳(メタデータ) (2021-12-15T20:15:01Z) - Under-bagging Nearest Neighbors for Imbalanced Classification [63.026765294759876]
我々は,不均衡な分類問題に対して,textitunder-bagging $k$-NN (textitunder-bagging $k$-NN) というアンサンブル学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-01T14:10:38Z) - An Infinite-Feature Extension for Bayesian ReLU Nets That Fixes Their
Asymptotic Overconfidence [65.24701908364383]
ベイズ処理は、トレーニングデータを取り巻くReLUネットの過信を軽減することができる。
しかし、彼らから遠く離れたところでは、ReLUニューラルネットワーク(BNN)はいまだに不確実性を過小評価し過ぎている可能性がある。
事前学習した任意のReLU BNNに対して,低コストでemphpost-hocを適用可能であることを示す。
論文 参考訳(メタデータ) (2020-10-06T13:32:18Z) - Improving predictions of Bayesian neural nets via local linearization [79.21517734364093]
ガウス・ニュートン近似は基礎となるベイズニューラルネットワーク(BNN)の局所線形化として理解されるべきである。
この線形化モデルを後部推論に使用するので、元のモデルではなく、この修正モデルを使用することも予測すべきである。
この修正された予測を"GLM predictive"と呼び、Laplace近似の共通不適合問題を効果的に解決することを示す。
論文 参考訳(メタデータ) (2020-08-19T12:35:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。