論文の概要: Optimal Extended Neighbourhood Rule $k$ Nearest Neighbours Ensemble
- arxiv url: http://arxiv.org/abs/2211.11278v2
- Date: Thu, 15 Feb 2024 21:13:51 GMT
- ステータス: 処理完了
- システム内更新日: 2024-02-19 21:16:50.992325
- Title: Optimal Extended Neighbourhood Rule $k$ Nearest Neighbours Ensemble
- Title(参考訳): 最適拡張近隣ルール$k$Nearest Neighboursの集合
- Authors: Amjad Ali, Zardad Khan, Dost Muhammad Khan, Saeed Aldahmani
- Abstract要約: 本稿では,新しい拡張近傍ルールに基づくアンサンブル法を提案する。
アンサンブルは、精度、Cohen's kappa、Brier score(BS)を使用した17のベンチマークデータセットの最先端の手法と比較される。
- 参考スコア(独自算出の注目度): 1.8843687952462742
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The traditional k nearest neighbor (kNN) approach uses a distance formula
within a spherical region to determine the k closest training observations to a
test sample point. However, this approach may not work well when test point is
located outside this region. Moreover, aggregating many base kNN learners can
result in poor ensemble performance due to high classification errors. To
address these issues, a new optimal extended neighborhood rule based ensemble
method is proposed in this paper. This rule determines neighbors in k steps
starting from the closest sample point to the unseen observation and selecting
subsequent nearest data points until the required number of observations is
reached. Each base model is constructed on a bootstrap sample with a random
subset of features, and optimal models are selected based on out-of-bag
performance after building a sufficient number of models. The proposed ensemble
is compared with state-of-the-art methods on 17 benchmark datasets using
accuracy, Cohen's kappa, and Brier score (BS). The performance of the proposed
method is also assessed by adding contrived features in the original data.
- Abstract(参考訳): 従来のkに近い隣人(kNN)アプローチでは、球面領域内の距離公式を用いて、kに近いトレーニング観測を試験サンプル点まで決定する。
しかし、このアプローチは、テストポイントがこの領域の外にある場合、うまくいきません。
さらに,多くの基本kNN学習者を集約すると,高い分類誤差のためアンサンブル性能が低下する可能性がある。
本稿では,これらの問題に対処するため,拡張近傍ルールに基づくアンサンブル法を提案する。
この規則は、最も近いサンプル点から見えない観測点までのkステップの近傍を決定し、必要な観測数に達するまで最も近いデータ点を選択する。
各ベースモデルは、ランダムな特徴のサブセットを持つブートストラップサンプル上に構築され、十分な数のモデルを構築した後、バッグ外性能に基づいて最適なモデルを選択する。
提案手法は17のベンチマークデータセットの精度, cohen's kappa, brier score (bs) を用いた最新手法と比較した。
また,提案手法の性能を,元のデータに探索的特徴を加えて評価する。
関連論文リスト
- Adaptive $k$-nearest neighbor classifier based on the local estimation of the shape operator [49.87315310656657]
我々は, 局所曲率をサンプルで探索し, 周辺面積を適応的に定義する適応型$k$-nearest(kK$-NN)アルゴリズムを提案する。
多くの実世界のデータセットから、新しい$kK$-NNアルゴリズムは、確立された$k$-NN法と比較してバランスの取れた精度が優れていることが示されている。
論文 参考訳(メタデータ) (2024-09-08T13:08:45Z) - A Random Projection k Nearest Neighbours Ensemble for Classification via
Extended Neighbourhood Rule [0.5052937880533719]
k近い隣人(kNN)に基づくアンサンブルは、多数の基礎学習者を組み合わせている。
RPExNRuleアンサンブルは、与えられたトレーニングデータからのブートストラップサンプルをランダムに低次元に投影する。
論文 参考訳(メタデータ) (2023-03-21T21:58:59Z) - A k nearest neighbours classifiers ensemble based on extended
neighbourhood rule and features subsets [0.4709844746265484]
kNNベースのアンサンブル法は、不明瞭な観測に最も近い与えられた特徴空間におけるデータポイントの集合を識別することにより、外れ値の効果を最小化する。
そこで本論文では, 隣人がkステップで決定される, k近傍のアンサンブルを提案する。
論文 参考訳(メタデータ) (2022-05-30T13:57:32Z) - Local policy search with Bayesian optimization [73.0364959221845]
強化学習は、環境との相互作用によって最適な政策を見つけることを目的としている。
局所探索のための政策勾配は、しばしばランダムな摂動から得られる。
目的関数の確率モデルとその勾配を用いたアルゴリズムを開発する。
論文 参考訳(メタデータ) (2021-06-22T16:07:02Z) - Estimating leverage scores via rank revealing methods and randomization [50.591267188664666]
任意のランクの正方形密度あるいはスパース行列の統計レバレッジスコアを推定するアルゴリズムについて検討した。
提案手法は,高密度およびスパースなランダム化次元性還元変換の合成と階調明細化法を組み合わせることに基づく。
論文 参考訳(メタデータ) (2021-05-23T19:21:55Z) - Distributed Adaptive Nearest Neighbor Classifier: Algorithm and Theory [6.696267547013535]
そこで本研究では,データ駆動基準によりパラメータ選択された,近接する隣人の数がパラメータとなる分散適応型NN分類器を提案する。
有限標本性能を向上する最適チューニングパラメータを探索する際,早期停止規則を提案する。
特に、サブサンプルサイズが十分に大きい場合、提案した分類器がほぼ最適な収束率を達成することを示す。
論文 参考訳(メタデータ) (2021-05-20T14:38:41Z) - Leveraging Reinforcement Learning for evaluating Robustness of KNN
Search Algorithms [0.0]
与えられたクエリポイントのデータセットでk-nearestの隣人を見つける問題は、数年前から解決されてきた。
本稿では,K-Nearest Neighbor Search(K-Nearest Neighbor Search)の手法について,計算の視点から検討する。
本論文では,KNNSアプローチの対敵点に対する堅牢性を評価するために,汎用的な強化学習ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-10T16:10:58Z) - Adversarial Examples for $k$-Nearest Neighbor Classifiers Based on
Higher-Order Voronoi Diagrams [69.4411417775822]
逆例は機械学習モデルにおいて広く研究されている現象である。
そこで本研究では,$k$-nearest 近傍分類の逆ロバスト性を評価するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-11-19T08:49:10Z) - Making Affine Correspondences Work in Camera Geometry Computation [62.7633180470428]
局所的な特徴は、ポイント・ツー・ポイント対応ではなく、リージョン・ツー・リージョンを提供する。
本稿では,全モデル推定パイプラインにおいて,地域間マッチングを効果的に活用するためのガイドラインを提案する。
実験により、アフィンソルバはより高速な実行時にポイントベースソルバに匹敵する精度を達成できることが示された。
論文 参考訳(メタデータ) (2020-07-20T12:07:48Z) - A new hashing based nearest neighbors selection technique for big
datasets [14.962398031252063]
本稿では, 観測対象の近傍に直接近接する近隣住民の選別を可能にする新しい手法を提案する。
提案手法は,データ空間上に構築された仮想グリッドのサブセルにデータ空間を分割する。
提案アルゴリズムは,元のKNNよりも時間効率が良く,予測品質もKNNと同等である。
論文 参考訳(メタデータ) (2020-04-05T19:36:00Z) - Clustering Binary Data by Application of Combinatorial Optimization
Heuristics [52.77024349608834]
本稿では,2値データのクラスタリング手法について検討し,まず,クラスタのコンパクトさを計測するアグリゲーション基準を定義した。
近隣地域と人口動態最適化メタヒューリスティックスを用いた5つの新しいオリジナル手法が導入された。
準モンテカルロ実験によって生成された16のデータテーブルから、L1の相似性と階層的クラスタリング、k-means(メドイドやPAM)の1つのアグリゲーションの比較を行う。
論文 参考訳(メタデータ) (2020-01-06T23:33:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。