論文の概要: An Optimal k Nearest Neighbours Ensemble for Classification Based on
Extended Neighbourhood Rule with Features subspace
- arxiv url: http://arxiv.org/abs/2211.11278v1
- Date: Mon, 21 Nov 2022 09:13:54 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-22 18:37:11.750371
- Title: An Optimal k Nearest Neighbours Ensemble for Classification Based on
Extended Neighbourhood Rule with Features subspace
- Title(参考訳): 特徴部分空間を持つ拡張隣接規則に基づく分類のための最適k近傍アンサンブル
- Authors: Amjad Ali, Muhammad Hamraz, Dost Muhammad Khan, Saeed Aldahmani,
Zardad Khan
- Abstract要約: kNNアンサンブルは、未知のクラスを推定するために、新しいサンプルポイントに最も近い観測セットを識別する。
k近傍の手順は、テストデータのサンプルポイントが最も近い観測パターンに従う状況では機能しない。
最適拡張近傍規則に基づくアンサンブルが提案され、隣人はkステップで決定される。
- 参考スコア(独自算出の注目度): 0.5052937880533719
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: To minimize the effect of outliers, kNN ensembles identify a set of closest
observations to a new sample point to estimate its unknown class by using
majority voting in the labels of the training instances in the neighbourhood.
Ordinary kNN based procedures determine k closest training observations in the
neighbourhood region (enclosed by a sphere) by using a distance formula. The k
nearest neighbours procedure may not work in a situation where sample points in
the test data follow the pattern of the nearest observations that lie on a
certain path not contained in the given sphere of nearest neighbours.
Furthermore, these methods combine hundreds of base kNN learners and many of
them might have high classification errors thereby resulting in poor ensembles.
To overcome these problems, an optimal extended neighbourhood rule based
ensemble is proposed where the neighbours are determined in k steps. It starts
from the first nearest sample point to the unseen observation. The second
nearest data point is identified that is closest to the previously selected
data point. This process is continued until the required number of the k
observations are obtained. Each base model in the ensemble is constructed on a
bootstrap sample in conjunction with a random subset of features. After
building a sufficiently large number of base models, the optimal models are
then selected based on their performance on out-of-bag (OOB) data.
- Abstract(参考訳): 外れ値の影響を最小限に抑えるため、kNNアンサンブルは、近隣のトレーニングインスタンスのラベルの多数投票を用いて、新しいサンプルポイントに最も近い観測セットを特定し、その未知のクラスを推定する。
通常のkNNベースのプロシージャは、距離公式を用いて、近隣地域の(球体で閉じた)最も近い訓練観察を決定づける。
k近傍の手順は、テストデータ中のサンプルポイントが、与えられた近傍の球体に含まれない特定の経路上にある最も近い観測パターンに従うような状況ではうまくいかない。
さらに、これらの手法は数百の基本kNN学習者を組み合わせており、多くは高い分類誤差があり、結果としてアンサンブルが低下する可能性がある。
これらの問題を克服するため、kステップで隣人が決定される最適拡張近傍規則に基づくアンサンブルが提案される。
一番近いサンプルポイントから目に見えない観察まで始まります。
第2の最も近いデータポイントは、予め選択されたデータポイントに最も近いものを特定する。
この過程は、必要な数 k の観測が得られるまで継続される。
アンサンブルの各ベースモデルは、ランダムな特徴のサブセットと共にブートストラップサンプル上に構築される。
十分な数のベースモデルを構築した後、out-of-bag(oob)データに基づいて最適なモデルを選択する。
関連論文リスト
- Adaptive $k$-nearest neighbor classifier based on the local estimation of the shape operator [49.87315310656657]
我々は, 局所曲率をサンプルで探索し, 周辺面積を適応的に定義する適応型$k$-nearest(kK$-NN)アルゴリズムを提案する。
多くの実世界のデータセットから、新しい$kK$-NNアルゴリズムは、確立された$k$-NN法と比較してバランスの取れた精度が優れていることが示されている。
論文 参考訳(メタデータ) (2024-09-08T13:08:45Z) - A Random Projection k Nearest Neighbours Ensemble for Classification via
Extended Neighbourhood Rule [0.5052937880533719]
k近い隣人(kNN)に基づくアンサンブルは、多数の基礎学習者を組み合わせている。
RPExNRuleアンサンブルは、与えられたトレーニングデータからのブートストラップサンプルをランダムに低次元に投影する。
論文 参考訳(メタデータ) (2023-03-21T21:58:59Z) - A k nearest neighbours classifiers ensemble based on extended
neighbourhood rule and features subsets [0.4709844746265484]
kNNベースのアンサンブル法は、不明瞭な観測に最も近い与えられた特徴空間におけるデータポイントの集合を識別することにより、外れ値の効果を最小化する。
そこで本論文では, 隣人がkステップで決定される, k近傍のアンサンブルを提案する。
論文 参考訳(メタデータ) (2022-05-30T13:57:32Z) - Local policy search with Bayesian optimization [73.0364959221845]
強化学習は、環境との相互作用によって最適な政策を見つけることを目的としている。
局所探索のための政策勾配は、しばしばランダムな摂動から得られる。
目的関数の確率モデルとその勾配を用いたアルゴリズムを開発する。
論文 参考訳(メタデータ) (2021-06-22T16:07:02Z) - Estimating leverage scores via rank revealing methods and randomization [50.591267188664666]
任意のランクの正方形密度あるいはスパース行列の統計レバレッジスコアを推定するアルゴリズムについて検討した。
提案手法は,高密度およびスパースなランダム化次元性還元変換の合成と階調明細化法を組み合わせることに基づく。
論文 参考訳(メタデータ) (2021-05-23T19:21:55Z) - Distributed Adaptive Nearest Neighbor Classifier: Algorithm and Theory [6.696267547013535]
そこで本研究では,データ駆動基準によりパラメータ選択された,近接する隣人の数がパラメータとなる分散適応型NN分類器を提案する。
有限標本性能を向上する最適チューニングパラメータを探索する際,早期停止規則を提案する。
特に、サブサンプルサイズが十分に大きい場合、提案した分類器がほぼ最適な収束率を達成することを示す。
論文 参考訳(メタデータ) (2021-05-20T14:38:41Z) - Leveraging Reinforcement Learning for evaluating Robustness of KNN
Search Algorithms [0.0]
与えられたクエリポイントのデータセットでk-nearestの隣人を見つける問題は、数年前から解決されてきた。
本稿では,K-Nearest Neighbor Search(K-Nearest Neighbor Search)の手法について,計算の視点から検討する。
本論文では,KNNSアプローチの対敵点に対する堅牢性を評価するために,汎用的な強化学習ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-10T16:10:58Z) - Adversarial Examples for $k$-Nearest Neighbor Classifiers Based on
Higher-Order Voronoi Diagrams [69.4411417775822]
逆例は機械学習モデルにおいて広く研究されている現象である。
そこで本研究では,$k$-nearest 近傍分類の逆ロバスト性を評価するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-11-19T08:49:10Z) - Making Affine Correspondences Work in Camera Geometry Computation [62.7633180470428]
局所的な特徴は、ポイント・ツー・ポイント対応ではなく、リージョン・ツー・リージョンを提供する。
本稿では,全モデル推定パイプラインにおいて,地域間マッチングを効果的に活用するためのガイドラインを提案する。
実験により、アフィンソルバはより高速な実行時にポイントベースソルバに匹敵する精度を達成できることが示された。
論文 参考訳(メタデータ) (2020-07-20T12:07:48Z) - A new hashing based nearest neighbors selection technique for big
datasets [14.962398031252063]
本稿では, 観測対象の近傍に直接近接する近隣住民の選別を可能にする新しい手法を提案する。
提案手法は,データ空間上に構築された仮想グリッドのサブセルにデータ空間を分割する。
提案アルゴリズムは,元のKNNよりも時間効率が良く,予測品質もKNNと同等である。
論文 参考訳(メタデータ) (2020-04-05T19:36:00Z) - Clustering Binary Data by Application of Combinatorial Optimization
Heuristics [52.77024349608834]
本稿では,2値データのクラスタリング手法について検討し,まず,クラスタのコンパクトさを計測するアグリゲーション基準を定義した。
近隣地域と人口動態最適化メタヒューリスティックスを用いた5つの新しいオリジナル手法が導入された。
準モンテカルロ実験によって生成された16のデータテーブルから、L1の相似性と階層的クラスタリング、k-means(メドイドやPAM)の1つのアグリゲーションの比較を行う。
論文 参考訳(メタデータ) (2020-01-06T23:33:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。