論文の概要: A k nearest neighbours classifiers ensemble based on extended
neighbourhood rule and features subsets
- arxiv url: http://arxiv.org/abs/2205.15111v1
- Date: Mon, 30 May 2022 13:57:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-31 21:27:05.302419
- Title: A k nearest neighbours classifiers ensemble based on extended
neighbourhood rule and features subsets
- Title(参考訳): 拡張隣接規則に基づくk近傍近傍分類器のアンサンブルと部分集合
- Authors: Amjad Ali, Muhammad Hamraz, Naz Gul, Dost Muhammad Khan, Zardad Khan,
Saeed Aldahmani
- Abstract要約: kNNベースのアンサンブル法は、不明瞭な観測に最も近い与えられた特徴空間におけるデータポイントの集合を識別することにより、外れ値の効果を最小化する。
そこで本論文では, 隣人がkステップで決定される, k近傍のアンサンブルを提案する。
- 参考スコア(独自算出の注目度): 0.4709844746265484
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: kNN based ensemble methods minimise the effect of outliers by identifying a
set of data points in the given feature space that are nearest to an unseen
observation in order to predict its response by using majority voting. The
ordinary ensembles based on kNN find out the k nearest observations in a region
(bounded by a sphere) based on a predefined value of k. This scenario, however,
might not work in situations when the test observation follows the pattern of
the closest data points with the same class that lie on a certain path not
contained in the given sphere. This paper proposes a k nearest neighbour
ensemble where the neighbours are determined in k steps. Starting from the
first nearest observation of the test point, the algorithm identifies a single
observation that is closest to the observation at the previous step. At each
base learner in the ensemble, this search is extended to k steps on a random
bootstrap sample with a random subset of features selected from the feature
space. The final predicted class of the test point is determined by using a
majority vote in the predicted classes given by all base models. This new
ensemble method is applied on 17 benchmark datasets and compared with other
classical methods, including kNN based models, in terms of classification
accuracy, kappa and Brier score as performance metrics. Boxplots are also
utilised to illustrate the difference in the results given by the proposed and
other state-of-the-art methods. The proposed method outperformed the rest of
the classical methods in the majority of cases. The paper gives a detailed
simulation study for further assessment.
- Abstract(参考訳): kNNベースのアンサンブル法は、多数決投票を用いて応答を予測するために、不明瞭な観測に最も近い特徴空間内のデータポイントを識別することにより、外れ値の効果を最小化する。
kNN に基づく通常のアンサンブルは、k の事前定義された値に基づいて(球が有界な)領域において k に近い観測値を求める。
しかし、このシナリオは、テスト観察が与えられた球体に含まれない特定の経路上にある同じクラスを持つ最も近いデータポイントのパターンに従う状況ではうまくいかないかもしれない。
本稿では、近傍がkステップで決定されるk近傍アンサンブルを提案する。
テストポイントの最初の最も近い観測から始めて、アルゴリズムは前のステップで観測に最も近い1つの観測を識別する。
アンサンブルの各ベース学習者において、この探索は、特徴空間から選択された機能のランダムサブセットを持つランダムブートストラップサンプル上のkステップまで拡張される。
テストポイントの最終予測クラスは、すべてのベースモデルによって与えられる予測クラスで多数決を用いて決定される。
この新しいアンサンブル法は17のベンチマークデータセットに適用され、性能指標としてknnベースのモデル、kappa、brierスコアなど他の古典的手法と比較される。
Boxplotsは、提案手法と他の最先端手法による結果の違いを説明するためにも使われる。
提案手法は古典的手法の他の部分よりも多くのケースで優れていた。
本論文は,さらなる評価のための詳細なシミュレーション研究を行う。
関連論文リスト
- Class-Conditional Conformal Prediction with Many Classes [60.8189977620604]
類似した共形スコアを持つクラスをクラスタ化するクラスタ化共形予測法を提案する。
クラスタ化されたコンフォメーションは、クラス条件カバレッジとセットサイズメトリクスの点で、既存のメソッドよりも一般的に優れています。
論文 参考訳(メタデータ) (2023-06-15T17:59:02Z) - Rethinking k-means from manifold learning perspective [122.38667613245151]
平均推定なしで直接データのクラスタを検出する新しいクラスタリングアルゴリズムを提案する。
具体的には,バタワースフィルタを用いてデータ点間の距離行列を構成する。
異なる視点に埋め込まれた相補的な情報をうまく活用するために、テンソルのSchatten p-norm正規化を利用する。
論文 参考訳(メタデータ) (2023-05-12T03:01:41Z) - A Random Projection k Nearest Neighbours Ensemble for Classification via
Extended Neighbourhood Rule [0.5052937880533719]
k近い隣人(kNN)に基づくアンサンブルは、多数の基礎学習者を組み合わせている。
RPExNRuleアンサンブルは、与えられたトレーニングデータからのブートストラップサンプルをランダムに低次元に投影する。
論文 参考訳(メタデータ) (2023-03-21T21:58:59Z) - Optimal Extended Neighbourhood Rule $k$ Nearest Neighbours Ensemble [1.8843687952462742]
本稿では,新しい拡張近傍ルールに基づくアンサンブル法を提案する。
アンサンブルは、精度、Cohen's kappa、Brier score(BS)を使用した17のベンチマークデータセットの最先端の手法と比較される。
論文 参考訳(メタデータ) (2022-11-21T09:13:54Z) - An enhanced method of initial cluster center selection for K-means
algorithm [0.0]
K-meansアルゴリズムの初期クラスタ選択を改善するための新しい手法を提案する。
Convex Hullアルゴリズムは、最初の2つのセントロイドの計算を容易にし、残りの2つは、以前選択された中心からの距離に応じて選択される。
We obtained only 7.33%, 7.90%, and 0% clustering error in Iris, Letter, and Ruspini data。
論文 参考訳(メタデータ) (2022-10-18T00:58:50Z) - Gradient Based Clustering [72.15857783681658]
本稿では,クラスタリングの品質を計測するコスト関数の勾配を用いて,距離に基づくクラスタリングの一般的な手法を提案する。
アプローチは反復的な2段階の手順(クラスタ割り当てとクラスタセンターのアップデートの代替)であり、幅広い機能に適用できる。
論文 参考訳(メタデータ) (2022-02-01T19:31:15Z) - Estimating leverage scores via rank revealing methods and randomization [50.591267188664666]
任意のランクの正方形密度あるいはスパース行列の統計レバレッジスコアを推定するアルゴリズムについて検討した。
提案手法は,高密度およびスパースなランダム化次元性還元変換の合成と階調明細化法を組み合わせることに基づく。
論文 参考訳(メタデータ) (2021-05-23T19:21:55Z) - Adversarial Examples for $k$-Nearest Neighbor Classifiers Based on
Higher-Order Voronoi Diagrams [69.4411417775822]
逆例は機械学習モデルにおいて広く研究されている現象である。
そこで本研究では,$k$-nearest 近傍分類の逆ロバスト性を評価するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-11-19T08:49:10Z) - K-Nearest Neighbour and Support Vector Machine Hybrid Classification [0.0]
この手法は, 近接条件を満たす試験試料にK-Nearest Neighbour Classificationを用いた。
分離されたテストサンプル毎に、Support Vector Machineは、それに関連するトレーニングセットパターンに基づいてトレーニングされ、テストサンプルの分類が行われます。
論文 参考訳(メタデータ) (2020-06-28T15:26:56Z) - Clustering Binary Data by Application of Combinatorial Optimization
Heuristics [52.77024349608834]
本稿では,2値データのクラスタリング手法について検討し,まず,クラスタのコンパクトさを計測するアグリゲーション基準を定義した。
近隣地域と人口動態最適化メタヒューリスティックスを用いた5つの新しいオリジナル手法が導入された。
準モンテカルロ実験によって生成された16のデータテーブルから、L1の相似性と階層的クラスタリング、k-means(メドイドやPAM)の1つのアグリゲーションの比較を行う。
論文 参考訳(メタデータ) (2020-01-06T23:33:31Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。