論文の概要: A Novel Pseudo Nearest Neighbor Classification Method Using Local Harmonic Mean Distance
- arxiv url: http://arxiv.org/abs/2405.06238v2
- Date: Tue, 28 May 2024 01:48:32 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-30 00:29:50.731369
- Title: A Novel Pseudo Nearest Neighbor Classification Method Using Local Harmonic Mean Distance
- Title(参考訳): 局所高調波距離を用いた擬似近傍分類法
- Authors: Junzhuo Chen, Zhixin Lu, Shitong Kang,
- Abstract要約: 本稿では, LMPHNNと呼ばれる新しいKNN分類手法を紹介する。
LMPHNNはLMPNNルールとHMDに基づいて分類性能を向上させる。
平均精度は97%で、他の手法を14%上回る。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In the realm of machine learning, the KNN classification algorithm is widely recognized for its simplicity and efficiency. However, its sensitivity to the K value poses challenges, especially with small sample sizes or outliers, impacting classification performance. This article introduces a novel KNN-based classifier called LMPHNN (Novel Pseudo Nearest Neighbor Classification Method Using Local Harmonic Mean Distance). LMPHNN leverages harmonic mean distance (HMD) to improve classification performance based on LMPNN rules and HMD. The classifier begins by identifying k nearest neighbors for each class and generates distinct local vectors as prototypes. Pseudo nearest neighbors (PNNs) are then created based on the local mean for each class, determined by comparing the HMD of the sample with the initial k group. Classification is determined by calculating the Euclidean distance between the query sample and PNNs, based on the local mean of these categories. Extensive experiments on various real UCI datasets and combined datasets compare LMPHNN with seven KNN-based classifiers, using precision, recall, accuracy, and F1 as evaluation metrics. LMPHNN achieves an average precision of 97%, surpassing other methods by 14%. The average recall improves by 12%, with an average accuracy enhancement of 5%. Additionally, LMPHNN demonstrates a 13% higher average F1 value compared to other methods. In summary, LMPHNN outperforms other classifiers, showcasing lower sensitivity with small sample sizes.
- Abstract(参考訳): 機械学習の分野では、KNN分類アルゴリズムは単純さと効率性で広く認識されている。
しかしながら、K値に対する感度は、特に小さなサンプルサイズや外れ値では、分類性能に影響を及ぼす。
本稿では,KNN を用いた LMPHNN (Novel Pseudo Nearest Neighbor Classification Method Using Local Harmonic Mean Distance) について紹介する。
LMPHNNは、LMPNNルールとHMDに基づく分類性能を改善するために、調和平均距離(HMD)を利用する。
分類器は、各クラスに最も近い k 個の近傍を識別し、異なる局所ベクトルをプロトタイプとして生成することから始まる。
Pseudo Near neighbors (PNN) は各クラスの局所平均に基づいて作成され、サンプルのHMDと初期k群を比較して決定される。
これらのカテゴリの局所平均に基づいて、クエリサンプルとPNN間のユークリッド距離を計算することで分類を決定する。
さまざまな実UCIデータセットと組み合わせデータセットに関する大規模な実験は、LMPHNNと7つのKNNベースの分類器を比較し、精度、リコール、精度、F1を評価指標として用いた。
LMPHNNは平均97%の精度を達成し、他の手法を14%上回っている。
平均リコールは12%改善され、平均精度は5%向上した。
さらに、LMPHNNは他の手法に比べて平均F1値が13%高いことを示す。
まとめると、LMPHNNは他の分類器よりも優れており、小さなサンプルサイズで低い感度を示す。
関連論文リスト
- Adaptive $k$-nearest neighbor classifier based on the local estimation of the shape operator [49.87315310656657]
我々は, 局所曲率をサンプルで探索し, 周辺面積を適応的に定義する適応型$k$-nearest(kK$-NN)アルゴリズムを提案する。
多くの実世界のデータセットから、新しい$kK$-NNアルゴリズムは、確立された$k$-NN法と比較してバランスの取れた精度が優れていることが示されている。
論文 参考訳(メタデータ) (2024-09-08T13:08:45Z) - Minimally Supervised Learning using Topological Projections in
Self-Organizing Maps [55.31182147885694]
自己組織化マップ(SOM)におけるトポロジカルプロジェクションに基づく半教師付き学習手法を提案する。
提案手法は,まずラベル付きデータ上でSOMを訓練し,最小限のラベル付きデータポイントをキーベストマッチングユニット(BMU)に割り当てる。
提案した最小教師付きモデルが従来の回帰手法を大幅に上回ることを示す。
論文 参考訳(メタデータ) (2024-01-12T22:51:48Z) - Information Modified K-Nearest Neighbor [4.916646834691489]
K-Nearest Neighbors (KNN) は、隣人によるサンプルの分類である。
多くのKNN手法は、従来のKNNを著しく上回らない複雑なアルゴリズムを導入している。
KNNアルゴリズムの性能向上のための情報修正KNN(IMKNN)を提案する。
12の広く使われているデータセットの実験を行い、11.05%、12.42%、精度12.07%、精度12.07%、リコール性能をそれぞれ達成した。
論文 参考訳(メタデータ) (2023-12-04T16:10:34Z) - Compound Batch Normalization for Long-tailed Image Classification [77.42829178064807]
本稿では,ガウス混合に基づく複合バッチ正規化法を提案する。
機能空間をより包括的にモデル化し、ヘッドクラスの優位性を減らすことができる。
提案手法は,画像分類における既存の手法よりも優れている。
論文 参考訳(メタデータ) (2022-12-02T07:31:39Z) - Local Sample-weighted Multiple Kernel Clustering with Consensus
Discriminative Graph [73.68184322526338]
マルチカーネルクラスタリング(MKC)は、ベースカーネルの集合から最適な情報融合を実現するためにコミットされる。
本稿では,新しい局所サンプル重み付きマルチカーネルクラスタリングモデルを提案する。
実験により, LSWMKCはより優れた局所多様体表現を有し, 既存のカーネルやグラフベースのクラスタリングアルゴリズムよりも優れていた。
論文 参考訳(メタデータ) (2022-07-05T05:00:38Z) - Nearest Neighbor Zero-Shot Inference [68.56747574377215]
kNN-Promptは、言語モデル(LM)を用いたゼロショット推論のためのk-nearest neighbor (kNN)検索拡張手法である。
ファジィ動詞化器は、各分類ラベルを自然言語トークンのセットに自動的に関連付けることで、下流タスクのスパースkNN分布を利用する。
実験により,kNN-Promptはドメイン適応に有効であり,さらに,kNN検索に使用するモデルのサイズに応じて,検索のメリットが増加することが示された。
論文 参考訳(メタデータ) (2022-05-27T07:00:59Z) - Dynamic Ensemble Selection Using Fuzzy Hyperboxes [10.269997499911668]
本稿では,FH-DESと呼ばれるファジィハイパーボックスに基づく動的アンサンブル選択(DES)フレームワークを提案する。
各ハイパーボックスは、2つのデータポイント(MinとMaxのコーナー)のみを使用してサンプルのグループを表現することができる。
それまでの融合法では観測されていなかった分類器の能力を評価するために、初めて誤分類されたサンプルが使用される。
論文 参考訳(メタデータ) (2022-05-20T21:06:46Z) - Adaptive Nearest Neighbor Machine Translation [60.97183408140499]
kNN-MTは、事前訓練されたニューラルネットワーク翻訳とトークンレベルのk-nearest-neighbor検索を組み合わせる。
従来のkNNアルゴリズムは、ターゲットトークンごとに同じ数の近傍を検索する。
ターゲットトークン毎のk個数を動的に決定する適応的kNN-MTを提案する。
論文 参考訳(メタデータ) (2021-05-27T09:27:42Z) - KNN Classification with One-step Computation [10.381276986079865]
KNN分類の遅延部分を置き換える一段階計算を提案する。
提案手法を実験的に評価し,一段階のKNN分類が効率的かつ有望であることを示した。
論文 参考訳(メタデータ) (2020-12-09T13:34:42Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。