論文の概要: Information Modified K-Nearest Neighbor
- arxiv url: http://arxiv.org/abs/2312.01991v1
- Date: Mon, 4 Dec 2023 16:10:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-05 14:38:04.161368
- Title: Information Modified K-Nearest Neighbor
- Title(参考訳): 情報修正K-Nearest Neighbor
- Authors: Mohammad Ali Vahedifar, Azim Akhtarshenas, Mariam Sabbaghian, Mohammad
Rafatpanah
- Abstract要約: K-Nearest Neighbors (KNN) アルゴリズムの性能向上を目的とした新しい分類手法を提案する。
本手法では,重みの重要度を高め,Shapley値からインスピレーションを得るために相互情報(MI)を利用する。
提案手法の精度,精度,リコールの点から評価し,12種類の広く利用されているデータセットを用いて実験を行った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this research paper, we introduce a novel classification method aimed at
improving the performance of the K-Nearest Neighbors (KNN) algorithm. Our
approach leverages Mutual Information (MI) to enhance the significance of
weights and draw inspiration from Shapley values, a concept originating from
cooperative game theory, to refine value allocation. The fundamental concept
underlying KNN is the classification of samples based on the majority thorough
their k-nearest neighbors. While both the distances and labels of these
neighbors are crucial, traditional KNN assigns equal weight to all samples and
prevance considering the varying importance of each neighbor based on their
distances and labels.
In the proposed method, known as Information-Modified KNN (IMKNN), we address
this issue by introducing a straightforward algorithm. To evaluate the
effectiveness of our approach, it is compared with 7 contemporary variants of
KNN, as well as the traditional KNN. Each of these variants exhibits its unique
advantages and limitations. We conduct experiments on 12 widely-used datasets,
assessing the methods' performance in terms of accuracy, precision and recall.
Our study demonstrates that IMKNN consistently outperforms other methods
across different datasets and criteria by highlighting its superior performance
in various classification tasks. These findings underscore the potential of
IMKNN as a valuable tool for enhancing the capabilities of the KNN algorithm in
diverse applications.
- Abstract(参考訳): 本稿では,K-Nearest Neighbors(KNN)アルゴリズムの性能向上を目的とした新しい分類手法を提案する。
本手法では,相互情報(MI)を利用して重みの重要度を高め,協調ゲーム理論を起源とする概念であるShapley値からインスピレーションを得る。
knnの基礎となる基本的な概念は、k-ネアレスト近傍の多数派に基づくサンプルの分類である。
これらの隣人の距離とラベルはどちらも重要であるが、伝統的なKNNは、その距離とラベルに基づいて隣人の様々な重要性を考慮して、すべてのサンプルと予防に等しく重みを割り当てている。
IMKNN(Information-Modified KNN)と呼ばれる提案手法では,簡単なアルゴリズムを導入することでこの問題に対処する。
提案手法の有効性を評価するため、7種類のKNNと従来のKNNを比較した。
これらのバリエーションは、それぞれ独自の利点と限界を示している。
提案手法の精度,精度,リコールの観点から評価し,12種類の広く利用されているデータセットの実験を行った。
本研究は、IMKNNが様々な分類タスクにおいて優れた性能を示すことにより、異なるデータセットや基準をまたいだ他の手法よりも一貫して優れていることを示す。
これらの知見は、多様なアプリケーションにおけるKNNアルゴリズムの能力を向上するための貴重なツールとして、IMKNNの可能性を強調している。
関連論文リスト
- Uncertainty in GNN Learning Evaluations: The Importance of a Consistent
Benchmark for Community Detection [4.358468367889626]
グラフニューラルネットワーク(GNN)の共通評価プロトコルを確立するためのフレームワークを提案する。
プロトコルの有無の相違を実証することで、モチベーションと正当化を行います。
また,同じ評価基準が従うことを保証することで,本課題における手法の性能と有意な差があることが判明した。
論文 参考訳(メタデータ) (2023-05-10T10:22:28Z) - A Novel Nearest Neighbors Algorithm Based on Power Muirhead Mean [0.0]
我々は新しい手法をPower Muirhead Mean K-Nearest Neighbors (PMM-KNN) と呼ぶ。
PMM-KNNにはいくつかのパラメータがあり、各問題に対して決定および微調整が可能である。
PMM-KNNの性能を評価するために、よく知られた5つのデータセットを使用した。
論文 参考訳(メタデータ) (2022-09-04T01:10:56Z) - Batch-Ensemble Stochastic Neural Networks for Out-of-Distribution
Detection [55.028065567756066]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイすることの重要性から、マシンラーニングコミュニティから注目を集めている。
本稿では,特徴量の分布をモデル化した不確実な定量化手法を提案する。
バッチアンサンブルニューラルネットワーク(BE-SNN)の構築と機能崩壊問題の克服を目的として,効率的なアンサンブル機構,すなわちバッチアンサンブルを組み込んだ。
We show that BE-SNNs yield superior performance on the Two-Moons dataset, the FashionMNIST vs MNIST dataset, FashionM。
論文 参考訳(メタデータ) (2022-06-26T16:00:22Z) - Knowledge Enhanced Neural Networks for relational domains [83.9217787335878]
我々は、ニューラルネットワークに事前論理的知識を注入するニューラルネットワークアーキテクチャであるKENNに焦点を当てる。
本稿では,関係データに対するKENNの拡張を提案する。
論文 参考訳(メタデータ) (2022-05-31T13:00:34Z) - Nearest Neighbor Zero-Shot Inference [68.56747574377215]
kNN-Promptは、言語モデル(LM)を用いたゼロショット推論のためのk-nearest neighbor (kNN)検索拡張手法である。
ファジィ動詞化器は、各分類ラベルを自然言語トークンのセットに自動的に関連付けることで、下流タスクのスパースkNN分布を利用する。
実験により,kNN-Promptはドメイン適応に有効であり,さらに,kNN検索に使用するモデルのサイズに応じて,検索のメリットが増加することが示された。
論文 参考訳(メタデータ) (2022-05-27T07:00:59Z) - KNN-BERT: Fine-Tuning Pre-Trained Models with KNN Classifier [61.063988689601416]
事前学習されたモデルは、クロスエントロピー損失によって最適化された線形分類器を用いて、微調整された下流タスクに広く利用されている。
これらの問題は、同じクラスの類似点と、予測を行う際の矛盾点に焦点を当てた表現を学習することで改善することができる。
本稿では、事前訓練されたモデル微調整タスクにおけるKNearest Neighborsについて紹介する。
論文 参考訳(メタデータ) (2021-10-06T06:17:05Z) - Adaptive Nearest Neighbor Machine Translation [60.97183408140499]
kNN-MTは、事前訓練されたニューラルネットワーク翻訳とトークンレベルのk-nearest-neighbor検索を組み合わせる。
従来のkNNアルゴリズムは、ターゲットトークンごとに同じ数の近傍を検索する。
ターゲットトークン毎のk個数を動的に決定する適応的kNN-MTを提案する。
論文 参考訳(メタデータ) (2021-05-27T09:27:42Z) - KNN Classification with One-step Computation [10.381276986079865]
KNN分類の遅延部分を置き換える一段階計算を提案する。
提案手法を実験的に評価し,一段階のKNN分類が効率的かつ有望であることを示した。
論文 参考訳(メタデータ) (2020-12-09T13:34:42Z) - KNN-enhanced Deep Learning Against Noisy Labels [4.765948508271371]
Deep Neural Networks(DNN)の監視学習は、データ空腹である。
本研究では,ラベルクリーンアップに深いKNNを適用することを提案する。
ニューラルネットワークを反復的にトレーニングし、ラベルを更新し、ラベル回復率の向上と分類性能の向上を同時に進める。
論文 参考訳(メタデータ) (2020-12-08T05:21:29Z) - Neural Networks Enhancement with Logical Knowledge [83.9217787335878]
関係データに対するKENNの拡張を提案する。
その結果、KENNは、存在関係データにおいても、基礎となるニューラルネットワークの性能を高めることができることがわかった。
論文 参考訳(メタデータ) (2020-09-13T21:12:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。