論文の概要: Information Modified K-Nearest Neighbor
- arxiv url: http://arxiv.org/abs/2312.01991v1
- Date: Mon, 4 Dec 2023 16:10:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-05 14:38:04.161368
- Title: Information Modified K-Nearest Neighbor
- Title(参考訳): 情報修正K-Nearest Neighbor
- Authors: Mohammad Ali Vahedifar, Azim Akhtarshenas, Mariam Sabbaghian, Mohammad
Rafatpanah
- Abstract要約: K-Nearest Neighbors (KNN) アルゴリズムの性能向上を目的とした新しい分類手法を提案する。
本手法では,重みの重要度を高め,Shapley値からインスピレーションを得るために相互情報(MI)を利用する。
提案手法の精度,精度,リコールの点から評価し,12種類の広く利用されているデータセットを用いて実験を行った。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this research paper, we introduce a novel classification method aimed at
improving the performance of the K-Nearest Neighbors (KNN) algorithm. Our
approach leverages Mutual Information (MI) to enhance the significance of
weights and draw inspiration from Shapley values, a concept originating from
cooperative game theory, to refine value allocation. The fundamental concept
underlying KNN is the classification of samples based on the majority thorough
their k-nearest neighbors. While both the distances and labels of these
neighbors are crucial, traditional KNN assigns equal weight to all samples and
prevance considering the varying importance of each neighbor based on their
distances and labels.
In the proposed method, known as Information-Modified KNN (IMKNN), we address
this issue by introducing a straightforward algorithm. To evaluate the
effectiveness of our approach, it is compared with 7 contemporary variants of
KNN, as well as the traditional KNN. Each of these variants exhibits its unique
advantages and limitations. We conduct experiments on 12 widely-used datasets,
assessing the methods' performance in terms of accuracy, precision and recall.
Our study demonstrates that IMKNN consistently outperforms other methods
across different datasets and criteria by highlighting its superior performance
in various classification tasks. These findings underscore the potential of
IMKNN as a valuable tool for enhancing the capabilities of the KNN algorithm in
diverse applications.
- Abstract(参考訳): 本稿では,K-Nearest Neighbors(KNN)アルゴリズムの性能向上を目的とした新しい分類手法を提案する。
本手法では,相互情報(MI)を利用して重みの重要度を高め,協調ゲーム理論を起源とする概念であるShapley値からインスピレーションを得る。
knnの基礎となる基本的な概念は、k-ネアレスト近傍の多数派に基づくサンプルの分類である。
これらの隣人の距離とラベルはどちらも重要であるが、伝統的なKNNは、その距離とラベルに基づいて隣人の様々な重要性を考慮して、すべてのサンプルと予防に等しく重みを割り当てている。
IMKNN(Information-Modified KNN)と呼ばれる提案手法では,簡単なアルゴリズムを導入することでこの問題に対処する。
提案手法の有効性を評価するため、7種類のKNNと従来のKNNを比較した。
これらのバリエーションは、それぞれ独自の利点と限界を示している。
提案手法の精度,精度,リコールの観点から評価し,12種類の広く利用されているデータセットの実験を行った。
本研究は、IMKNNが様々な分類タスクにおいて優れた性能を示すことにより、異なるデータセットや基準をまたいだ他の手法よりも一貫して優れていることを示す。
これらの知見は、多様なアプリケーションにおけるKNNアルゴリズムの能力を向上するための貴重なツールとして、IMKNNの可能性を強調している。
関連論文リスト
- A Novel Pseudo Nearest Neighbor Classification Method Using Local Harmonic Mean Distance [0.0]
本稿では, LMPHNNと呼ばれる新しいKNN分類手法を紹介する。
LMPHNNはLMPNNルールとHMDに基づいて分類性能を向上させる。
平均精度は97%で、他の手法を14%上回る。
論文 参考訳(メタデータ) (2024-05-10T04:13:07Z) - INK: Injecting kNN Knowledge in Nearest Neighbor Machine Translation [57.952478914459164]
kNN-MTは、推論中に隣接する表現に基づいて予測を円滑にするための効果的なパラダイムを提供する。
我々は,kNN近傍の表現を少数の新しいパラメータで調整することで,表現空間を円滑にするための効果的なトレーニングフレームワークINKを提案する。
4つのベンチマークデータセットでの実験では、メソッドは1.99 COMETと1.0 BLEUの平均ゲインを達成し、0.02倍のメモリ空間と1.9倍の推論速度を持つ最先端のkNN-MTシステムより優れていた。
論文 参考訳(メタデータ) (2023-06-10T08:39:16Z) - Nearest Neighbor Zero-Shot Inference [68.56747574377215]
kNN-Promptは、言語モデル(LM)を用いたゼロショット推論のためのk-nearest neighbor (kNN)検索拡張手法である。
ファジィ動詞化器は、各分類ラベルを自然言語トークンのセットに自動的に関連付けることで、下流タスクのスパースkNN分布を利用する。
実験により,kNN-Promptはドメイン適応に有効であり,さらに,kNN検索に使用するモデルのサイズに応じて,検索のメリットが増加することが示された。
論文 参考訳(メタデータ) (2022-05-27T07:00:59Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Rethinking Nearest Neighbors for Visual Classification [56.00783095670361]
k-NNは、トレーニングセット内のテストイメージとトップk隣人間の距離を集約する遅延学習手法である。
我々は,教師付き手法と自己監督型手法のいずれでも,事前学習した視覚表現を持つk-NNを2つのステップで採用する。
本研究は,幅広い分類タスクに関する広範な実験により,k-NN統合の汎用性と柔軟性を明らかにした。
論文 参考訳(メタデータ) (2021-12-15T20:15:01Z) - KNN-BERT: Fine-Tuning Pre-Trained Models with KNN Classifier [61.063988689601416]
事前学習されたモデルは、クロスエントロピー損失によって最適化された線形分類器を用いて、微調整された下流タスクに広く利用されている。
これらの問題は、同じクラスの類似点と、予測を行う際の矛盾点に焦点を当てた表現を学習することで改善することができる。
本稿では、事前訓練されたモデル微調整タスクにおけるKNearest Neighborsについて紹介する。
論文 参考訳(メタデータ) (2021-10-06T06:17:05Z) - Adaptive Nearest Neighbor Machine Translation [60.97183408140499]
kNN-MTは、事前訓練されたニューラルネットワーク翻訳とトークンレベルのk-nearest-neighbor検索を組み合わせる。
従来のkNNアルゴリズムは、ターゲットトークンごとに同じ数の近傍を検索する。
ターゲットトークン毎のk個数を動的に決定する適応的kNN-MTを提案する。
論文 参考訳(メタデータ) (2021-05-27T09:27:42Z) - Evaluating Deep Neural Network Ensembles by Majority Voting cum
Meta-Learning scheme [3.351714665243138]
新しいデータインスタンスのために,7つの独立したディープニューラルネットワーク(DNN)のアンサンブルを提案する。
残りのサンプルからブートストラップサンプリングによってデータの7分の1を削除して補充する。
この論文のすべてのアルゴリズムは5つのベンチマークデータセットでテストされている。
論文 参考訳(メタデータ) (2021-05-09T03:10:56Z) - KNN-enhanced Deep Learning Against Noisy Labels [4.765948508271371]
Deep Neural Networks(DNN)の監視学習は、データ空腹である。
本研究では,ラベルクリーンアップに深いKNNを適用することを提案する。
ニューラルネットワークを反復的にトレーニングし、ラベルを更新し、ラベル回復率の向上と分類性能の向上を同時に進める。
論文 参考訳(メタデータ) (2020-12-08T05:21:29Z) - A new hashing based nearest neighbors selection technique for big
datasets [14.962398031252063]
本稿では, 観測対象の近傍に直接近接する近隣住民の選別を可能にする新しい手法を提案する。
提案手法は,データ空間上に構築された仮想グリッドのサブセルにデータ空間を分割する。
提案アルゴリズムは,元のKNNよりも時間効率が良く,予測品質もKNNと同等である。
論文 参考訳(メタデータ) (2020-04-05T19:36:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。