論文の概要: Information Modified K-Nearest Neighbor
- arxiv url: http://arxiv.org/abs/2312.01991v2
- Date: Tue, 14 May 2024 11:59:30 GMT
- ステータス: 処理完了
- システム内更新日: 2024-05-15 19:31:02.516887
- Title: Information Modified K-Nearest Neighbor
- Title(参考訳): 情報修正K-Nearest Neighbor
- Authors: Mohammad Ali Vahedifar, Azim Akhtarshenas, Maryam Sabbaghian, Mohammad Mohammadi Rafatpanah, Ramin Toosi,
- Abstract要約: K-Nearest Neighbors (KNN) は、隣人によるサンプルの分類である。
多くのKNN手法は、従来のKNNを著しく上回らない複雑なアルゴリズムを導入している。
KNNアルゴリズムの性能向上のための情報修正KNN(IMKNN)を提案する。
12の広く使われているデータセットの実験を行い、11.05%、12.42%、精度12.07%、精度12.07%、リコール性能をそれぞれ達成した。
- 参考スコア(独自算出の注目度): 4.916646834691489
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The fundamental concept underlying K-Nearest Neighbors (KNN) is the classification of samples based on the majority through their nearest neighbors. Although distance and neighbors' labels are critical in KNN, traditional KNN treats all samples equally. However, some KNN variants weigh neighbors differently based on a specific rule, considering each neighbor's distance and label. Many KNN methodologies introduce complex algorithms that do not significantly outperform the traditional KNN, often leading to less satisfactory outcomes. The gap in reliably extracting information for accurately predicting true weights remains an open research challenge. In our proposed method, information-modified KNN (IMKNN), we bridge the gap by presenting a straightforward algorithm that achieves effective results. To this end, we introduce a classification method to improve the performance of the KNN algorithm. By exploiting mutual information (MI) and incorporating ideas from Shapley's values, we improve the traditional KNN performance in accuracy, precision, and recall, offering a more refined and effective solution. To evaluate the effectiveness of our method, it is compared with eight variants of KNN. We conduct experiments on 12 widely-used datasets, achieving 11.05\%, 12.42\%, and 12.07\% in accuracy, precision, and recall performance, respectively, compared to traditional KNN. Additionally, we compared IMKNN with traditional KNN across four large-scale datasets to highlight the distinct advantages of IMKNN in the impact of monotonicity, noise, density, subclusters, and skewed distributions. Our research indicates that IMKNN consistently surpasses other methods in diverse datasets.
- Abstract(参考訳): K-Nearest Neighbors(KNN)の根底にある基本的な概念は、最も近い隣人を通して、多数派に基づくサンプルの分類である。
距離と隣人のラベルはKNNでは重要であるが、伝統的なKNNは全てのサンプルを平等に扱う。
しかしながら、いくつかのKNN変種は、それぞれの隣人の距離とラベルを考慮して、特定の規則に基づいて隣人の体重が異なる。
多くのKNN手法は、従来のKNNを著しく上回らない複雑なアルゴリズムを導入し、しばしば満足度の低い結果をもたらす。
真の重みを正確に予測するための情報を確実に抽出するギャップは、まだオープンな研究課題である。
提案手法では,情報修正KNN (IMKNN) を用いて,そのギャップを埋める手法を提案する。
そこで本研究では,KNNアルゴリズムの性能向上のための分類手法を提案する。
相互情報(MI)を活用し、Shapleyの値からアイデアを取り入れることで、従来のKNNのパフォーマンスを精度、精度、リコールで改善し、より洗練され効果的なソリューションを提供する。
本手法の有効性を評価するため,8種類のKNNと比較した。
従来のKNNと比較して,11.05\%,12.42\%,12.07\%の精度,精度,リコール性能を達成している。
さらに、IMKNNと従来のKNNを4つの大規模データセットで比較し、モノトニック性、ノイズ、密度、サブクラスタ、スキュード分布の影響におけるIMKNNの明確な利点を強調した。
我々の研究は、IMKNNが多様なデータセットの他の手法を一貫して上回っていることを示唆している。
関連論文リスト
- A Novel Pseudo Nearest Neighbor Classification Method Using Local Harmonic Mean Distance [0.0]
本稿では, LMPHNNと呼ばれる新しいKNN分類手法を紹介する。
LMPHNNはLMPNNルールとHMDに基づいて分類性能を向上させる。
平均精度は97%で、他の手法を14%上回る。
論文 参考訳(メタデータ) (2024-05-10T04:13:07Z) - INK: Injecting kNN Knowledge in Nearest Neighbor Machine Translation [57.952478914459164]
kNN-MTは、推論中に隣接する表現に基づいて予測を円滑にするための効果的なパラダイムを提供する。
我々は,kNN近傍の表現を少数の新しいパラメータで調整することで,表現空間を円滑にするための効果的なトレーニングフレームワークINKを提案する。
4つのベンチマークデータセットでの実験では、メソッドは1.99 COMETと1.0 BLEUの平均ゲインを達成し、0.02倍のメモリ空間と1.9倍の推論速度を持つ最先端のkNN-MTシステムより優れていた。
論文 参考訳(メタデータ) (2023-06-10T08:39:16Z) - Nearest Neighbor Zero-Shot Inference [68.56747574377215]
kNN-Promptは、言語モデル(LM)を用いたゼロショット推論のためのk-nearest neighbor (kNN)検索拡張手法である。
ファジィ動詞化器は、各分類ラベルを自然言語トークンのセットに自動的に関連付けることで、下流タスクのスパースkNN分布を利用する。
実験により,kNN-Promptはドメイン適応に有効であり,さらに,kNN検索に使用するモデルのサイズに応じて,検索のメリットが増加することが示された。
論文 参考訳(メタデータ) (2022-05-27T07:00:59Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Rethinking Nearest Neighbors for Visual Classification [56.00783095670361]
k-NNは、トレーニングセット内のテストイメージとトップk隣人間の距離を集約する遅延学習手法である。
我々は,教師付き手法と自己監督型手法のいずれでも,事前学習した視覚表現を持つk-NNを2つのステップで採用する。
本研究は,幅広い分類タスクに関する広範な実験により,k-NN統合の汎用性と柔軟性を明らかにした。
論文 参考訳(メタデータ) (2021-12-15T20:15:01Z) - KNN-BERT: Fine-Tuning Pre-Trained Models with KNN Classifier [61.063988689601416]
事前学習されたモデルは、クロスエントロピー損失によって最適化された線形分類器を用いて、微調整された下流タスクに広く利用されている。
これらの問題は、同じクラスの類似点と、予測を行う際の矛盾点に焦点を当てた表現を学習することで改善することができる。
本稿では、事前訓練されたモデル微調整タスクにおけるKNearest Neighborsについて紹介する。
論文 参考訳(メタデータ) (2021-10-06T06:17:05Z) - Adaptive Nearest Neighbor Machine Translation [60.97183408140499]
kNN-MTは、事前訓練されたニューラルネットワーク翻訳とトークンレベルのk-nearest-neighbor検索を組み合わせる。
従来のkNNアルゴリズムは、ターゲットトークンごとに同じ数の近傍を検索する。
ターゲットトークン毎のk個数を動的に決定する適応的kNN-MTを提案する。
論文 参考訳(メタデータ) (2021-05-27T09:27:42Z) - Evaluating Deep Neural Network Ensembles by Majority Voting cum
Meta-Learning scheme [3.351714665243138]
新しいデータインスタンスのために,7つの独立したディープニューラルネットワーク(DNN)のアンサンブルを提案する。
残りのサンプルからブートストラップサンプリングによってデータの7分の1を削除して補充する。
この論文のすべてのアルゴリズムは5つのベンチマークデータセットでテストされている。
論文 参考訳(メタデータ) (2021-05-09T03:10:56Z) - KNN-enhanced Deep Learning Against Noisy Labels [4.765948508271371]
Deep Neural Networks(DNN)の監視学習は、データ空腹である。
本研究では,ラベルクリーンアップに深いKNNを適用することを提案する。
ニューラルネットワークを反復的にトレーニングし、ラベルを更新し、ラベル回復率の向上と分類性能の向上を同時に進める。
論文 参考訳(メタデータ) (2020-12-08T05:21:29Z) - A new hashing based nearest neighbors selection technique for big
datasets [14.962398031252063]
本稿では, 観測対象の近傍に直接近接する近隣住民の選別を可能にする新しい手法を提案する。
提案手法は,データ空間上に構築された仮想グリッドのサブセルにデータ空間を分割する。
提案アルゴリズムは,元のKNNよりも時間効率が良く,予測品質もKNNと同等である。
論文 参考訳(メタデータ) (2020-04-05T19:36:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。