論文の概要: DW-KNN: A Transparent Local Classifier Integrating Distance Consistency and Neighbor Reliability
- arxiv url: http://arxiv.org/abs/2512.08956v1
- Date: Fri, 28 Nov 2025 09:26:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-15 04:16:52.570505
- Title: DW-KNN: A Transparent Local Classifier Integrating Distance Consistency and Neighbor Reliability
- Title(参考訳): DW-KNN: 距離一貫性と隣接信頼性を統合した透過型局所分類器
- Authors: Kumarjit Pathak, Karthik K, Sachin Madan, Jitin Kapila,
- Abstract要約: DW-KNNは、指数的距離と近隣の妥当性を統合する透明で堅牢な変種である。
平均で0.8988の精度を達成し、6つの手法のうち2位にランクされ、最も優れたエンサンブルKNNの0.2%以内である。
- 参考スコア(独自算出の注目度): 0.7874708385247353
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: K-Nearest Neighbors (KNN) is one of the most used ML classifiers. However, if we observe closely, standard distance-weighted KNN and relative variants assume all 'k' neighbors are equally reliable. In heterogeneous feature space, this becomes a limitation that hinders reliability in predicting true levels of the observation. We propose DW-KNN (Double Weighted KNN), a transparent and robust variant that integrates exponential distance with neighbor validity. This enables instance-level interpretability, suppresses noisy or mislabeled samples, and reduces hyperparameter sensitivity. Comprehensive evaluation on 9 data-sets helps to demonstrate that DW-KNN achieves 0.8988 accuracy on average. It ranks 2nd among six methods and within 0.2% of the best-performing Ensemble KNN. It also exhibits the lowest cross-validation variance (0.0156), indicating reliable prediction stability. Statistical significance test confirmed ($p < 0.001$) improvement over compactness weighted KNN (+4.09\%) and Kernel weighted KNN (+1.13\%). The method provides a simple yet effective alternative to complex adaptive schemes, particularly valuable for high-stakes applications requiring explainable predictions.
- Abstract(参考訳): K-Nearest Neighbors (KNN) は最も使われているML分類の一つである。
しかし、よく観察すると、標準距離重み付きKNNと相対変種は、すべての 'k' 近傍が等しく信頼できると仮定する。
不均一な特徴空間では、これは観測の真のレベルを予測する際の信頼性を妨げる限界となる。
そこで我々はDW-KNN(Double Weighted KNN)を提案する。
これにより、インスタンスレベルの解釈が可能となり、ノイズやラベルミスのサンプルが抑制され、ハイパーパラメータの感度が低下する。
9つのデータセットに対する総合的な評価は、DW-KNNが平均0.8988の精度を達成することを示すのに役立つ。
6つの方法のうち2位であり、最高のエンサンブルKNNの0.2%以内である。
また、最も低いクロスバリデーション分散(0.0156)を示し、信頼性の高い予測安定性を示す。
統計的に有意な試験により、コンパクト化KNN(+4.09\%)とケルネル重みKNN(+1.13\%)に対する改善(p < 0.001$)が確認された。
この手法は複雑な適応スキームに対して単純だが効果的な代替手段を提供し、特に説明可能な予測を必要とする高度なアプリケーションに有用である。
関連論文リスト
- Adaptive $k$-nearest neighbor classifier based on the local estimation of the shape operator [49.87315310656657]
我々は, 局所曲率をサンプルで探索し, 周辺面積を適応的に定義する適応型$k$-nearest(kK$-NN)アルゴリズムを提案する。
多くの実世界のデータセットから、新しい$kK$-NNアルゴリズムは、確立された$k$-NN法と比較してバランスの取れた精度が優れていることが示されている。
論文 参考訳(メタデータ) (2024-09-08T13:08:45Z) - Shapley-Based Data Valuation with Mutual Information: A Key to Modified K-Nearest Neighbors [4.1498463236541605]
Information-Modified KNN (IM-KNN) は、Mutual Information (I$) とShapley値を利用して、隣人に重み付けされた値を割り当てる新しいアプローチである。
IM-KNNは、12のベンチマークデータセットで、従来のKNNの精度、精度、リコールをそれぞれ16.80%、17.08%、16.98%改善している。
論文 参考訳(メタデータ) (2023-12-04T16:10:34Z) - INK: Injecting kNN Knowledge in Nearest Neighbor Machine Translation [57.952478914459164]
kNN-MTは、推論中に隣接する表現に基づいて予測を円滑にするための効果的なパラダイムを提供する。
我々は,kNN近傍の表現を少数の新しいパラメータで調整することで,表現空間を円滑にするための効果的なトレーニングフレームワークINKを提案する。
4つのベンチマークデータセットでの実験では、メソッドは1.99 COMETと1.0 BLEUの平均ゲインを達成し、0.02倍のメモリ空間と1.9倍の推論速度を持つ最先端のkNN-MTシステムより優れていた。
論文 参考訳(メタデータ) (2023-06-10T08:39:16Z) - The #DNN-Verification Problem: Counting Unsafe Inputs for Deep Neural
Networks [94.63547069706459]
#DNN-Verification問題は、DNNの入力構成の数を数えることによって安全性に反する結果となる。
違反の正確な数を返す新しい手法を提案する。
安全クリティカルなベンチマークのセットに関する実験結果を示す。
論文 参考訳(メタデータ) (2023-01-17T18:32:01Z) - DNNR: Differential Nearest Neighbors Regression [8.667550264279166]
K-nearest neighbors(KNN)は、機械学習において最も早く、最も確立されたアルゴリズムの1つである。
回帰タスクでは、KNNは、多くの課題を引き起こす地区内のターゲットを平均化する。
両問題に同時に対処するDNNR(differial Nearest Neighbors Regression)を提案する。
論文 参考訳(メタデータ) (2022-05-17T15:22:53Z) - KNN-BERT: Fine-Tuning Pre-Trained Models with KNN Classifier [61.063988689601416]
事前学習されたモデルは、クロスエントロピー損失によって最適化された線形分類器を用いて、微調整された下流タスクに広く利用されている。
これらの問題は、同じクラスの類似点と、予測を行う際の矛盾点に焦点を当てた表現を学習することで改善することができる。
本稿では、事前訓練されたモデル微調整タスクにおけるKNearest Neighborsについて紹介する。
論文 参考訳(メタデータ) (2021-10-06T06:17:05Z) - Adaptive Nearest Neighbor Machine Translation [60.97183408140499]
kNN-MTは、事前訓練されたニューラルネットワーク翻訳とトークンレベルのk-nearest-neighbor検索を組み合わせる。
従来のkNNアルゴリズムは、ターゲットトークンごとに同じ数の近傍を検索する。
ターゲットトークン毎のk個数を動的に決定する適応的kNN-MTを提案する。
論文 参考訳(メタデータ) (2021-05-27T09:27:42Z) - Consistency Regularization for Certified Robustness of Smoothed
Classifiers [89.72878906950208]
最近のランダムな平滑化技術は、最悪の$ell$-robustnessを平均ケースのロバストネスに変換することができることを示している。
その結果,スムーズな分類器の精度と信頼性の高いロバスト性とのトレードオフは,ノイズに対する予測一貫性の規則化によって大きく制御できることが判明した。
論文 参考訳(メタデータ) (2020-06-07T06:57:43Z) - Extrapolation Towards Imaginary $0$-Nearest Neighbour and Its Improved
Convergence Rate [13.985534521589257]
そこで我々は,数個の$k ge 1$値から$k=0$まで,未重み付き$k$-NN推定器を外挿する新しいマルチスケール$k$-NN(MS-$k$-NN)を提案する。
提案手法は問合せとその周辺点に適応する最適実数値重みを暗黙的に計算する。
論文 参考訳(メタデータ) (2020-02-08T00:32:12Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。