論文の概要: Shapley-Based Data Valuation with Mutual Information: A Key to Modified K-Nearest Neighbors
- arxiv url: http://arxiv.org/abs/2312.01991v4
- Date: Thu, 10 Jul 2025 12:18:34 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-07-11 12:24:00.013305
- Title: Shapley-Based Data Valuation with Mutual Information: A Key to Modified K-Nearest Neighbors
- Title(参考訳): 相互情報を用いた共有型データ評価:K-Nearest近傍修正のための鍵
- Authors: Mohammad Ali Vahedifar, Azim Akhtarshenas, Mohammad Mohammadi Rafatpanah, Maryam Sabbaghian,
- Abstract要約: Information-Modified KNN (IM-KNN) は、Mutual Information (I$) とShapley値を利用して、隣人に重み付けされた値を割り当てる新しいアプローチである。
IM-KNNは、12のベンチマークデータセットで、従来のKNNの精度、精度、リコールをそれぞれ16.80%、17.08%、16.98%改善している。
- 参考スコア(独自算出の注目度): 4.1498463236541605
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The K-Nearest Neighbors (KNN) algorithm is widely used for classification and regression; however, it suffers from limitations, including the equal treatment of all samples. We propose Information-Modified KNN (IM-KNN), a novel approach that leverages Mutual Information ($I$) and Shapley values to assign weighted values to neighbors, thereby bridging the gap in treating all samples with the same value and weight. On average, IM-KNN improves the accuracy, precision, and recall of traditional KNN by 16.80%, 17.08%, and 16.98%, respectively, across 12 benchmark datasets. Experiments on four large-scale datasets further highlight IM-KNN's robustness to noise, imbalanced data, and skewed distributions.
- Abstract(参考訳): K-Nearest Neighbors (KNN)アルゴリズムは分類と回帰に広く用いられているが、全てのサンプルの平等な処理を含む制限に悩まされている。
我々は,情報修正KNN (IM-KNN) を提案する。これは相互情報(I$)と共有値(Shapley)を利用して,隣人に重み付けされた値を割り当てる手法で,全てのサンプルを同じ値と重みで処理する際のギャップを埋める。
IM-KNNは、12のベンチマークデータセットで、従来のKNNの精度、精度、リコールをそれぞれ16.80%、17.08%、16.98%改善している。
4つの大規模なデータセットの実験では、IM-KNNのノイズ、不均衡なデータ、歪んだ分布に対する堅牢性をさらに強調している。
関連論文リスト
- A Novel Pseudo Nearest Neighbor Classification Method Using Local Harmonic Mean Distance [0.0]
本稿では, LMPHNNと呼ばれる新しいKNN分類手法を紹介する。
LMPHNNはLMPNNルールとHMDに基づいて分類性能を向上させる。
平均精度は97%で、他の手法を14%上回る。
論文 参考訳(メタデータ) (2024-05-10T04:13:07Z) - INK: Injecting kNN Knowledge in Nearest Neighbor Machine Translation [57.952478914459164]
kNN-MTは、推論中に隣接する表現に基づいて予測を円滑にするための効果的なパラダイムを提供する。
我々は,kNN近傍の表現を少数の新しいパラメータで調整することで,表現空間を円滑にするための効果的なトレーニングフレームワークINKを提案する。
4つのベンチマークデータセットでの実験では、メソッドは1.99 COMETと1.0 BLEUの平均ゲインを達成し、0.02倍のメモリ空間と1.9倍の推論速度を持つ最先端のkNN-MTシステムより優れていた。
論文 参考訳(メタデータ) (2023-06-10T08:39:16Z) - Nearest Neighbor Zero-Shot Inference [68.56747574377215]
kNN-Promptは、言語モデル(LM)を用いたゼロショット推論のためのk-nearest neighbor (kNN)検索拡張手法である。
ファジィ動詞化器は、各分類ラベルを自然言語トークンのセットに自動的に関連付けることで、下流タスクのスパースkNN分布を利用する。
実験により,kNN-Promptはドメイン適応に有効であり,さらに,kNN検索に使用するモデルのサイズに応じて,検索のメリットが増加することが示された。
論文 参考訳(メタデータ) (2022-05-27T07:00:59Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Rethinking Nearest Neighbors for Visual Classification [56.00783095670361]
k-NNは、トレーニングセット内のテストイメージとトップk隣人間の距離を集約する遅延学習手法である。
我々は,教師付き手法と自己監督型手法のいずれでも,事前学習した視覚表現を持つk-NNを2つのステップで採用する。
本研究は,幅広い分類タスクに関する広範な実験により,k-NN統合の汎用性と柔軟性を明らかにした。
論文 参考訳(メタデータ) (2021-12-15T20:15:01Z) - KNN-BERT: Fine-Tuning Pre-Trained Models with KNN Classifier [61.063988689601416]
事前学習されたモデルは、クロスエントロピー損失によって最適化された線形分類器を用いて、微調整された下流タスクに広く利用されている。
これらの問題は、同じクラスの類似点と、予測を行う際の矛盾点に焦点を当てた表現を学習することで改善することができる。
本稿では、事前訓練されたモデル微調整タスクにおけるKNearest Neighborsについて紹介する。
論文 参考訳(メタデータ) (2021-10-06T06:17:05Z) - Adaptive Nearest Neighbor Machine Translation [60.97183408140499]
kNN-MTは、事前訓練されたニューラルネットワーク翻訳とトークンレベルのk-nearest-neighbor検索を組み合わせる。
従来のkNNアルゴリズムは、ターゲットトークンごとに同じ数の近傍を検索する。
ターゲットトークン毎のk個数を動的に決定する適応的kNN-MTを提案する。
論文 参考訳(メタデータ) (2021-05-27T09:27:42Z) - Evaluating Deep Neural Network Ensembles by Majority Voting cum
Meta-Learning scheme [3.351714665243138]
新しいデータインスタンスのために,7つの独立したディープニューラルネットワーク(DNN)のアンサンブルを提案する。
残りのサンプルからブートストラップサンプリングによってデータの7分の1を削除して補充する。
この論文のすべてのアルゴリズムは5つのベンチマークデータセットでテストされている。
論文 参考訳(メタデータ) (2021-05-09T03:10:56Z) - KNN-enhanced Deep Learning Against Noisy Labels [4.765948508271371]
Deep Neural Networks(DNN)の監視学習は、データ空腹である。
本研究では,ラベルクリーンアップに深いKNNを適用することを提案する。
ニューラルネットワークを反復的にトレーニングし、ラベルを更新し、ラベル回復率の向上と分類性能の向上を同時に進める。
論文 参考訳(メタデータ) (2020-12-08T05:21:29Z) - A new hashing based nearest neighbors selection technique for big
datasets [14.962398031252063]
本稿では, 観測対象の近傍に直接近接する近隣住民の選別を可能にする新しい手法を提案する。
提案手法は,データ空間上に構築された仮想グリッドのサブセルにデータ空間を分割する。
提案アルゴリズムは,元のKNNよりも時間効率が良く,予測品質もKNNと同等である。
論文 参考訳(メタデータ) (2020-04-05T19:36:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。