論文の概要: A unified weighting framework for evaluating nearest neighbour
classification
- arxiv url: http://arxiv.org/abs/2311.16872v1
- Date: Tue, 28 Nov 2023 15:24:02 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-29 17:51:50.218392
- Title: A unified weighting framework for evaluating nearest neighbour
classification
- Title(参考訳): 最近傍分類評価のための統一重み付けフレームワーク
- Authors: Oliver Urs Lenz, Henri Bollaert, Chris Cornelis
- Abstract要約: 従来型 (NN), ファジィ (FNN), ファジィ粗 (FRNN) の総合的および大規模評価を行った。
- 参考スコア(独自算出の注目度): 1.2891210250935148
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present the first comprehensive and large-scale evaluation of classical
(NN), fuzzy (FNN) and fuzzy rough (FRNN) nearest neighbour classification. We
show that existing proposals for nearest neighbour weighting can be
standardised in the form of kernel functions, applied to the distance values
and/or ranks of the nearest neighbours of a test instance. Furthermore, we
identify three commonly used distance functions and four scaling measures. We
systematically evaluate these choices on a collection of 85 real-life
classification datasets. We find that NN, FNN and FRNN all perform best with
Boscovich distance. NN and FRNN perform best with a combination of Samworth
rank- and distance weights and scaling by the mean absolute deviation around
the median ($r_1$), the standard deviaton ($r_2$) or the interquartile range
($r_{\infty}^*$), while FNN performs best with only Samworth distance-weights
and $r_1$- or $r_2$-scaling. We also introduce a new kernel based on fuzzy
Yager negation, and show that NN achieves comparable performance with Yager
distance-weights, which are simpler to implement than a combination of Samworth
distance- and rank-weights. Finally, we demonstrate that FRNN generally
outperforms NN, which in turns performs systematically better than FNN.
- Abstract(参考訳): 従来型 (NN), ファジィ (FNN), ファジィ粗 (FRNN) の総合的および大規模評価を行った。
提案手法は,テストインスタンスの近辺の距離値および/またはランクに適用されるカーネル関数の形で,既存の近傍重み付け提案が標準化可能であることを示す。
さらに、よく使われる3つの距離関数と4つのスケーリング尺度を同定する。
これらの選択を85のリアルライフ分類データセットで体系的に評価した。
NN、FNN、FRNNは全てボスコビッチ距離で最高の性能を発揮する。
NNとFRNNはSamworthのランクと距離の重みの組み合わせと、中央値(r_1$)、標準デビアトン(r_2$)、およびインタークアタイル範囲(r_{\infty}^*$)の平均絶対偏差によるスケーリングで最高のパフォーマンスを、FNNはSamworthの距離重みと$r_1$-または$r_2$-スケーリングで最高のパフォーマンスを果たす。
また,ファジィなYager否定に基づく新しいカーネルを導入し,Samworth距離重みとランク重みの組み合わせよりも実装が簡単であるYager距離重みと同等の性能を実現することを示す。
最後に、FRNNが一般的にNNより優れており、FNNよりも体系的に優れていることを示す。
関連論文リスト
- A Specialized Semismooth Newton Method for Kernel-Based Optimal
Transport [92.96250725599958]
カーネルベース最適輸送(OT)推定器は、サンプルからOT問題に対処するための代替的機能的推定手順を提供する。
SSN法は, 標準正規性条件下でのグローバル収束率$O (1/sqrtk)$, 局所二次収束率を達成できることを示す。
論文 参考訳(メタデータ) (2023-10-21T18:48:45Z) - INK: Injecting kNN Knowledge in Nearest Neighbor Machine Translation [57.952478914459164]
kNN-MTは、推論中に隣接する表現に基づいて予測を円滑にするための効果的なパラダイムを提供する。
我々は,kNN近傍の表現を少数の新しいパラメータで調整することで,表現空間を円滑にするための効果的なトレーニングフレームワークINKを提案する。
4つのベンチマークデータセットでの実験では、メソッドは1.99 COMETと1.0 BLEUの平均ゲインを達成し、0.02倍のメモリ空間と1.9倍の推論速度を持つ最先端のkNN-MTシステムより優れていた。
論文 参考訳(メタデータ) (2023-06-10T08:39:16Z) - DNNR: Differential Nearest Neighbors Regression [8.667550264279166]
K-nearest neighbors(KNN)は、機械学習において最も早く、最も確立されたアルゴリズムの1つである。
回帰タスクでは、KNNは、多くの課題を引き起こす地区内のターゲットを平均化する。
両問題に同時に対処するDNNR(differial Nearest Neighbors Regression)を提案する。
論文 参考訳(メタデータ) (2022-05-17T15:22:53Z) - Comparative Analysis of Interval Reachability for Robust Implicit and
Feedforward Neural Networks [64.23331120621118]
我々は、暗黙的ニューラルネットワーク(INN)の堅牢性を保証するために、区間到達可能性分析を用いる。
INNは暗黙の方程式をレイヤとして使用する暗黙の学習モデルのクラスである。
提案手法は, INNに最先端の区間境界伝搬法を適用するよりも, 少なくとも, 一般的には, 有効であることを示す。
論文 参考訳(メタデータ) (2022-04-01T03:31:27Z) - Rethinking Nearest Neighbors for Visual Classification [56.00783095670361]
k-NNは、トレーニングセット内のテストイメージとトップk隣人間の距離を集約する遅延学習手法である。
我々は,教師付き手法と自己監督型手法のいずれでも,事前学習した視覚表現を持つk-NNを2つのステップで採用する。
本研究は,幅広い分類タスクに関する広範な実験により,k-NN統合の汎用性と柔軟性を明らかにした。
論文 参考訳(メタデータ) (2021-12-15T20:15:01Z) - Neural Optimization Kernel: Towards Robust Deep Learning [13.147925376013129]
近年の研究では、ニューラルネットワーク(NN)とカーネルメソッドの関連性が示されている。
本稿では,カーネル(NOK)という新しいカーネルファミリーを提案する。
パラメータ化ディープNN(NOK)は,経験的リスクを低減し,有界一般化を同時に低減できることを示す。
論文 参考訳(メタデータ) (2021-06-11T00:34:55Z) - Adaptive Nearest Neighbor Machine Translation [60.97183408140499]
kNN-MTは、事前訓練されたニューラルネットワーク翻訳とトークンレベルのk-nearest-neighbor検索を組み合わせる。
従来のkNNアルゴリズムは、ターゲットトークンごとに同じ数の近傍を検索する。
ターゲットトークン毎のk個数を動的に決定する適応的kNN-MTを提案する。
論文 参考訳(メタデータ) (2021-05-27T09:27:42Z) - Nearest Neighbor Search Under Uncertainty [19.225091554227948]
Nearest Neighbor Search (NNS) は知識表現、学習、推論の中心的なタスクである。
NNSを不確実性(NNSU)下で研究する。
論文 参考訳(メタデータ) (2021-03-08T20:20:01Z) - Extrapolation Towards Imaginary $0$-Nearest Neighbour and Its Improved
Convergence Rate [13.985534521589257]
そこで我々は,数個の$k ge 1$値から$k=0$まで,未重み付き$k$-NN推定器を外挿する新しいマルチスケール$k$-NN(MS-$k$-NN)を提案する。
提案手法は問合せとその周辺点に適応する最適実数値重みを暗黙的に計算する。
論文 参考訳(メタデータ) (2020-02-08T00:32:12Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。