論文の概要: Evaluation of the impact of the indiscernibility relation on the
fuzzy-rough nearest neighbours algorithm
- arxiv url: http://arxiv.org/abs/2211.14134v1
- Date: Fri, 25 Nov 2022 14:17:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 17:48:00.046956
- Title: Evaluation of the impact of the indiscernibility relation on the
fuzzy-rough nearest neighbours algorithm
- Title(参考訳): ファジィフ近傍近似アルゴリズムにおける不明瞭性関係の影響評価
- Authors: Henri Bollaert and Chris Cornelis
- Abstract要約: Fuzzy-rough Near neighbors (FRNN) は古典的k-nearest neighborsアルゴリズムに基づく分類アルゴリズムである。
本稿では,FRNN分類の性能に及ぼす不明瞭性関係の影響について検討する。
- 参考スコア(独自算出の注目度): 1.4213973379473654
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Fuzzy rough sets are well-suited for working with vague, imprecise or
uncertain information and have been succesfully applied in real-world
classification problems. One of the prominent representatives of this theory is
fuzzy-rough nearest neighbours (FRNN), a classification algorithm based on the
classical k-nearest neighbours algorithm. The crux of FRNN is the
indiscernibility relation, which measures how similar two elements in the data
set of interest are. In this paper, we investigate the impact of this
indiscernibility relation on the performance of FRNN classification. In
addition to relations based on distance functions and kernels, we also explore
the effect of distance metric learning on FRNN for the first time. Furthermore,
we also introduce an asymmetric, class-specific relation based on the
Mahalanobis distance which uses the correlation within each class, and which
shows a significant improvement over the regular Mahalanobis distance, but is
still beaten by the Manhattan distance. Overall, the Neighbourhood Components
Analysis algorithm is found to be the best performer, trading speed for
accuracy.
- Abstract(参考訳): ファジィ粗集合は曖昧で不正確で不確実な情報を扱うのに適しており、現実世界の分類問題にもうまく適用されてきた。
この理論の著名な代表の1つは、古典的なk-ネアレスト近傍アルゴリズムに基づく分類アルゴリズムであるファジィロー近傍(frnn)である。
FRNNのくちばしは、データ集合における2つの要素がどの程度類似しているかを測定する不明瞭な関係である。
本稿では,この不明瞭性関係がFRNN分類の性能に与える影響について検討する。
距離関数とカーネルに基づく関係に加えて、初めてFRNNに対する距離距離距離学習の効果についても検討する。
さらに,マハラノビス距離に基づく非対称なクラス固有関係も導入し,各クラス間の相関を利用して,通常のマハラノビス距離よりも大幅に改善されているが,マンハッタン距離に圧倒されている。
全体として、Neighbourhood Components Analysisアルゴリズムは、正確性のために取引速度が最良のパフォーマンスであることがわかった。
関連論文リスト
- Adaptive $k$-nearest neighbor classifier based on the local estimation of the shape operator [49.87315310656657]
我々は, 局所曲率をサンプルで探索し, 周辺面積を適応的に定義する適応型$k$-nearest(kK$-NN)アルゴリズムを提案する。
多くの実世界のデータセットから、新しい$kK$-NNアルゴリズムは、確立された$k$-NN法と比較してバランスの取れた精度が優れていることが示されている。
論文 参考訳(メタデータ) (2024-09-08T13:08:45Z) - Rethinking k-means from manifold learning perspective [122.38667613245151]
平均推定なしで直接データのクラスタを検出する新しいクラスタリングアルゴリズムを提案する。
具体的には,バタワースフィルタを用いてデータ点間の距離行列を構成する。
異なる視点に埋め込まれた相補的な情報をうまく活用するために、テンソルのSchatten p-norm正規化を利用する。
論文 参考訳(メタデータ) (2023-05-12T03:01:41Z) - Revisiting Rotation Averaging: Uncertainties and Robust Losses [51.64986160468128]
現在の手法の主な問題は、推定エピポーラを通して入力データと弱い結合しか持たない最小コスト関数である。
本稿では,点対応から回転平均化への不確実性を直接伝播させることにより,基礎となる雑音分布をモデル化することを提案する。
論文 参考訳(メタデータ) (2023-03-09T11:51:20Z) - Robust affine point matching via quadratic assignment on Grassmannians [50.366876079978056]
Robust Affine Matching with Grassmannians (RoAM) は点雲のアフィン登録を行うアルゴリズムである。
このアルゴリズムは、グラスマンの2つの要素間のフロベニウス距離を最小化することに基づいている。
論文 参考訳(メタデータ) (2023-03-05T15:27:24Z) - DNNR: Differential Nearest Neighbors Regression [8.667550264279166]
K-nearest neighbors(KNN)は、機械学習において最も早く、最も確立されたアルゴリズムの1つである。
回帰タスクでは、KNNは、多くの課題を引き起こす地区内のターゲットを平均化する。
両問題に同時に対処するDNNR(differial Nearest Neighbors Regression)を提案する。
論文 参考訳(メタデータ) (2022-05-17T15:22:53Z) - Riemannian classification of EEG signals with missing values [67.90148548467762]
本稿では脳波の分類に欠落したデータを扱うための2つの方法を提案する。
第1のアプローチでは、インプットされたデータと$k$-nearestの隣人アルゴリズムとの共分散を推定し、第2のアプローチでは、期待最大化アルゴリズム内で観測データの可能性を活用することにより、観測データに依存する。
その結果, 提案手法は観測データに基づく分類よりも優れており, 欠落したデータ比が増大しても高い精度を維持することができることがわかった。
論文 参考訳(メタデータ) (2021-10-19T14:24:50Z) - How to Design Robust Algorithms using Noisy Comparison Oracle [12.353002222958605]
メトリクスに基づく比較操作は、様々なクラスタリング技術の研究に基本的である。
本稿では,最接近探索,最接近探索,最接近探索など様々な問題について検討する。
k中心クラスタリングと凝集階層クラスタリングのためのロバストなアルゴリズムを提供する。
論文 参考訳(メタデータ) (2021-05-12T16:58:09Z) - Learning with Group Noise [106.56780716961732]
グループノイズを用いた学習のための新しいマックスマッチング手法を提案する。
いくつかの学習パラダイムの領域における実世界のデータセットのレンジのパフォーマンスは、Max-Matchingの有効性を示している。
論文 参考訳(メタデータ) (2021-03-17T06:57:10Z) - Nearest Neighbor Search Under Uncertainty [19.225091554227948]
Nearest Neighbor Search (NNS) は知識表現、学習、推論の中心的なタスクである。
NNSを不確実性(NNSU)下で研究する。
論文 参考訳(メタデータ) (2021-03-08T20:20:01Z) - Leveraging Reinforcement Learning for evaluating Robustness of KNN
Search Algorithms [0.0]
与えられたクエリポイントのデータセットでk-nearestの隣人を見つける問題は、数年前から解決されてきた。
本稿では,K-Nearest Neighbor Search(K-Nearest Neighbor Search)の手法について,計算の視点から検討する。
本論文では,KNNSアプローチの対敵点に対する堅牢性を評価するために,汎用的な強化学習ベースのフレームワークを提案する。
論文 参考訳(メタデータ) (2021-02-10T16:10:58Z) - A Weighted Mutual k-Nearest Neighbour for Classification Mining [4.538870924201896]
kNNは非常に効果的なインスタンスベースの学習方法であり、実装が容易です。
本稿では,データセットから疑似近傍の異常検出と除去を行う新しい学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-05-14T18:11:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。