論文の概要: Adaptive $k$-nearest neighbor classifier based on the local estimation of the shape operator
- arxiv url: http://arxiv.org/abs/2409.05084v1
- Date: Sun, 8 Sep 2024 13:08:45 GMT
- ステータス: 処理完了
- システム内更新日: 2024-09-10 19:20:20.237999
- Title: Adaptive $k$-nearest neighbor classifier based on the local estimation of the shape operator
- Title(参考訳): 形状演算子の局所推定に基づく適応$k$-nearest近傍分類器
- Authors: Alexandre Luís Magalhães Levada, Frank Nielsen, Michel Ferreira Cardia Haddad,
- Abstract要約: 我々は, 局所曲率をサンプルで探索し, 周辺面積を適応的に定義する適応型$k$-nearest(kK$-NN)アルゴリズムを提案する。
多くの実世界のデータセットから、新しい$kK$-NNアルゴリズムは、確立された$k$-NN法と比較してバランスの取れた精度が優れていることが示されている。
- 参考スコア(独自算出の注目度): 49.87315310656657
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The $k$-nearest neighbor ($k$-NN) algorithm is one of the most popular methods for nonparametric classification. However, a relevant limitation concerns the definition of the number of neighbors $k$. This parameter exerts a direct impact on several properties of the classifier, such as the bias-variance tradeoff, smoothness of decision boundaries, robustness to noise, and class imbalance handling. In the present paper, we introduce a new adaptive $k$-nearest neighbours ($kK$-NN) algorithm that explores the local curvature at a sample to adaptively defining the neighborhood size. The rationale is that points with low curvature could have larger neighborhoods (locally, the tangent space approximates well the underlying data shape), whereas points with high curvature could have smaller neighborhoods (locally, the tangent space is a loose approximation). We estimate the local Gaussian curvature by computing an approximation to the local shape operator in terms of the local covariance matrix as well as the local Hessian matrix. Results on many real-world datasets indicate that the new $kK$-NN algorithm yields superior balanced accuracy compared to the established $k$-NN method and also another adaptive $k$-NN algorithm. This is particularly evident when the number of samples in the training data is limited, suggesting that the $kK$-NN is capable of learning more discriminant functions with less data considering many relevant cases.
- Abstract(参考訳): k$-nearest neighbor(k$-NN)アルゴリズムは、非パラメトリック分類の最も一般的な方法の1つである。
しかし、関連する制限は、隣接する$k$の定義に関係している。
このパラメータは、バイアス分散トレードオフ、決定境界の滑らかさ、雑音に対する堅牢性、クラス不均衡処理など、分類器のいくつかの特性に直接的な影響を与える。
本稿では,局所曲率をサンプルで探索し,局所曲率を適応的に定義する適応型$k$-nearest(kK$-NN)アルゴリズムを提案する。
理論的には、曲率の低い点はより大きな近傍(局所的には接空間は基礎的なデータ形状をよく近似する)を持つが、高い曲率を持つ点はより小さい近傍(局所的には接空間はゆるやかな近似)を持つことができる。
局所共分散行列および局所ヘッセン行列を用いて局所形状演算子への近似を計算することにより局所ガウス曲率を推定する。
多くの実世界のデータセットから、新しい$kK$-NNアルゴリズムは、確立された$k$-NN法と別の適応$k$-NNアルゴリズムと比較して、バランスの取れた精度が優れていることが示されている。
このことは、トレーニングデータのサンプル数が限られている場合に特に顕著であり、kK$-NNが多くの関連するケースを考慮して、少ないデータでより差別的な関数を学習できることを示唆している。
関連論文リスト
- Learning minimal volume uncertainty ellipsoids [1.6795461001108096]
パラメータ推定問題に対する不確実性領域の学習問題を考察する。
連立ガウスデータの仮定により、最適楕円体が条件平均を中心としていることが証明される。
より実践的な場合、最適楕円体を近似計算するための微分可能な最適化手法を提案する。
論文 参考訳(メタデータ) (2024-05-03T19:11:35Z) - Nearly Minimax Optimal Regret for Learning Linear Mixture Stochastic
Shortest Path [80.60592344361073]
線形混合遷移カーネルを用いた最短経路(SSP)問題について検討する。
エージェントは繰り返し環境と対話し、累積コストを最小化しながら特定の目標状態に到達する。
既存の作業は、イテレーションコスト関数の厳密な下限や、最適ポリシーに対する期待長の上限を仮定することが多い。
論文 参考訳(メタデータ) (2024-02-14T07:52:00Z) - IAN: Iterated Adaptive Neighborhoods for manifold learning and
dimensionality estimation [0.0]
類似性カーネルが与えるデータに対して適応的近傍を推定するアルゴリズムを提案する。
k-アネレスト隣人などの標準的なアルゴリズムとの比較は、その有用性を示している。
論文 参考訳(メタデータ) (2022-08-19T02:15:08Z) - Best Policy Identification in Linear MDPs [70.57916977441262]
縮退した線形マルコフ+デルタ決定における最適同定問題について, 生成モデルに基づく固定信頼度設定における検討を行った。
複雑な非最適化プログラムの解としての下位境界は、そのようなアルゴリズムを考案する出発点として用いられる。
論文 参考訳(メタデータ) (2022-08-11T04:12:50Z) - DNNR: Differential Nearest Neighbors Regression [8.667550264279166]
K-nearest neighbors(KNN)は、機械学習において最も早く、最も確立されたアルゴリズムの1つである。
回帰タスクでは、KNNは、多くの課題を引き起こす地区内のターゲットを平均化する。
両問題に同時に対処するDNNR(differial Nearest Neighbors Regression)を提案する。
論文 参考訳(メタデータ) (2022-05-17T15:22:53Z) - Minimax Optimal Quantization of Linear Models: Information-Theoretic
Limits and Efficient Algorithms [59.724977092582535]
測定から学習した線形モデルの定量化の問題を考える。
この設定の下では、ミニマックスリスクに対する情報理論の下限を導出する。
本稿では,2層ReLUニューラルネットワークに対して,提案手法と上界を拡張可能であることを示す。
論文 参考訳(メタデータ) (2022-02-23T02:39:04Z) - Minimax Optimal Algorithms with Fixed-$k$-Nearest Neighbors [13.231906521852718]
大規模なデータセットを小さなグループに分割する分散学習シナリオを考察する。
分類,回帰,密度推定のための固定k$-NN情報を集約する最適ルールを提案する。
十分多数のグループに固定された$k$の分散アルゴリズムは、乗算対数係数までの最小誤差率を得ることを示す。
論文 参考訳(メタデータ) (2022-02-05T01:59:09Z) - Variational Nearest Neighbor Gaussian Process [14.081462755946458]
ガウス過程への変分近似(英語版)(GP)は典型的には、共分散行列に対する低ランク近似を形成するために小さな誘導点の集合を用いる。
本稿では, 近縁なガウス過程 (VNNGP) を提案する。
変分フレームワークを使用することで、VNNGPの目的は観測点と誘導点の両方で決定され、O(K3)$の時間複雑性で最適化が可能である。
論文 参考訳(メタデータ) (2022-02-03T17:01:03Z) - Under-bagging Nearest Neighbors for Imbalanced Classification [63.026765294759876]
我々は,不均衡な分類問題に対して,textitunder-bagging $k$-NN (textitunder-bagging $k$-NN) というアンサンブル学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-01T14:10:38Z) - Making Affine Correspondences Work in Camera Geometry Computation [62.7633180470428]
局所的な特徴は、ポイント・ツー・ポイント対応ではなく、リージョン・ツー・リージョンを提供する。
本稿では,全モデル推定パイプラインにおいて,地域間マッチングを効果的に活用するためのガイドラインを提案する。
実験により、アフィンソルバはより高速な実行時にポイントベースソルバに匹敵する精度を達成できることが示された。
論文 参考訳(メタデータ) (2020-07-20T12:07:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。