論文の概要: Instance-based learning using the Half-Space Proximal Graph
- arxiv url: http://arxiv.org/abs/2102.02755v1
- Date: Thu, 4 Feb 2021 17:36:59 GMT
- ステータス: 処理完了
- システム内更新日: 2021-02-05 21:59:58.280726
- Title: Instance-based learning using the Half-Space Proximal Graph
- Title(参考訳): 半空間近位グラフを用いたインスタンスベース学習
- Authors: Ariana Talamantes and Edgar Chavez
- Abstract要約: 本稿では,Em Half-Space Proximal (HSP)グラフを用いたパラメータフリーなインスタンスベース学習アルゴリズムを提案する。
その結果、データセットのバッテリで$k$に対して$KNN$が改善された。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: The primary example of instance-based learning is the $k$-nearest neighbor
rule (kNN), praised for its simplicity and the capacity to adapt to new unseen
data and toss away old data. The main disadvantages often mentioned are the
classification complexity, which is $O(n)$, and the estimation of the parameter
$k$, the number of nearest neighbors to be used. The use of indexes at
classification time lifts the former disadvantage, while there is no conclusive
method for the latter.
This paper presents a parameter-free instance-based learning algorithm using
the {\em Half-Space Proximal} (HSP) graph. The HSP neighbors simultaneously
possess proximity and variety concerning the center node. To classify a given
query, we compute its HSP neighbors and apply a simple majority rule over them.
In our experiments, the resulting classifier bettered $KNN$ for any $k$ in a
battery of datasets. This improvement sticks even when applying weighted
majority rules to both kNN and HSP classifiers.
Surprisingly, when using a probabilistic index to approximate the HSP graph
and consequently speeding-up the classification task, our method could {\em
improve} its accuracy in stark contrast with the kNN classifier, which worsens
with a probabilistic index.
- Abstract(参考訳): インスタンスベースの学習の主な例は、$ k$-nearest neighbor rule(kNN)であり、そのシンプルさと新しい目に見えないデータに適応し、古いデータを捨てる能力で賞賛されている。
よく言及される主な欠点は、$O(n)$である分類の複雑さ、およびパラメータ$k$の推定、使用される最寄りの隣人の数です。
分類時のインデックスの使用は、前者の不利を解消するが、後者には決定的な方法がない。
本稿では,HSPグラフを用いたパラメータフリーなインスタンスベース学習アルゴリズムを提案する。
HSP隣人は、中心ノードに関する近接と多様性を同時に保持する。
与えられたクエリを分類するために、HSP近傍を計算し、それらに対して単純な多数決ルールを適用する。
実験では、結果の分類器がデータセットのバッテリで$k$に対して$KNN$を改善しました。
この改善は、kNNとHSPの分類器の両方に重み付けされた多数決ルールを適用しても継続する。
驚くべきことに、確率指標を用いてHSPグラフを近似し、その結果分類タスクを高速化すると、この手法はkNN分類器と比較して精度が向上し、確率指標が悪化する可能性がある。
関連論文リスト
- Adaptive $k$-nearest neighbor classifier based on the local estimation of the shape operator [49.87315310656657]
我々は, 局所曲率をサンプルで探索し, 周辺面積を適応的に定義する適応型$k$-nearest(kK$-NN)アルゴリズムを提案する。
多くの実世界のデータセットから、新しい$kK$-NNアルゴリズムは、確立された$k$-NN法と比較してバランスの取れた精度が優れていることが示されている。
論文 参考訳(メタデータ) (2024-09-08T13:08:45Z) - Resource saving taxonomy classification with k-mer distributions and
machine learning [2.0196229393131726]
我々はDNAから得られた$k$-merの分布を、その分類学的起源を分類するための特徴として用いることを提案する。
以上の結果から,本手法は属レベルでの分類を改良し,スーパーキングダムや植物レベルでの同等の結果が得られることが示された。
論文 参考訳(メタデータ) (2023-03-10T08:01:08Z) - Systematically improving existing k-means initialization algorithms at
nearly no cost, by pairwise-nearest-neighbor smoothing [1.2570180539670577]
PNN-smoothingと呼ばれる$k$-meansクラスタリングアルゴリズムを初期化するメタメソッドを提案する。
与えられたデータセットを$J$のランダムなサブセットに分割し、各データセットを個別にクラスタリングし、結果のクラスタリングをペアワイズ・アネレス・ニーバーメソッドとマージする。
論文 参考訳(メタデータ) (2022-02-08T15:56:30Z) - Rethinking Nearest Neighbors for Visual Classification [56.00783095670361]
k-NNは、トレーニングセット内のテストイメージとトップk隣人間の距離を集約する遅延学習手法である。
我々は,教師付き手法と自己監督型手法のいずれでも,事前学習した視覚表現を持つk-NNを2つのステップで採用する。
本研究は,幅広い分類タスクに関する広範な実験により,k-NN統合の汎用性と柔軟性を明らかにした。
論文 参考訳(メタデータ) (2021-12-15T20:15:01Z) - Under-bagging Nearest Neighbors for Imbalanced Classification [63.026765294759876]
我々は,不均衡な分類問題に対して,textitunder-bagging $k$-NN (textitunder-bagging $k$-NN) というアンサンブル学習アルゴリズムを提案する。
論文 参考訳(メタデータ) (2021-09-01T14:10:38Z) - IRLI: Iterative Re-partitioning for Learning to Index [104.72641345738425]
分散環境でのロードバランスとスケーラビリティを維持しながら、高い精度を得る方法とのトレードオフが必要だ。
クエリ項目関連データから直接バケットを学習することで、アイテムを反復的に分割するIRLIと呼ばれる新しいアプローチを提案する。
我々は,irliが極めて自然な仮定の下で高い確率で正しい項目を検索し,優れた負荷分散を実現することを数学的に示す。
論文 参考訳(メタデータ) (2021-03-17T23:13:25Z) - Adversarial Examples for $k$-Nearest Neighbor Classifiers Based on
Higher-Order Voronoi Diagrams [69.4411417775822]
逆例は機械学習モデルにおいて広く研究されている現象である。
そこで本研究では,$k$-nearest 近傍分類の逆ロバスト性を評価するアルゴリズムを提案する。
論文 参考訳(メタデータ) (2020-11-19T08:49:10Z) - Cluster-and-Conquer: When Randomness Meets Graph Locality [0.0]
最も効率的なKNNグラフアルゴリズムのいくつかはインクリメンタルで局所的なものである。
Cluster-and-Conquerは、greedyアルゴリズムの開始構成を強化します。
論文 参考訳(メタデータ) (2020-10-22T07:31:12Z) - OSLNet: Deep Small-Sample Classification with an Orthogonal Softmax
Layer [77.90012156266324]
本稿では,ニューラルネットワークのサブスペースを見つけることを目的としている。
そこで本研究では,Orthogonal Softmax Layer (OSL) を提案する。
実験結果から,提案OSLは4つの小サンプルベンチマークデータセットとの比較に用いた手法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2020-04-20T02:41:01Z) - A new hashing based nearest neighbors selection technique for big
datasets [14.962398031252063]
本稿では, 観測対象の近傍に直接近接する近隣住民の選別を可能にする新しい手法を提案する。
提案手法は,データ空間上に構築された仮想グリッドのサブセルにデータ空間を分割する。
提案アルゴリズムは,元のKNNよりも時間効率が良く,予測品質もKNNと同等である。
論文 参考訳(メタデータ) (2020-04-05T19:36:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。