論文の概要: KNN Classification with One-step Computation
- arxiv url: http://arxiv.org/abs/2012.06047v1
- Date: Wed, 9 Dec 2020 13:34:42 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-16 02:14:23.808172
- Title: KNN Classification with One-step Computation
- Title(参考訳): 一段階計算によるKNN分類
- Authors: Shichao Zhang and Jiaye Li
- Abstract要約: KNN分類の遅延部分を置き換える一段階計算を提案する。
提案手法を実験的に評価し,一段階のKNN分類が効率的かつ有望であることを示した。
- 参考スコア(独自算出の注目度): 10.381276986079865
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: KNN classification is a query triggered yet improvisational learning mode, in
which they are carried out only when a test data is predicted that set a
suitable K value and search the K nearest neighbors from the whole training
sample space, referred them to the lazy part of KNN classification. This lazy
part has been the bottleneck problem of applying KNN classification. In this
paper, a one-step computation is proposed to replace the lazy part of KNN
classification. The one-step computation actually transforms the lazy part to a
matrix computation as follows. Given a test data, training samples are first
applied to fit the test data with the least squares loss function. And then, a
relationship matrix is generated by weighting all training samples according to
their influence on the test data. Finally, a group lasso is employed to perform
sparse learning of the relationship matrix. In this way, setting K value and
searching K nearest neighbors are both integrated to a unified computation. In
addition, a new classification rule is proposed for improving the performance
of one-step KNN classification. The proposed approach is experimentally
evaluated, and demonstrated that the one-step KNN classification is efficient
and promising.
- Abstract(参考訳): KNN分類は、KNN分類の遅延部分を参照して、適切なK値を設定し、K近傍の隣人をトレーニングサンプル空間全体から検索するテストデータが予測された場合にのみ実行される、即興学習モードのクエリトリガである。
この遅延部分は、KNN分類を適用する際のボトルネック問題である。
本稿では,KNN分類の遅延部分を置き換える一段階計算を提案する。
1ステップの計算は、実際に遅延部分を以下の行列計算に変換する。
テストデータが与えられると、まずトレーニングサンプルを適用して、テストデータを最小二乗損失関数に適合させる。
そして、試験データへの影響に応じてすべてのトレーニングサンプルを重み付けして関係マトリックスを生成する。
最後に、関係行列のスパース学習を行うためにグループラッソを用いる。
このようにして、K値の設定とK近傍の探索はどちらも統一計算に統合される。
さらに,一段階のKNN分類の性能向上のために,新たな分類規則を提案する。
提案手法を実験的に評価し,一段階のKNN分類が効率的かつ有望であることを示した。
関連論文リスト
- Adaptive $k$-nearest neighbor classifier based on the local estimation of the shape operator [49.87315310656657]
我々は, 局所曲率をサンプルで探索し, 周辺面積を適応的に定義する適応型$k$-nearest(kK$-NN)アルゴリズムを提案する。
多くの実世界のデータセットから、新しい$kK$-NNアルゴリズムは、確立された$k$-NN法と比較してバランスの取れた精度が優れていることが示されている。
論文 参考訳(メタデータ) (2024-09-08T13:08:45Z) - Flexible K Nearest Neighbors Classifier: Derivation and Application for
Ion-mobility Spectrometry-based Indoor Localization [0.0]
K Nearest Neighbors (KNN) は指紋による局所化や医学など多くの分野で広く使われている。
この論文では、K近傍の近傍が実際に未標識標本に近接していることを保証するKNN変異について論じる。
テストではKNNよりも高い分類精度を達成し、計算要求は同じである。
論文 参考訳(メタデータ) (2023-04-20T08:23:58Z) - A Note on "Efficient Task-Specific Data Valuation for Nearest Neighbor
Algorithms" [18.65808473565554]
Jiaらによると、K-Nearest Neighbors(KNN)モデルでは、Data Shapleyのアルゴリズムは驚くほどシンプルで効率的である。
KNNモデルの性能をよりよく反映した、より自然で解釈可能なユーティリティ関数を提案する。
我々の新しいアプローチは、ソフトラベルKNNSVと呼ばれ、元の方法と同じ時間を達成する。
論文 参考訳(メタデータ) (2023-04-09T15:31:53Z) - Nearest Neighbor Zero-Shot Inference [68.56747574377215]
kNN-Promptは、言語モデル(LM)を用いたゼロショット推論のためのk-nearest neighbor (kNN)検索拡張手法である。
ファジィ動詞化器は、各分類ラベルを自然言語トークンのセットに自動的に関連付けることで、下流タスクのスパースkNN分布を利用する。
実験により,kNN-Promptはドメイン適応に有効であり,さらに,kNN検索に使用するモデルのサイズに応じて,検索のメリットが増加することが示された。
論文 参考訳(メタデータ) (2022-05-27T07:00:59Z) - Do We Really Need a Learnable Classifier at the End of Deep Neural
Network? [118.18554882199676]
本研究では、ニューラルネットワークを学習して分類器をランダムにETFとして分類し、訓練中に固定する可能性について検討する。
実験結果から,バランスの取れたデータセットの画像分類において,同様の性能が得られることがわかった。
論文 参考訳(メタデータ) (2022-03-17T04:34:28Z) - Rethinking Nearest Neighbors for Visual Classification [56.00783095670361]
k-NNは、トレーニングセット内のテストイメージとトップk隣人間の距離を集約する遅延学習手法である。
我々は,教師付き手法と自己監督型手法のいずれでも,事前学習した視覚表現を持つk-NNを2つのステップで採用する。
本研究は,幅広い分類タスクに関する広範な実験により,k-NN統合の汎用性と柔軟性を明らかにした。
論文 参考訳(メタデータ) (2021-12-15T20:15:01Z) - KNN-BERT: Fine-Tuning Pre-Trained Models with KNN Classifier [61.063988689601416]
事前学習されたモデルは、クロスエントロピー損失によって最適化された線形分類器を用いて、微調整された下流タスクに広く利用されている。
これらの問題は、同じクラスの類似点と、予測を行う際の矛盾点に焦点を当てた表現を学習することで改善することができる。
本稿では、事前訓練されたモデル微調整タスクにおけるKNearest Neighborsについて紹介する。
論文 参考訳(メタデータ) (2021-10-06T06:17:05Z) - Adaptive Nearest Neighbor Machine Translation [60.97183408140499]
kNN-MTは、事前訓練されたニューラルネットワーク翻訳とトークンレベルのk-nearest-neighbor検索を組み合わせる。
従来のkNNアルゴリズムは、ターゲットトークンごとに同じ数の近傍を検索する。
ターゲットトークン毎のk個数を動的に決定する適応的kNN-MTを提案する。
論文 参考訳(メタデータ) (2021-05-27T09:27:42Z) - A new hashing based nearest neighbors selection technique for big
datasets [14.962398031252063]
本稿では, 観測対象の近傍に直接近接する近隣住民の選別を可能にする新しい手法を提案する。
提案手法は,データ空間上に構築された仮想グリッドのサブセルにデータ空間を分割する。
提案アルゴリズムは,元のKNNよりも時間効率が良く,予測品質もKNNと同等である。
論文 参考訳(メタデータ) (2020-04-05T19:36:00Z) - Missing Data Imputation for Classification Problems [1.52292571922932]
特徴学習行列が欠落している様々な分類問題において、欠落データの計算は一般的な応用である。
本稿では,クラス重み付きグレー距離に基づく新しい反復的kNN計算手法を提案する。
これにより、トレーニングデータの計算が分類性能の向上に向けられていることが保証される。
論文 参考訳(メタデータ) (2020-02-25T07:48:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。