論文の概要: Advanced kNN: A Mature Machine Learning Series
- arxiv url: http://arxiv.org/abs/2003.00415v1
- Date: Sun, 1 Mar 2020 06:11:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 12:47:32.794187
- Title: Advanced kNN: A Mature Machine Learning Series
- Title(参考訳): Advanced kNN: 成熟した機械学習シリーズ
- Authors: Muhammad Asim and Muaaz Zakria
- Abstract要約: k-nearest neighbor (kNN) は、機械学習やデータマイニングにおいて最も顕著で単純で基本的なアルゴリズムの1つである。
本研究の目的は、未知のインスタンスを分類できる高度なkNN(A-kNN)アルゴリズムを提案することである。
- 参考スコア(独自算出の注目度): 2.7729939137633877
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: k-nearest neighbour (kNN) is one of the most prominent, simple and basic
algorithm used in machine learning and data mining. However, kNN has limited
prediction ability, i.e., kNN cannot predict any instance correctly if it does
not belong to any of the predefined classes in the training data set. The
purpose of this paper is to suggest an Advanced kNN (A-kNN) algorithm that will
be able to classify an instance as unknown, after verifying that it does not
belong to any of the predefined classes. Performance of kNN and A-kNN is
compared on three different data sets namely iris plant data set, BUPA liver
disorder data set, and Alpha Beta detection data set. Results of A-kNN are
significantly accurate for detecting unknown instances.
- Abstract(参考訳): k-nearest neighbor (kNN) は、機械学習やデータマイニングにおいて最も顕著で単純で基本的なアルゴリズムの1つである。
しかし、kNNは予測能力に制限があるため、トレーニングデータセットの事前定義されたクラスに属さない場合、kNNは任意のインスタンスを正確に予測することはできない。
本研究の目的は、事前定義されたどのクラスにも属さないことを検証した後、インスタンスを未知に分類できる高度なkNN(A-kNN)アルゴリズムを提案することである。
kNNとA-kNNのパフォーマンスを,iris植物データセット,BUPA肝障害データセット,Alpha Beta検出データセットの3つの異なるデータセットで比較した。
A-kNNの結果は未知のインスタンスを検出するためにかなり正確である。
関連論文リスト
- INK: Injecting kNN Knowledge in Nearest Neighbor Machine Translation [57.952478914459164]
kNN-MTは、推論中に隣接する表現に基づいて予測を円滑にするための効果的なパラダイムを提供する。
我々は,kNN近傍の表現を少数の新しいパラメータで調整することで,表現空間を円滑にするための効果的なトレーニングフレームワークINKを提案する。
4つのベンチマークデータセットでの実験では、メソッドは1.99 COMETと1.0 BLEUの平均ゲインを達成し、0.02倍のメモリ空間と1.9倍の推論速度を持つ最先端のkNN-MTシステムより優れていた。
論文 参考訳(メタデータ) (2023-06-10T08:39:16Z) - Less is More: Parameter-Free Text Classification with Gzip [47.63077023698568]
ディープニューラルネットワーク(DNN)は通常、高いレベルの精度を達成するため、テキスト分類タスクにしばしば使用される。
テキスト分類において,DNNの非パラメトリックな代替手段を提案する。
本手法は,6つの非分散データセット上で,事前制約のないディープラーニング手法と競合する結果を得る。
論文 参考訳(メタデータ) (2022-12-19T12:40:18Z) - You Can Have Better Graph Neural Networks by Not Training Weights at
All: Finding Untrained GNNs Tickets [105.24703398193843]
グラフニューラルネットワーク(GNN)の未訓練作業はまだ謎のままだ。
得られた未学習作品によって,GNNの過度なスムース化問題を大幅に軽減できることを示す。
また,そのような未学習作業が,入力摂動の分布外検出と堅牢性に優れていることも観察した。
論文 参考訳(メタデータ) (2022-11-28T14:17:36Z) - Rethinking Nearest Neighbors for Visual Classification [56.00783095670361]
k-NNは、トレーニングセット内のテストイメージとトップk隣人間の距離を集約する遅延学習手法である。
我々は,教師付き手法と自己監督型手法のいずれでも,事前学習した視覚表現を持つk-NNを2つのステップで採用する。
本研究は,幅広い分類タスクに関する広範な実験により,k-NN統合の汎用性と柔軟性を明らかにした。
論文 参考訳(メタデータ) (2021-12-15T20:15:01Z) - Adaptive Nearest Neighbor Machine Translation [60.97183408140499]
kNN-MTは、事前訓練されたニューラルネットワーク翻訳とトークンレベルのk-nearest-neighbor検索を組み合わせる。
従来のkNNアルゴリズムは、ターゲットトークンごとに同じ数の近傍を検索する。
ターゲットトークン毎のk個数を動的に決定する適応的kNN-MTを提案する。
論文 参考訳(メタデータ) (2021-05-27T09:27:42Z) - Evaluating Deep Neural Network Ensembles by Majority Voting cum
Meta-Learning scheme [3.351714665243138]
新しいデータインスタンスのために,7つの独立したディープニューラルネットワーク(DNN)のアンサンブルを提案する。
残りのサンプルからブートストラップサンプリングによってデータの7分の1を削除して補充する。
この論文のすべてのアルゴリズムは5つのベンチマークデータセットでテストされている。
論文 参考訳(メタデータ) (2021-05-09T03:10:56Z) - Ranking and Rejecting of Pre-Trained Deep Neural Networks in Transfer
Learning based on Separation Index [0.16058099298620418]
対象データセットに分離指数(SI)という距離ベース複雑性尺度を適用することにより,事前学習したディープニューラルネットワーク(DNN)のランク付けを行うアルゴリズムを提案する。
提案アルゴリズムの効率性はLinnaeus 5, Breast Cancer Images, COVID-CTの3つの挑戦的データセットを用いて評価した。
論文 参考訳(メタデータ) (2020-12-26T11:14:12Z) - One Versus all for deep Neural Network Incertitude (OVNNI)
quantification [12.734278426543332]
本稿では,データの疫学的不確実性を容易に定量化するための新しい手法を提案する。
本手法は,1つのクラス対他のクラス(OVA)を分類するために訓練されたDNNのアンサンブルの予測と,オール対オール(AVA)分類を実行するために訓練された標準DNNの予測とを混合して構成する。
論文 参考訳(メタデータ) (2020-06-01T14:06:12Z) - Computing the Testing Error without a Testing Set [33.068870286618655]
テストデータセットを必要としないトレーニングとテストの間のパフォーマンスギャップを推定するアルゴリズムを導出します。
これによって、アクセスできないサンプルでも、DNNのテストエラーを計算できます。
論文 参考訳(メタデータ) (2020-05-01T15:35:50Z) - A new hashing based nearest neighbors selection technique for big
datasets [14.962398031252063]
本稿では, 観測対象の近傍に直接近接する近隣住民の選別を可能にする新しい手法を提案する。
提案手法は,データ空間上に構築された仮想グリッドのサブセルにデータ空間を分割する。
提案アルゴリズムは,元のKNNよりも時間効率が良く,予測品質もKNNと同等である。
論文 参考訳(メタデータ) (2020-04-05T19:36:00Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。