論文の概要: An Improved Nearest Neighbour Classifier
- arxiv url: http://arxiv.org/abs/2204.13141v1
- Date: Wed, 27 Apr 2022 18:28:12 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-29 13:56:43.368453
- Title: An Improved Nearest Neighbour Classifier
- Title(参考訳): 近近距離分類器の改良
- Authors: Eric Setterqvist, Natan Kruglyak, Robert Forchheimer
- Abstract要約: 画像のNearest Neighbour(WNN)分類器のウィンドウ版について述べる。
WNNは手書き桁の画像のデータセットMNISTとEMNISTについて説明する。
WNNはEMNISTの画像の0.42%を誤って分類しており、したがって人間や浅いANNの予測よりも大幅に上回っていることが示されている。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A windowed version of the Nearest Neighbour (WNN) classifier for images is
described. While its construction is inspired by the architecture of Artificial
Neural Networks, the underlying theoretical framework is based on approximation
theory. We illustrate WNN on the datasets MNIST and EMNIST of images of
handwritten digits. In order to calibrate the parameters of WNN, we first study
it on the classical MNIST dataset. We then apply WNN with these parameters to
the challenging EMNIST dataset. It is demonstrated that WNN misclassifies 0.42%
of the images of EMNIST and therefore significantly outperforms predictions by
humans and shallow ANNs that both have more than 1.3% of errors.
- Abstract(参考訳): 画像のNearest Neighbour(WNN)分類器のウィンドウ版について述べる。
その構成は人工ニューラルネットワークのアーキテクチャにインスパイアされているが、基礎となる理論フレームワークは近似理論に基づいている。
WNNは手書き桁の画像のデータセットMNISTとEMNISTについて説明する。
WNNのパラメータを校正するために、まず古典的なMNISTデータセットについて検討する。
次に、これらのパラメータを挑戦的なEMNISTデータセットに適用する。
WNNはEMNISTの画像の0.42%を誤って分類しており、したがって人間や浅いANNの予測よりも大幅に上回っていることが示されている。
関連論文リスト
- Comparative Analysis of Shear Strength Prediction Models for Reinforced
Concrete Slab-Column Connections [0.4018006442585584]
この研究は、実験結果と機械学習予測を検証するスラブのFAAと補完されている。
PSOFNN、BATFNN、FNNの7つの異なるモデルがこのデータに基づいてトレーニングされ、その結果、PSOFNNが全体として最高のモデルであることが判明した。
論文 参考訳(メタデータ) (2023-09-29T17:42:37Z) - INK: Injecting kNN Knowledge in Nearest Neighbor Machine Translation [57.952478914459164]
kNN-MTは、推論中に隣接する表現に基づいて予測を円滑にするための効果的なパラダイムを提供する。
我々は,kNN近傍の表現を少数の新しいパラメータで調整することで,表現空間を円滑にするための効果的なトレーニングフレームワークINKを提案する。
4つのベンチマークデータセットでの実験では、メソッドは1.99 COMETと1.0 BLEUの平均ゲインを達成し、0.02倍のメモリ空間と1.9倍の推論速度を持つ最先端のkNN-MTシステムより優れていた。
論文 参考訳(メタデータ) (2023-06-10T08:39:16Z) - Spikeformer: A Novel Architecture for Training High-Performance
Low-Latency Spiking Neural Network [6.8125324121155275]
静的データセットとニューロモルフィックデータセットの両方において,トランスフォーマーをベースとした新しいSNNであるSpikeformerを提案する。
注目すべきは、SpikeformerはImageNet上の他のSNNよりも大きなマージン(5%以上)で、DVS-GestureとImageNetでANNよりも3.1%、そして2.2%高いパフォーマンスである。
論文 参考訳(メタデータ) (2022-11-19T12:49:22Z) - Local Approximations, Real Interpolation and Machine Learning [0.0]
局所近似に基づく新しい分類アルゴリズムを提案する。
手書き数字の画像のデータセット MNIST と EMNIST について説明する。
このアルゴリズムはEMNISTの画像の0.42%を誤って分類している。
論文 参考訳(メタデータ) (2022-07-15T19:26:31Z) - Batch-Ensemble Stochastic Neural Networks for Out-of-Distribution
Detection [55.028065567756066]
Out-of-Distribution(OOD)検出は、機械学習モデルを現実世界のアプリケーションにデプロイすることの重要性から、マシンラーニングコミュニティから注目を集めている。
本稿では,特徴量の分布をモデル化した不確実な定量化手法を提案する。
バッチアンサンブルニューラルネットワーク(BE-SNN)の構築と機能崩壊問題の克服を目的として,効率的なアンサンブル機構,すなわちバッチアンサンブルを組み込んだ。
We show that BE-SNNs yield superior performance on the Two-Moons dataset, the FashionMNIST vs MNIST dataset, FashionM。
論文 参考訳(メタデータ) (2022-06-26T16:00:22Z) - Masked Bayesian Neural Networks : Computation and Optimality [1.3649494534428745]
そこで本稿では, 適切な複雑性を伴って, 優れた深層ニューラルネットワークを探索する, スパースベイズニューラルネットワーク(BNN)を提案する。
我々は各ノードのマスキング変数を用いて、後続分布に応じていくつかのノードをオフにし、ノードワイズDNNを生成する。
いくつかのベンチマークデータセットを解析することにより,提案したBNNが既存手法と比較してよく動作することを示す。
論文 参考訳(メタデータ) (2022-06-02T02:59:55Z) - Supervised Training of Siamese Spiking Neural Networks with Earth's
Mover Distance [4.047840018793636]
本研究は,高可逆性シアムニューラルネットモデルをイベントデータ領域に適応させる。
我々はスパイク・トレインとスパイク・ニューラル・ネットワーク(SNN)の間の地球のモーバー距離を最適化するための教師付きトレーニング・フレームワークを導入する。
論文 参考訳(メタデータ) (2022-02-20T00:27:57Z) - Fully Spiking Variational Autoencoder [66.58310094608002]
スパイキングニューラルネットワーク(SNN)は、超高速で超低エネルギー消費のニューロモルフィックデバイス上で動作することができる。
本研究では,SNNを用いた可変オートエンコーダ(VAE)を構築し,画像生成を実現する。
論文 参考訳(メタデータ) (2021-09-26T06:10:14Z) - Self-Learning for Received Signal Strength Map Reconstruction with
Neural Architecture Search [63.39818029362661]
ニューラルアーキテクチャサーチ(NAS)と受信信号強度(RSS)マップ再構築のための自己学習に基づくモデルを提案する。
このアプローチは、まず最適なNNアーキテクチャを見つけ、与えられた(RSS)マップの地上実測値に対して同時に推論モデルを訓練する。
実験結果から,この第2モデルの信号予測は,非学習に基づく最先端技術や,アーキテクチャ探索を伴わないNNモデルよりも優れていた。
論文 参考訳(メタデータ) (2021-05-17T12:19:22Z) - Interpreting Graph Neural Networks for NLP With Differentiable Edge
Masking [63.49779304362376]
グラフニューラルネットワーク(GNN)は、構造的帰納バイアスをNLPモデルに統合する一般的なアプローチとなっている。
本稿では,不要なエッジを識別するGNNの予測を解釈するポストホック手法を提案する。
モデルの性能を劣化させることなく,多数のエッジを落とせることを示す。
論文 参考訳(メタデータ) (2020-10-01T17:51:19Z) - Fast Learning of Graph Neural Networks with Guaranteed Generalizability:
One-hidden-layer Case [93.37576644429578]
グラフニューラルネットワーク(GNN)は、グラフ構造化データから実際に学習する上で、近年大きな進歩を遂げている。
回帰問題と二項分類問題の両方に隠れ層を持つGNNの理論的に基底的な一般化可能性解析を行う。
論文 参考訳(メタデータ) (2020-06-25T00:45:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。