論文の概要: Digit Image Recognition Using an Ensemble of One-Versus-All Deep Network
Classifiers
- arxiv url: http://arxiv.org/abs/2007.01192v2
- Date: Sat, 31 Oct 2020 13:04:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-16 01:58:08.256423
- Title: Digit Image Recognition Using an Ensemble of One-Versus-All Deep Network
Classifiers
- Title(参考訳): one-versus-all deep network分類器を用いたデジタル画像認識
- Authors: Abdul Mueed Hafiz and Mahmoud Hassaballah
- Abstract要約: 本稿では,デジタル画像認識とテストのための新しい手法を実装し,その上で評価する。
アンサンブル内の全てのネットワークは、SGDMA(Gradient Descent with Momentum)を用いたOVAトレーニング技術によって訓練されている。
提案手法は,全データセットの数値画像認識におけるベースラインよりも優れている。
- 参考スコア(独自算出の注目度): 2.385916960125935
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In multiclass deep network classifiers, the burden of classifying samples of
different classes is put on a single classifier. As the result the optimum
classification accuracy is not obtained. Also training times are large due to
running the CNN training on single CPU/GPU. However it is known that using
ensembles of classifiers increases the performance. Also, the training times
can be reduced by running each member of the ensemble on a separate processor.
Ensemble learning has been used in the past for traditional methods to a
varying extent and is a hot topic. With the advent of deep learning, ensemble
learning has been applied to the former as well. However, an area which is
unexplored and has potential is One-Versus-All (OVA) deep ensemble learning. In
this paper we explore it and show that by using OVA ensembles of deep networks,
improvements in performance of deep networks can be obtained. As shown in this
paper, the classification capability of deep networks can be further increased
by using an ensemble of binary classification (OVA) deep networks. We implement
a novel technique for the case of digit image recognition and test and evaluate
it on the same. In the proposed approach, a single OVA deep network classifier
is dedicated to each category. Subsequently, OVA deep network ensembles have
been investigated. Every network in an ensemble has been trained by an OVA
training technique using the Stochastic Gradient Descent with Momentum
Algorithm (SGDMA). For classification of a test sample, the sample is presented
to each network in the ensemble. After prediction score voting, the network
with the largest score is assumed to have classified the sample. The
experimentation has been done on the MNIST digit dataset, the USPS+ digit
dataset, and MATLAB digit image dataset. Our proposed technique outperforms the
baseline on digit image recognition for all datasets.
- Abstract(参考訳): 多クラスディープネットワーク分類器では、異なるクラスのサンプルを分類する責任が1つの分類器に課される。
その結果、最適な分類精度が得られない。
また、単一のCPU/GPU上でCNNトレーニングを実行するため、トレーニング時間も大きい。
しかし、分類器のアンサンブルを用いることで性能が向上することが知られている。
また、別々のプロセッサ上でアンサンブルの各部材を実行することにより、トレーニング時間を短縮することができる。
アンサンブル・ラーニングは、伝統的手法に様々な範囲で用いられており、ホットな話題となっている。
深層学習の出現により、前者にもアンサンブル学習が適用された。
しかし、未探索で潜在能力を持つ領域は、一対一(ova)の深層アンサンブル学習である。
本稿では,深層ネットワークのovaアンサンブルを用いることで,深層ネットワークの性能向上が期待できることを示す。
本稿では,バイナリ分類 (ova) 深層ネットワークのアンサンブルを用いることにより,深層ネットワークの分類能力をさらに高めることができることを示す。
本稿では,デジタル画像認識とテストのための新しい手法を実装し,その上で評価する。
提案手法では、各カテゴリに1つのOVAディープネットワーク分類器を割り当てる。
その後,OVA深層ネットワークアンサンブルについて検討した。
アンサンブル内のすべてのネットワークは、SGDMA(Stochastic Gradient Descent with Momentum Algorithm)を用いてOVAトレーニング技術によって訓練されている。
テストサンプルを分類するために、サンプルはアンサンブル内の各ネットワークに提示される。
予測スコアの投票の後、最もスコアが大きいネットワークがサンプルを分類したと仮定される。
この実験は、MNIST桁データセット、USPS+桁データセット、MATLAB桁画像データセットで実施された。
提案手法は,全データセットのデジット画像認識におけるベースラインを上回っている。
関連論文リスト
- Equiangular Basis Vectors [26.520084199562692]
ディープニューラルネットワークでは、モデルは通常、異なる分類タスクを処理するために、ソフトマックスを備えたkウェイ完全に接続された層で終わる。
分類タスクのための等角基底ベクトル(EBV)を提案する。
EBVは2022年のDIGIX Global AI Challengeで優勝しました。
論文 参考訳(メタデータ) (2023-03-21T07:08:51Z) - Co-training $2^L$ Submodels for Visual Recognition [67.02999567435626]
サブモデルコトレーニングは、コトレーニング、自己蒸留、深さに関連する正規化手法である。
サブモデルのコトレーニングは,画像分類やセマンティックセグメンテーションなどの認識タスクのためのバックボーンのトレーニングに有効であることを示す。
論文 参考訳(メタデータ) (2022-12-09T14:38:09Z) - Compare learning: bi-attention network for few-shot learning [6.559037166322981]
距離学習と呼ばれる数ショットの学習手法の1つは、画像のペアが同じカテゴリに属しているかどうかを判断するために、まず遠距離計量を学習することで、この課題に対処する。
本稿では, インスタンスの埋め込みの類似性を正確に, グローバルかつ効率的に測定できる, Bi-attention Network という新しい手法を提案する。
論文 参考訳(メタデータ) (2022-03-25T07:39:10Z) - Deep ensembles in bioimage segmentation [74.01883650587321]
本研究では,畳み込みニューラルネットワーク(CNN)のアンサンブルを提案する。
アンサンブル法では、多くの異なるモデルが訓練され、分類に使用され、アンサンブルは単一分類器の出力を集約する。
提案するアンサンブルは,DeepLabV3+とHarDNet環境を用いて,異なるバックボーンネットワークを組み合わせることで実現されている。
論文 参考訳(メタデータ) (2021-12-24T05:54:21Z) - A robust approach for deep neural networks in presence of label noise:
relabelling and filtering instances during training [14.244244290954084]
我々は、任意のCNNで使用できるRAFNIと呼ばれるラベルノイズに対する堅牢なトレーニング戦略を提案する。
RAFNIは、インスタンスをフィルタリングする2つのメカニズムと、インスタンスをリラベルする1つのメカニズムからなる。
いくつかのサイズと特徴の異なるデータセットを用いて,本アルゴリズムの評価を行った。
論文 参考訳(メタデータ) (2021-09-08T16:11:31Z) - No Fear of Heterogeneity: Classifier Calibration for Federated Learning
with Non-IID Data [78.69828864672978]
実世界のフェデレーションシステムにおける分類モデルのトレーニングにおける中心的な課題は、非IIDデータによる学習である。
このアルゴリズムは, 近似されたssian混合モデルからサンプリングした仮想表現を用いて分類器を調整する。
実験の結果,CIFAR-10,CIFAR-100,CINIC-10など,一般的なフェデレーション学習ベンチマークにおけるCCVRの現状が示された。
論文 参考訳(メタデータ) (2021-06-09T12:02:29Z) - MixMo: Mixing Multiple Inputs for Multiple Outputs via Deep Subnetworks [97.08677678499075]
マルチインプットマルチアウトプットディープワークを学ぶための新しいフレームワークであるMixMoを紹介します。
機能、特にCutMixのパッチによるバイナリの混合は、ワークをより強く、より多様なものにすることによって、結果を向上します。
実装が容易で、推論にコストがかかることに加えて、我々のモデルはよりコストの高いデータ拡張深層アンサンブルよりも優れています。
論文 参考訳(メタデータ) (2021-03-10T15:31:02Z) - Solving Mixed Integer Programs Using Neural Networks [57.683491412480635]
本稿では,mipソルバの2つのキーサブタスクに学習を適用し,高品質なジョイント変数割当を生成し,その割当と最適課題との客観的値の差を限定する。
提案手法は,ニューラルネットワークに基づく2つのコンポーネントであるニューラルダイバーディングとニューラルブランチを構築し,SCIPなどのベースMIPソルバで使用する。
2つのGoogle生産データセットとMIPLIBを含む6つの現実世界データセットに対するアプローチを評価し、それぞれに別々のニューラルネットワークをトレーニングする。
論文 参考訳(メタデータ) (2020-12-23T09:33:11Z) - Active Deep Densely Connected Convolutional Network for Hyperspectral
Image Classification [6.850575514129793]
ラベル付きサンプルを数個だけ使って、ディープラーニングモデルを訓練して高い分類精度に達することは、依然として非常に難しい。
そこで本稿では,高スペクトル画像の分類コストを最小限に抑えるために,エンドツーエンドで訓練された能動的ディープラーニングフレームワークを提案する。
論文 参考訳(メタデータ) (2020-09-01T09:53:38Z) - DC-NAS: Divide-and-Conquer Neural Architecture Search [108.57785531758076]
本稿では,ディープ・ニューラル・アーキテクチャーを効果的かつ効率的に探索するためのディバイド・アンド・コンカ(DC)手法を提案する。
ImageNetデータセットで75.1%の精度を達成しており、これは同じ検索空間を使った最先端の手法よりも高い。
論文 参考訳(メタデータ) (2020-05-29T09:02:16Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。