論文の概要: An Ensemble of Simple Convolutional Neural Network Models for MNIST
Digit Recognition
- arxiv url: http://arxiv.org/abs/2008.10400v2
- Date: Mon, 5 Oct 2020 03:49:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 04:54:51.060605
- Title: An Ensemble of Simple Convolutional Neural Network Models for MNIST
Digit Recognition
- Title(参考訳): MNISTディジット認識のための単純な畳み込みニューラルネットワークモデルの一組
- Authors: Sanghyeon An, Minjun Lee, Sanglee Park, Heerin Yang, Jungmin So
- Abstract要約: MNISTテストセットの極めて高い精度は、単純な畳み込みニューラルネットワーク(CNN)モデルを使用することで達成できる。
3つの均質アンサンブルネットワークの異質アンサンブルである2層アンサンブルは、99.91%のテスト精度を達成できる。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We report that a very high accuracy on the MNIST test set can be achieved by
using simple convolutional neural network (CNN) models. We use three different
models with 3x3, 5x5, and 7x7 kernel size in the convolution layers. Each model
consists of a set of convolution layers followed by a single fully connected
layer. Every convolution layer uses batch normalization and ReLU activation,
and pooling is not used. Rotation and translation is used to augment training
data, which is frequently used in most image classification tasks. A majority
voting using the three models independently trained on the training data set
can achieve up to 99.87% accuracy on the test set, which is one of the
state-of-the-art results. A two-layer ensemble, a heterogeneous ensemble of
three homogeneous ensemble networks, can achieve up to 99.91% test accuracy.
The results can be reproduced by using the code at:
https://github.com/ansh941/MnistSimpleCNN
- Abstract(参考訳): 本稿では,単純な畳み込みニューラルネットワーク(cnn)モデルを用いて,mnistテストセットの精度が非常に高いことを報告する。
畳み込み層では、3x3,5x5,7x7のカーネルサイズを持つ3つの異なるモデルを使用する。
各モデルは一連の畳み込み層からなり、その後に1つの完全連結層が続く。
すべての畳み込み層はバッチ正規化とreluアクティベーションを使用し、プールは使用されない。
回転と翻訳は、ほとんどの画像分類タスクで頻繁に使用されるトレーニングデータの拡張に使用される。
トレーニングデータセットで独立にトレーニングされた3つのモデルを用いた過半数の投票は、テストセットの最大99.87%の精度を達成できる。
3つの均質アンサンブルネットワークの異質アンサンブルである2層アンサンブルは、99.91%のテスト精度を達成できる。
結果は、 https://github.com/ansh941/MnistSimpleCNN のコードを使って再現できる。
関連論文リスト
- HyperKAN: Kolmogorov-Arnold Networks make Hyperspectral Image Classificators Smarter [0.0699049312989311]
本稿では,従来のネットワークの線形層と畳み込み層をKANベースのネットワークに置き換えることを提案する。
これらの修正により,高スペクトルリモートセンシング画像の画素単位の分類精度が大幅に向上した。
最も大きな効果は、スペクトルデータのみを扱う畳み込みネットワークにおいて達成された。
論文 参考訳(メタデータ) (2024-07-07T06:36:09Z) - GMConv: Modulating Effective Receptive Fields for Convolutional Kernels [52.50351140755224]
畳み込みニューラルネットワークでは、固定N$times$N受容場(RF)を持つ正方形カーネルを用いて畳み込みを行う。
ERFが通常ガウス分布を示す性質に着想を得て,本研究でガウス・マスク畳み込みカーネル(GMConv)を提案する。
私たちのGMConvは、既存のCNNの標準の畳み込みを直接置き換えることができ、標準のバックプロパゲーションによって、エンドツーエンドで簡単に訓練することができます。
論文 参考訳(メタデータ) (2023-02-09T10:17:17Z) - Focal Sparse Convolutional Networks for 3D Object Detection [121.45950754511021]
我々はスパースCNNの能力を高めるために2つの新しいモジュールを導入する。
焦点スパース・コンボリューション(Focals Conv)であり、焦点スパース・コンボリューションの多様変種である。
スパース・コンボリューションにおける空間的に学習可能な空間空間性は,高度な3次元物体検出に不可欠であることを示す。
論文 参考訳(メタデータ) (2022-04-26T17:34:10Z) - Deep ensembles in bioimage segmentation [74.01883650587321]
本研究では,畳み込みニューラルネットワーク(CNN)のアンサンブルを提案する。
アンサンブル法では、多くの異なるモデルが訓練され、分類に使用され、アンサンブルは単一分類器の出力を集約する。
提案するアンサンブルは,DeepLabV3+とHarDNet環境を用いて,異なるバックボーンネットワークを組み合わせることで実現されている。
論文 参考訳(メタデータ) (2021-12-24T05:54:21Z) - CBIR using Pre-Trained Neural Networks [1.2130044156459308]
我々は、事前訓練されたインセプションV3モデルを用いて、画像の低次元表現を形成する最後の完全連結層の活性化を抽出する。
この特徴行列を分岐に分割し、各分岐に対して別個の特徴抽出を行い、ベクトルに平坦化された複数の特徴を得る。
トレーニング精度99.46%、バリデーション精度84.56%を達成しました。
論文 参考訳(メタデータ) (2021-10-27T14:19:48Z) - Adaptive Convolution Kernel for Artificial Neural Networks [0.0]
本稿では,1層に異なる大きさのカーネルを提供するために,畳み込みカーネルのサイズを訓練する方法について述べる。
実験では、提案した適応層を単純な2層ネットワークの通常の畳み込み層と比較した。
オックスフォード・ペッツデータセットのセグメンテーション実験では、U字型ネットワーク内の1つの通常の畳み込み層を1つの7$times$7適応層に置き換えることで、学習性能と一般化能力が向上することを示した。
論文 参考訳(メタデータ) (2020-09-14T12:36:50Z) - Locally Masked Convolution for Autoregressive Models [107.4635841204146]
LMConvは標準的な2Dコンボリューションの簡単な修正であり、任意のマスクを画像の各位置の重みに適用することができる。
我々は,パラメータを共有するが生成順序が異なる分布推定器のアンサンブルを学習し,全画像密度推定の性能を向上させる。
論文 参考訳(メタデータ) (2020-06-22T17:59:07Z) - Binarizing MobileNet via Evolution-based Searching [66.94247681870125]
そこで本稿では,MobileNet をバイナライズする際の構築と訓練を容易にするための進化的探索手法を提案する。
ワンショットアーキテクチャ検索フレームワークに着想を得て、グループ畳み込みのアイデアを操り、効率的な1ビット畳み込みニューラルネットワーク(CNN)を設計する。
我々の目標は、グループ畳み込みの最良の候補を探索することで、小さなが効率的なバイナリニューラルアーキテクチャを考案することである。
論文 参考訳(メタデータ) (2020-05-13T13:25:51Z) - MixNet: Multi-modality Mix Network for Brain Segmentation [8.44876865136712]
MixNetは2Dのセマンティックワイド・ディープ畳み込みニューラルネットワークで、MRI画像の脳構造を分割する。
MixNetv2はMICCAI 2018でMRBrainSチャレンジに応募し、3ラベルタスクで3位を獲得した。
論文 参考訳(メタデータ) (2020-04-21T08:55:55Z) - Question Type Classification Methods Comparison [0.0]
本稿では、ロジスティック回帰、畳み込みニューラルネットワーク(CNN)、Long Short-Term Memory Network(LSTM)、Quasi-Recurrent Neural Networks(QRNN)といった問題分類タスクに対する最先端のアプローチの比較研究について述べる。
すべてのモデルは、事前訓練されたGLoVeワードの埋め込みを使用し、人間のラベル付きデータに基づいて訓練される。
最良の精度は5つの畳み込み層と、並列に積み重ねられたさまざまなカーネルサイズを持つCNNモデルを使用して達成され、その後に1つの完全に接続された層が続く。
論文 参考訳(メタデータ) (2020-01-03T00:16:46Z) - Model Fusion via Optimal Transport [64.13185244219353]
ニューラルネットワークのための階層モデル融合アルゴリズムを提案する。
これは、不均一な非i.d.データに基づいてトレーニングされたニューラルネットワーク間での"ワンショット"な知識伝達に成功していることを示す。
論文 参考訳(メタデータ) (2019-10-12T22:07:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。