論文の概要: Convolutional Neural Network with Pruning Method for Handwritten Digit
Recognition
- arxiv url: http://arxiv.org/abs/2101.05996v1
- Date: Fri, 15 Jan 2021 07:25:13 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-28 11:15:05.739095
- Title: Convolutional Neural Network with Pruning Method for Handwritten Digit
Recognition
- Title(参考訳): 手書き桁認識のためのプルーニング法による畳み込みニューラルネットワーク
- Authors: Mengyu Chen
- Abstract要約: 本稿では,MNISTデータセットによって訓練されたCNNモデルに対して,手書き文字認識が可能であることを述べる。
同じデータセットMNISTの場合、CNNモデルは、発行された論文で、大きく、深く、シンプルなNNモデルよりもうまく機能する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: CNN model is a popular method for imagery analysis, so it could be utilized
to recognize handwritten digits based on MNIST datasets. For higher recognition
accuracy, various CNN models with different fully connected layer sizes are
exploited to figure out the relationship between the CNN fully connected layer
size and the recognition accuracy. Inspired by previous pruning work, we
performed pruning methods of distinctiveness on CNN models and compared the
pruning performance with NN models. For better pruning performances on CNN, the
effect of angle threshold on the pruning performance was explored. The
evaluation results show that: for the fully connected layer size, there is a
threshold, so that when the layer size increases, the recognition accuracy
grows if the layer size smaller than the threshold, and falls if the layer size
larger than the threshold; the performance of pruning performed on CNN is worse
than on NN; as pruning angle threshold increases, the fully connected layer
size and the recognition accuracy decreases. This paper also shows that for CNN
models trained by the MNIST dataset, they are capable of handwritten digit
recognition and achieve the highest recognition accuracy with fully connected
layer size 400. In addition, for same dataset MNIST, CNN models work better
than big, deep, simple NN models in a published paper.
- Abstract(参考訳): CNNモデルは画像解析の一般的な手法であるため、MNISTデータセットに基づいて手書き桁を認識できる。
認識精度の向上のために,cnnの完全結合層サイズと認識精度の関係を明らかにするために,cnnの完全結合層サイズが異なる様々なcnnモデルが活用されている。
従来の刈り取り作業に触発されて,cnnモデルにおける刈り出し性能をnnモデルと比較した。
CNNの打抜き性能を改善するため, 打抜き性能に対する角度閾値の影響を検討した。
評価の結果, 完全連結層サイズでは, 層サイズが大きくなると認識精度が向上し, 層サイズがしきい値より小さいと低下し, 層サイズが閾値より大きくなると認識精度が向上するしきい値が存在すること, cnn上でのプルーニング性能がnnよりも低下すること, プルーニング角閾値が増加すると, 完全連結層サイズと認識精度が低下することがわかった。
また,mnistデータセットでトレーニングされたcnnモデルでは,手書き文字認識が可能であり,完全連結層サイズ400で最大認識精度が得られることを示した。
さらに、同じデータセットMNISTでは、CNNモデルは、大きな、深い、単純なNNモデルよりもうまく動作する。
関連論文リスト
- CNN2GNN: How to Bridge CNN with GNN [59.42117676779735]
蒸留によりCNNとGNNを統一する新しいCNN2GNNフレームワークを提案する。
Mini-ImageNetにおける蒸留ブースターの2層GNNの性能は、ResNet152のような数十層を含むCNNよりもはるかに高い。
論文 参考訳(メタデータ) (2024-04-23T08:19:08Z) - Training Convolutional Neural Networks with the Forward-Forward
algorithm [1.74440662023704]
Forward Forward (FF)アルゴリズムは、現在まで完全に接続されたネットワークでしか使われていない。
FFパラダイムをCNNに拡張する方法を示す。
我々のFF学習したCNNは、空間的に拡張された新しいラベリング手法を特徴とし、MNISTの手書き桁データセットにおいて99.16%の分類精度を実現している。
論文 参考訳(メタデータ) (2023-12-22T18:56:35Z) - A Gradient Boosting Approach for Training Convolutional and Deep Neural
Networks [0.0]
グラディエントブースティング(GB)に基づく畳み込みニューラルネットワーク(CNN)とディープニューラルネットワークの訓練方法を紹介する。
提案モデルでは,同一アーキテクチャの標準CNNとDeep-NNに対して,分類精度の点で優れた性能を示す。
論文 参考訳(メタデータ) (2023-02-22T12:17:32Z) - Random Padding Data Augmentation [23.70951896315126]
畳み込みニューラルネットワーク(CNN)は、画像内の異なる位置で同じ物体を学習する。
CNNにおける特徴情報の空間的情報の有用性はよく研究されていない。
我々はCNNを訓練するための新しいタイプのパディング手法であるランダムパディングを紹介する。
論文 参考訳(メタデータ) (2023-02-17T04:15:33Z) - Large-Margin Representation Learning for Texture Classification [67.94823375350433]
本稿では,テクスチャ分類のための小さなデータセット上で教師付きモデルをトレーニングするために,畳み込み層(CL)と大規模計量学習を組み合わせた新しいアプローチを提案する。
テクスチャと病理画像データセットの実験結果から,提案手法は同等のCNNと比較して計算コストが低く,収束が早く,競争精度が向上することが示された。
論文 参考訳(メタデータ) (2022-06-17T04:07:45Z) - Exploiting Hybrid Models of Tensor-Train Networks for Spoken Command
Recognition [9.262289183808035]
本研究の目的は,低複雑性音声コマンド認識(SCR)システムの設計である。
我々は、テンソルトレイン(TT)ネットワークの深いハイブリッドアーキテクチャを利用して、エンドツーエンドのSRCパイプラインを構築する。
提案したCNN+(TT-DNN)モデルでは,CNNモデルより4倍少ないモデルパラメータで96.31%の競争精度が得られる。
論文 参考訳(メタデータ) (2022-01-11T05:57:38Z) - A Novel Sleep Stage Classification Using CNN Generated by an Efficient
Neural Architecture Search with a New Data Processing Trick [4.365107026636095]
本稿では,畳み込みニューラルネットワーク(CNN)を用いた新しいデータ処理手法を用いて,効率的な5ステップの分類手法を提案する。
我々は、遺伝的アルゴリズム(GA)NASGを最大限に活用して、最高のCNNアーキテクチャを探索する。
我々は,データ処理トリックの収束性を検証するとともに,従来のCNNの性能をそのトリックの前後で比較する。
論文 参考訳(メタデータ) (2021-10-27T10:36:52Z) - Greedy Network Enlarging [53.319011626986004]
本稿では,計算のリアルタイム化に基づくグリーディ・ネットワーク拡大手法を提案する。
異なる段階の計算をステップバイステップで修正することで、拡張されたネットワークはMACの最適な割り当てと利用を提供する。
GhostNetへの我々の手法の適用により、最先端の80.9%と84.3%のImageNet Top-1アキュラシーを実現する。
論文 参考訳(メタデータ) (2021-07-31T08:36:30Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - Exploring Deep Hybrid Tensor-to-Vector Network Architectures for
Regression Based Speech Enhancement [53.47564132861866]
我々は、CNN-TTというハイブリッドアーキテクチャが、モデルパラメータを小さくして高品質な性能を維持することができることを見出した。
CNN-TTは、音声品質を改善するために、特徴抽出のために下部に複数の畳み込み層で構成されている。
論文 参考訳(メタデータ) (2020-07-25T22:21:05Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。