論文の概要: Ensemble learning in CNN augmented with fully connected subnetworks
- arxiv url: http://arxiv.org/abs/2003.08562v3
- Date: Tue, 24 Mar 2020 07:03:45 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-22 04:07:53.379853
- Title: Ensemble learning in CNN augmented with fully connected subnetworks
- Title(参考訳): 完全連結サブネットワークを用いたCNNにおけるアンサンブル学習
- Authors: Daiki Hirata, Norikazu Takahashi
- Abstract要約: 1つのベースCNNと複数のFCSNで構成されるEnsNetと呼ばれる新しいモデルを提案する。
EnsNetは、MNISTで最先端のエラー率0.16%を達成する。
- 参考スコア(独自算出の注目度): 0.0
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Convolutional Neural Networks (CNNs) have shown remarkable performance in
general object recognition tasks. In this paper, we propose a new model called
EnsNet which is composed of one base CNN and multiple Fully Connected
SubNetworks (FCSNs). In this model, the set of feature-maps generated by the
last convolutional layer in the base CNN is divided along channels into
disjoint subsets, and these subsets are assigned to the FCSNs. Each of the
FCSNs is trained independent of others so that it can predict the class label
from the subset of the feature-maps assigned to it. The output of the overall
model is determined by majority vote of the base CNN and the FCSNs.
Experimental results using the MNIST, Fashion-MNIST and CIFAR-10 datasets show
that the proposed approach further improves the performance of CNNs. In
particular, an EnsNet achieves a state-of-the-art error rate of 0.16% on MNIST.
- Abstract(参考訳): 畳み込みニューラルネットワーク(CNN)は、一般的な物体認識タスクにおいて顕著な性能を示した。
本稿では,1つのベースcnnと複数の完全接続サブネットワーク(fcsns)で構成されるensnetと呼ばれる新しいモデルを提案する。
このモデルでは、ベースCNNにおける最後の畳み込み層によって生成される特徴写像の集合をチャネルに沿って分割し、これらの部分集合をFCSNに割り当てる。
FCSNは独立して訓練されており、クラスラベルを割り当てられたフィーチャーマップのサブセットから予測することができる。
全体モデルの出力は、ベースCNNとFCSNの過半数投票によって決定される。
MNIST, Fashion-MNIST, CIFAR-10データセットを用いた実験結果から,提案手法はCNNの性能をさらに向上させることが示された。
特にEnsNetは、MNISTで最先端のエラー率0.16%を達成する。
関連論文リスト
- Model Parallel Training and Transfer Learning for Convolutional Neural Networks by Domain Decomposition [0.0]
ディープ畳み込みニューラルネットワーク(CNN)は、幅広い画像処理アプリケーションで非常に成功したことが示されている。
モデルパラメータの増大と大量のトレーニングデータの増加により、複雑なCNNを効率的に訓練するための並列化戦略が必要である。
論文 参考訳(メタデータ) (2024-08-26T17:35:01Z) - CNN2GNN: How to Bridge CNN with GNN [59.42117676779735]
蒸留によりCNNとGNNを統一する新しいCNN2GNNフレームワークを提案する。
Mini-ImageNetにおける蒸留ブースターの2層GNNの性能は、ResNet152のような数十層を含むCNNよりもはるかに高い。
論文 参考訳(メタデータ) (2024-04-23T08:19:08Z) - PICNN: A Pathway towards Interpretable Convolutional Neural Networks [12.31424771480963]
フィルタと画像のクラス間の絡み合いを軽減する新しい経路を導入する。
我々はBernoulliサンプリングを用いて、学習可能なフィルタクラス対応行列からフィルタクラスタ割り当て行列を生成する。
提案手法の有効性を,広く使用されている10のネットワークアーキテクチャ上で評価する。
論文 参考訳(メタデータ) (2023-12-19T11:36:03Z) - Exploiting Hybrid Models of Tensor-Train Networks for Spoken Command
Recognition [9.262289183808035]
本研究の目的は,低複雑性音声コマンド認識(SCR)システムの設計である。
我々は、テンソルトレイン(TT)ネットワークの深いハイブリッドアーキテクチャを利用して、エンドツーエンドのSRCパイプラインを構築する。
提案したCNN+(TT-DNN)モデルでは,CNNモデルより4倍少ないモデルパラメータで96.31%の競争精度が得られる。
論文 参考訳(メタデータ) (2022-01-11T05:57:38Z) - Redundant representations help generalization in wide neural networks [71.38860635025907]
様々な最先端の畳み込みニューラルネットワークの最後に隠された層表現について検討する。
最後に隠された表現が十分に広ければ、そのニューロンは同一の情報を持つグループに分裂し、統計的に独立したノイズによってのみ異なる傾向にある。
論文 参考訳(メタデータ) (2021-06-07T10:18:54Z) - A Structurally Regularized Convolutional Neural Network for Image
Classification using Wavelet-based SubBand Decomposition [2.127049691404299]
ウェーブレットを用いた画像のサブバンド分解に基づく画像分類のための畳み込みニューラルネットワーク(CNN)アーキテクチャを提案する。
提案アーキテクチャは、入力画像スペクトルを複数の臨界サンプリングサブバンドに分解し、サブバンド毎に1つのCNNを用いて特徴を抽出し、最後に、抽出した特徴を完全連結層を用いて分類する。
重みとバイアスの量子化と入力の量子化によって引き起こされるノイズに対する提案されたアーキテクチャは、通常のフルバンドCNNよりも堅牢であることを示す。
論文 参考訳(メタデータ) (2021-03-02T16:01:22Z) - The Mind's Eye: Visualizing Class-Agnostic Features of CNNs [92.39082696657874]
本稿では,特定のレイヤの最も情報性の高い特徴を表現した対応する画像を作成することにより,画像の集合を視覚的に解釈する手法を提案する。
本手法では, 生成ネットワークを必要とせず, 元のモデルに変更を加えることなく, デュアルオブジェクトのアクティベーションと距離損失を利用する。
論文 参考訳(メタデータ) (2021-01-29T07:46:39Z) - MGIC: Multigrid-in-Channels Neural Network Architectures [8.459177309094688]
本稿では,標準畳み込みニューラルネットワーク(CNN)におけるチャネル数に関して,パラメータ数の2次成長に対処するマルチグリッド・イン・チャネル手法を提案する。
近年の軽量CNNの成功にともなうCNNの冗長性に対処する。
論文 参考訳(メタデータ) (2020-11-17T11:29:10Z) - ACDC: Weight Sharing in Atom-Coefficient Decomposed Convolution [57.635467829558664]
我々は,CNNにおいて,畳み込みカーネル間の構造正則化を導入する。
我々はCNNがパラメータや計算量を劇的に減らして性能を維持していることを示す。
論文 参考訳(メタデータ) (2020-09-04T20:41:47Z) - Graph Neural Networks: Architectures, Stability and Transferability [176.3960927323358]
グラフニューラルネットワーク(GNN)は、グラフでサポートされている信号のための情報処理アーキテクチャである。
これらは、個々の層がグラフ畳み込みフィルタのバンクを含む畳み込みニューラルネットワーク(CNN)の一般化である。
論文 参考訳(メタデータ) (2020-08-04T18:57:36Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。