論文の概要: Embedding of FRPN in CNN architecture
- arxiv url: http://arxiv.org/abs/2001.05851v1
- Date: Fri, 27 Dec 2019 12:41:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-09 22:46:41.263610
- Title: Embedding of FRPN in CNN architecture
- Title(参考訳): CNNアーキテクチャにおけるFRPNの埋め込み
- Authors: Alberto Rossi, Markus Hagenbuchner, Franco Scarselli, Ah Chung Tsoi
- Abstract要約: 多次元入力を受信できるディープ畳み込みニューラルネットワーク(CNN)を導入する。
画像分類ベンチマークにおいて畳み込みFRPN (C-FRPN) と呼ばれるアーキテクチャを評価する。
C-FRPNは、同じ数のパラメータを持つ標準CNNよりも一貫して優れている。
- 参考スコア(独自算出の注目度): 3.3263205689999453
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper extends the fully recursive perceptron network (FRPN) model for
vectorial inputs to include deep convolutional neural networks (CNNs) which can
accept multi-dimensional inputs. A FRPN consists of a recursive layer, which,
given a fixed input, iteratively computes an equilibrium state. The unfolding
realized with this kind of iterative mechanism allows to simulate a deep neural
network with any number of layers. The extension of the FRPN to CNN results in
an architecture, which we call convolutional-FRPN (C-FRPN), where the
convolutional layers are recursive. The method is evaluated on several image
classification benchmarks. It is shown that the C-FRPN consistently outperforms
standard CNNs having the same number of parameters. The gap in performance is
particularly large for small networks, showing that the C-FRPN is a very
powerful architecture, since it allows to obtain equivalent performance with
fewer parameters when compared with deep CNNs.
- Abstract(参考訳): 本稿では,ベクトル入力に対する完全再帰パーセプトロンネットワーク(FRPN)モデルを拡張し,多次元入力を受信可能な深部畳み込みニューラルネットワーク(CNN)を含む。
FRPNは再帰層で構成され、固定された入力が与えられたとき、反復的に平衡状態を計算する。
このような反復的なメカニズムで実現された展開は、どんな層でもディープニューラルネットワークをシミュレートすることができる。
FRPN を CNN に拡張すると、畳み込み層が再帰的に再帰する、畳み込み-FRPN (C-FRPN) と呼ばれる構造が得られる。
この手法は複数の画像分類ベンチマークで評価される。
C-FRPNは、同じ数のパラメータを持つ標準CNNよりも一貫して優れていることが示されている。
C-FRPNは非常に強力なアーキテクチャであり、深いCNNと比較してパラメータが少ないため、性能の差は特に大きい。
関連論文リスト
- Model Parallel Training and Transfer Learning for Convolutional Neural Networks by Domain Decomposition [0.0]
ディープ畳み込みニューラルネットワーク(CNN)は、幅広い画像処理アプリケーションで非常に成功したことが示されている。
モデルパラメータの増大と大量のトレーニングデータの増加により、複雑なCNNを効率的に訓練するための並列化戦略が必要である。
論文 参考訳(メタデータ) (2024-08-26T17:35:01Z) - Training Convolutional Neural Networks with the Forward-Forward
algorithm [1.74440662023704]
Forward Forward (FF)アルゴリズムは、現在まで完全に接続されたネットワークでしか使われていない。
FFパラダイムをCNNに拡張する方法を示す。
我々のFF学習したCNNは、空間的に拡張された新しいラベリング手法を特徴とし、MNISTの手書き桁データセットにおいて99.16%の分類精度を実現している。
論文 参考訳(メタデータ) (2023-12-22T18:56:35Z) - Deep Convolutional Tables: Deep Learning without Convolutions [12.069186324544347]
本稿では,ドット生成ニューロンを使用しず,代わりに投票表の階層に依存するディープネットワークの新たな定式化を提案する。
ディープCTネットワークは、類似アーキテクチャのCNNに匹敵する精度を持つことが実験的に示されている。
論文 参考訳(メタデータ) (2023-04-23T17:49:21Z) - Pushing the Efficiency Limit Using Structured Sparse Convolutions [82.31130122200578]
本稿では,画像の固有構造を利用して畳み込みフィルタのパラメータを削減する構造的スパース畳み込み(SSC)を提案する。
我々は、SSCが効率的なアーキテクチャにおける一般的なレイヤ(奥行き、グループ回り、ポイント回りの畳み込み)の一般化であることを示す。
SSCに基づくアーキテクチャは、CIFAR-10、CIFAR-100、Tiny-ImageNet、ImageNet分類ベンチマークのベースラインと比較して、最先端のパフォーマンスを実現している。
論文 参考訳(メタデータ) (2022-10-23T18:37:22Z) - Continuous approximation by convolutional neural networks with a
sigmoidal function [0.0]
我々は、非重複CNNと呼ばれる畳み込みニューラルネットワーク(CNN)のクラスを提示する。
このようなシグミカルアクティベーション関数を持つネットワークは任意の精度でコンパクトな入力集合上で定義された任意の連続関数を近似できることを示す。
論文 参考訳(メタデータ) (2022-09-27T12:31:36Z) - What Can Be Learnt With Wide Convolutional Neural Networks? [69.55323565255631]
カーネルシステムにおける無限大の深層CNNについて検討する。
我々は,深部CNNが対象関数の空間スケールに適応していることを証明する。
我々は、別の深部CNNの出力に基づいて訓練された深部CNNの一般化誤差を計算して結論付ける。
論文 参考訳(メタデータ) (2022-08-01T17:19:32Z) - Large-Margin Representation Learning for Texture Classification [67.94823375350433]
本稿では,テクスチャ分類のための小さなデータセット上で教師付きモデルをトレーニングするために,畳み込み層(CL)と大規模計量学習を組み合わせた新しいアプローチを提案する。
テクスチャと病理画像データセットの実験結果から,提案手法は同等のCNNと比較して計算コストが低く,収束が早く,競争精度が向上することが示された。
論文 参考訳(メタデータ) (2022-06-17T04:07:45Z) - ACDC: Weight Sharing in Atom-Coefficient Decomposed Convolution [57.635467829558664]
我々は,CNNにおいて,畳み込みカーネル間の構造正則化を導入する。
我々はCNNがパラメータや計算量を劇的に減らして性能を維持していることを示す。
論文 参考訳(メタデータ) (2020-09-04T20:41:47Z) - Computational optimization of convolutional neural networks using
separated filters architecture [69.73393478582027]
我々は、計算複雑性を低減し、ニューラルネットワーク処理を高速化する畳み込みニューラルネットワーク変換を考える。
畳み込みニューラルネットワーク(CNN)の使用は、計算的に要求が多すぎるにもかかわらず、画像認識の標準的なアプローチである。
論文 参考訳(メタデータ) (2020-02-18T17:42:13Z) - Approximation and Non-parametric Estimation of ResNet-type Convolutional
Neural Networks [52.972605601174955]
本稿では,ResNet型CNNが重要な関数クラスにおいて最小誤差率を達成可能であることを示す。
Barron と H'older のクラスに対する前述のタイプの CNN の近似と推定誤差率を導出する。
論文 参考訳(メタデータ) (2019-03-24T19:42:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。