論文の概要: ME-CapsNet: A Multi-Enhanced Capsule Networks with Routing Mechanism
- arxiv url: http://arxiv.org/abs/2203.15547v1
- Date: Tue, 29 Mar 2022 13:29:38 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-30 14:24:27.493860
- Title: ME-CapsNet: A Multi-Enhanced Capsule Networks with Routing Mechanism
- Title(参考訳): me-capsnet:ルーティング機構を備えたマルチエンハンスカプセルネットワーク
- Authors: Jerrin Bright, Suryaprakash R and Arockia Selvakumar Arockia Doss
- Abstract要約: 本研究は,各層の受容領域内の空間成分とチャネル成分の両面を高度に最適化する,新たなソリューションの実現に焦点をあてる。
我々は, カプセル層を戦略的に通過する前に重要な特徴を抽出するために, より深い畳み込み層を導入し, ME-CapsNetを提案する。
より深い畳み込み層にはSqueeze-Excitation Networkのブロックが含まれており、空間サイズを徐々に小さくするためにソフトプーリングアプローチを使用している。
- 参考スコア(独自算出の注目度): 0.0
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Convolutional Neural Networks need the construction of informative features,
which are determined by channel-wise and spatial-wise information at the
network's layers. In this research, we focus on bringing in a novel solution
that uses sophisticated optimization for enhancing both the spatial and channel
components inside each layer's receptive field. Capsule Networks were used to
understand the spatial association between features in the feature map.
Standalone capsule networks have shown good results on comparatively simple
datasets than on complex datasets as a result of the inordinate amount of
feature information. Thus, to tackle this issue, we have proposed ME-CapsNet by
introducing deeper convolutional layers to extract important features before
passing through modules of capsule layers strategically to improve the
performance of the network significantly. The deeper convolutional layer
includes blocks of Squeeze-Excitation networks which uses a soft-pooling
approach for progressively reducing the spatial size thereby dynamically
recalibrating the channels by reconstructing their interdependencies without
much loss of important feature information. Extensive experimentation was done
using commonly used datasets demonstrating the efficiency of the proposed
ME-CapsNet, which clearly outperforms various research works by achieving
higher accuracy with minimal model complexity in complex datasets.
- Abstract(参考訳): 畳み込みニューラルネットワークは、ネットワーク層におけるチャネルワイドおよび空間ワイドの情報によって決定される情報的特徴を構築する必要がある。
本研究では,各レイヤの受容領域内の空間成分とチャネル成分の両方を強化するために,高度な最適化を用いた新しい解法を提案する。
カプセルネットワークは特徴マップの特徴間の空間的関連を理解するために使われた。
スタンドアローンカプセルネットワークは、異常な量の特徴情報の結果として、複雑なデータセットよりも比較的単純なデータセットに対して良い結果を示した。
そこで我々は,ME-CapsNetを提案し,より深い畳み込み層を導入して重要な特徴を抽出し,戦略的にカプセル層のモジュールを通過し,ネットワークの性能を大幅に向上させた。
深層畳み込み層は、ソフトプールアプローチを用いて空間サイズを漸進的に縮小し、重要な特徴情報を損なうことなく相互依存性を再構築することにより、チャネルを動的に再調整するスクイーズ励起ネットワークのブロックを含む。
提案するme-capsnetの効率を示す一般的なデータセットを用いて大規模な実験を行い、複雑なデータセットにおけるモデルの複雑さを最小限に抑えながら、高い精度を達成することにより、様々な研究成果を明らかに上回っている。
関連論文リスト
- WideCaps: A Wide Attention based Capsule Network for Image
Classification [3.6538646907547716]
本稿では,複雑な画像を効率的に処理するためのカプセルネットワークアーキテクチャの設計手法を提案する。
広範囲のボトルネック残余モジュールは、複雑な特徴を抽出し、後続の圧縮及び励起の注意ブロックを抽出し、自明な特徴を抑えることにより、チャネルワイドな注意を可能にする。
本稿では,提案モデルの性能を3つの公開データセット上で広範囲に評価する。
論文 参考訳(メタデータ) (2021-08-08T13:09:40Z) - PredRNN: A Recurrent Neural Network for Spatiotemporal Predictive
Learning [109.84770951839289]
歴史的文脈からビジュアルダイナミクスを学習するための新しいリカレントネットワークであるPredRNNを紹介する。
本手法は,3つの標準データセット上で高い競争結果が得られることを示す。
論文 参考訳(メタデータ) (2021-03-17T08:28:30Z) - Efficient-CapsNet: Capsule Network with Self-Attention Routing [0.0]
深層畳み込みニューラルネットワークは、オブジェクト変換を埋め込むために、多数の機能マップを持つデータ拡張技術とレイヤを広範囲に活用する。
カプセルネットワークは、現在の畳み込みネットワークを拡張し、より効率的に全てのアフィン変換をエンコードするプロセスで人工的な視覚知覚を実現する、有望なソリューションである。
本稿では,カプセルネットワークの効率について検討し,その容量を160Kのパラメータをほとんど持たない極端なアーキテクチャで限界まで押し上げることにより,提案アーキテクチャがまだ最先端の結果が得られることを実証する。
論文 参考訳(メタデータ) (2021-01-29T09:56:44Z) - Attentional Local Contrast Networks for Infrared Small Target Detection [15.882749652217653]
赤外線小目標検出のための新しいモデル駆動深層ネットワークを提案する。
従来の局所コントラスト測定法を、エンドツーエンドネットワークにおける深さ自在なパラメータレス非線形特徴精製層としてモジュール化します。
ネットワークアーキテクチャの各コンポーネントの有効性と効率を実証的に検証するために,ネットワーク奥行きの異なる詳細なアブレーション研究を行う。
論文 参考訳(メタデータ) (2020-12-15T19:33:09Z) - Dual-constrained Deep Semi-Supervised Coupled Factorization Network with
Enriched Prior [80.5637175255349]
本稿では、DS2CF-Netと呼ばれる、拡張された事前制約付きDual-Constrained Deep Semi-Supervised Coupled Factorization Networkを提案する。
隠れた深い特徴を抽出するために、DS2CF-Netは、深い構造と幾何学的な構造に制約のあるニューラルネットワークとしてモデル化される。
我々のネットワークは、表現学習とクラスタリングのための最先端の性能を得ることができる。
論文 参考訳(メタデータ) (2020-09-08T13:10:21Z) - Joint Self-Attention and Scale-Aggregation for Self-Calibrated Deraining
Network [13.628218953897946]
本稿では,JDNetとよばれる有効アルゴリズムを提案する。
自己校正畳み込みを用いたスケール・アグリゲーション・セルフアグリゲーション・モジュールを巧みに設計することにより,提案モデルはより優れたデコレーション結果が得られる。
論文 参考訳(メタデータ) (2020-08-06T17:04:34Z) - Cross-Attention in Coupled Unmixing Nets for Unsupervised Hyperspectral
Super-Resolution [79.97180849505294]
本稿では,HSIの空間分解能を高めるために,CUCaNetというクロスアテンション機構を備えた新しい結合型アンミックスネットワークを提案する。
3つの広く使われているHS-MSデータセットに対して、最先端のHSI-SRモデルと比較実験を行った。
論文 参考訳(メタデータ) (2020-07-10T08:08:20Z) - When Residual Learning Meets Dense Aggregation: Rethinking the
Aggregation of Deep Neural Networks [57.0502745301132]
我々は,グローバルな残差学習と局所的なマイクロセンスアグリゲーションを備えた新しいアーキテクチャであるMicro-Dense Netsを提案する。
我々のマイクロセンスブロックはニューラルアーキテクチャ検索に基づくモデルと統合して性能を向上させることができる。
論文 参考訳(メタデータ) (2020-04-19T08:34:52Z) - Global Context-Aware Progressive Aggregation Network for Salient Object
Detection [117.943116761278]
我々は,低レベルな外観特徴,高レベルな意味特徴,グローバルな文脈特徴を統合化するための新しいネットワークGCPANetを提案する。
提案手法は, 定量的かつ定性的に, 最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-03-02T04:26:10Z) - Cross-layer Feature Pyramid Network for Salient Object Detection [102.20031050972429]
本稿では,有能な物体検出における進行的融合を改善するために,新しいクロス層特徴ピラミッドネットワークを提案する。
レイヤごとの分散機能は、他のすべてのレイヤからセマンティクスと健全な詳細の両方を同時に所有し、重要な情報の損失を減らします。
論文 参考訳(メタデータ) (2020-02-25T14:06:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。