論文の概要: WideCaps: A Wide Attention based Capsule Network for Image
Classification
- arxiv url: http://arxiv.org/abs/2108.03627v1
- Date: Sun, 8 Aug 2021 13:09:40 GMT
- ステータス: 処理完了
- システム内更新日: 2021-08-10 15:27:14.543360
- Title: WideCaps: A Wide Attention based Capsule Network for Image
Classification
- Title(参考訳): WideCaps: 画像分類のためのワイドアテンションベースのカプセルネットワーク
- Authors: Pawan S J, Rishi Sharma, Hemanth Sai Ram Reddy, M Vani, Jeny Rajan
- Abstract要約: 本稿では,複雑な画像を効率的に処理するためのカプセルネットワークアーキテクチャの設計手法を提案する。
広範囲のボトルネック残余モジュールは、複雑な特徴を抽出し、後続の圧縮及び励起の注意ブロックを抽出し、自明な特徴を抑えることにより、チャネルワイドな注意を可能にする。
本稿では,提案モデルの性能を3つの公開データセット上で広範囲に評価する。
- 参考スコア(独自算出の注目度): 3.6538646907547716
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The capsule network is a distinct and promising segment of the neural network
family that drew attention due to its unique ability to maintain the
equivariance property by preserving the spatial relationship amongst the
features. The capsule network has attained unprecedented success over image
classification tasks with datasets such as MNIST and affNIST by encoding the
characteristic features into the capsules and building the parse-tree
structure. However, on the datasets involving complex foreground and background
regions such as CIFAR-10, the performance of the capsule network is sub-optimal
due to its naive data routing policy and incompetence towards extracting
complex features. This paper proposes a new design strategy for capsule network
architecture for efficiently dealing with complex images. The proposed method
incorporates wide bottleneck residual modules and the Squeeze and Excitation
attention blocks upheld by the modified FM routing algorithm to address the
defined problem. A wide bottleneck residual module facilitates extracting
complex features followed by the squeeze and excitation attention block to
enable channel-wise attention by suppressing the trivial features. This setup
allows channel inter-dependencies at almost no computational cost, thereby
enhancing the representation ability of capsules on complex images. We
extensively evaluate the performance of the proposed model on three publicly
available datasets, namely CIFAR-10, Fashion MNIST, and SVHN, to outperform the
top-5 performance on CIFAR-10 and Fashion MNIST with highly competitive
performance on the SVHN dataset.
- Abstract(参考訳): カプセルネットワークはニューラルネットワークファミリーの独特で有望なセグメントであり、特徴間の空間的関係を保ちながら等分散性を維持するユニークな能力によって注目を集めた。
カプセルネットワークは、MNISTやaffNISTのようなデータセットによる画像分類タスクよりも、その特徴をカプセルにエンコードし、パースツリー構造を構築することで、前例のない成功を収めた。
しかし、CIFAR-10のような複雑な前景と背景領域を含むデータセットでは、カプセルネットワークの性能は、その素質的なデータルーティングポリシーと複雑な特徴の抽出に対する非能率のため、準最適である。
本稿では,複雑な画像を効率的に処理するためのカプセルネットワークアーキテクチャの設計手法を提案する。
提案手法では, 広範囲のボトルネック残差モジュールと, fmルーティングアルゴリズムが支持するスクイーズ・励磁アテンションブロックを組み込んで, 問題の解決法を提案する。
広いボトルネック残差モジュールは、複雑な特徴の抽出と、スクイズ及び励磁注意ブロックの抽出を容易とし、自明な特徴を抑制してチャネル毎の注目を可能にする。
このセットアップにより、チャネル間依存をほぼ計算コストで実現し、複雑な画像上のカプセルの表現能力を高めることができる。
CIFAR-10, Fashion MNIST, SVHNの3つの公開データセットにおいて提案モデルの性能を広範囲に評価し, CIFAR-10 と Fashion MNIST の上位5つの性能をSVHNデータセット上で高い競争性能で比較した。
関連論文リスト
- Rotated Multi-Scale Interaction Network for Referring Remote Sensing Image Segmentation [63.15257949821558]
Referring Remote Sensing Image (RRSIS)は、コンピュータビジョンと自然言語処理を組み合わせた新しい課題である。
従来の参照画像(RIS)アプローチは、空中画像に見られる複雑な空間スケールと向きによって妨げられている。
本稿ではRMSIN(Rotated Multi-Scale Interaction Network)を紹介する。
論文 参考訳(メタデータ) (2023-12-19T08:14:14Z) - ME-CapsNet: A Multi-Enhanced Capsule Networks with Routing Mechanism [0.0]
本研究は,各層の受容領域内の空間成分とチャネル成分の両面を高度に最適化する,新たなソリューションの実現に焦点をあてる。
我々は, カプセル層を戦略的に通過する前に重要な特徴を抽出するために, より深い畳み込み層を導入し, ME-CapsNetを提案する。
より深い畳み込み層にはSqueeze-Excitationネットワークのブロックが含まれており、重要な特徴情報を失うことなく、サンプリングアプローチを使用して相互依存関係を再構築する。
論文 参考訳(メタデータ) (2022-03-29T13:29:38Z) - Cross-SRN: Structure-Preserving Super-Resolution Network with Cross
Convolution [64.76159006851151]
低解像度 (LR) 画像から高解像度 (SR) 画像への復元は, 正確かつ明確である。
既存のディープラーニングは、画像の固有の構造情報をほとんど無視する。
構造情報の探索と保存を行う階層的特徴利用ネットワークを設計する。
論文 参考訳(メタデータ) (2022-01-05T05:15:01Z) - Learning to Aggregate Multi-Scale Context for Instance Segmentation in
Remote Sensing Images [28.560068780733342]
特徴抽出のプロセスを改善するために,新しいコンテキスト集約ネットワーク(CATNet)を提案する。
提案モデルは,高密度特徴ピラミッドネットワーク(DenseFPN),空間コンテキストピラミッド(SCP),階層的関心抽出器(HRoIE)の3つの軽量プラグアンドプレイモジュールを利用する。
論文 参考訳(メタデータ) (2021-11-22T08:55:25Z) - M2IOSR: Maximal Mutual Information Open Set Recognition [47.1393314282815]
オープンセット認識のための合理化アーキテクチャを用いた相互情報に基づく手法を提案する。
提案手法は, ベースラインの性能を著しく向上させ, 連続したベンチマークによる新しい最先端結果を実現する。
論文 参考訳(メタデータ) (2021-08-05T05:08:12Z) - Efficient-CapsNet: Capsule Network with Self-Attention Routing [0.0]
深層畳み込みニューラルネットワークは、オブジェクト変換を埋め込むために、多数の機能マップを持つデータ拡張技術とレイヤを広範囲に活用する。
カプセルネットワークは、現在の畳み込みネットワークを拡張し、より効率的に全てのアフィン変換をエンコードするプロセスで人工的な視覚知覚を実現する、有望なソリューションである。
本稿では,カプセルネットワークの効率について検討し,その容量を160Kのパラメータをほとんど持たない極端なアーキテクチャで限界まで押し上げることにより,提案アーキテクチャがまだ最先端の結果が得られることを実証する。
論文 参考訳(メタデータ) (2021-01-29T09:56:44Z) - Joint Self-Attention and Scale-Aggregation for Self-Calibrated Deraining
Network [13.628218953897946]
本稿では,JDNetとよばれる有効アルゴリズムを提案する。
自己校正畳み込みを用いたスケール・アグリゲーション・セルフアグリゲーション・モジュールを巧みに設計することにより,提案モデルはより優れたデコレーション結果が得られる。
論文 参考訳(メタデータ) (2020-08-06T17:04:34Z) - Wasserstein Routed Capsule Networks [90.16542156512405]
複雑なタスクに対処できる新しいパラメータ効率の良いカプセルアーキテクチャを提案する。
我々のネットワークはCIFAR-10で他のカプセルのアプローチを1.2%以上上回ります。
論文 参考訳(メタデータ) (2020-07-22T14:38:05Z) - Sequential Hierarchical Learning with Distribution Transformation for
Image Super-Resolution [83.70890515772456]
画像SRのための逐次階層学習型超解像ネットワーク(SHSR)を構築した。
特徴のスケール間相関を考察し、階層的情報を段階的に探索するシーケンシャルなマルチスケールブロック(SMB)を考案する。
実験結果から,SHSRは最先端手法に優れた定量的性能と視覚的品質が得られることが示された。
論文 参考訳(メタデータ) (2020-07-19T01:35:53Z) - ResNeSt: Split-Attention Networks [86.25490825631763]
このアーキテクチャは、異なるネットワークブランチにチャンネルワイズを応用し、機能間相互作用のキャプチャと多様な表現の学習の成功を活用する。
我々のモデルはResNeStと呼ばれ、画像分類の精度と遅延トレードオフにおいてEfficientNetより優れています。
論文 参考訳(メタデータ) (2020-04-19T20:40:31Z) - When Residual Learning Meets Dense Aggregation: Rethinking the
Aggregation of Deep Neural Networks [57.0502745301132]
我々は,グローバルな残差学習と局所的なマイクロセンスアグリゲーションを備えた新しいアーキテクチャであるMicro-Dense Netsを提案する。
我々のマイクロセンスブロックはニューラルアーキテクチャ検索に基づくモデルと統合して性能を向上させることができる。
論文 参考訳(メタデータ) (2020-04-19T08:34:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。