論文の概要: Recurrence along Depth: Deep Convolutional Neural Networks with
Recurrent Layer Aggregation
- arxiv url: http://arxiv.org/abs/2110.11852v1
- Date: Fri, 22 Oct 2021 15:36:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-25 15:38:27.000646
- Title: Recurrence along Depth: Deep Convolutional Neural Networks with
Recurrent Layer Aggregation
- Title(参考訳): 深さに沿った再帰:繰り返し層凝集を伴う深部畳み込みニューラルネットワーク
- Authors: Jingyu Zhao, Yanwen Fang and Guodong Li
- Abstract要約: 本稿では,従来のレイヤからの情報を再利用して,現在のレイヤの特徴をよりよく抽出する方法を説明するために,レイヤアグリゲーションの概念を紹介する。
我々は,深層CNNにおける層構造を逐次的に利用することにより,RLA(recurrent layer aggregate)と呼ばれる非常に軽量なモジュールを提案する。
私たちのRLAモジュールは、ResNets、Xception、MobileNetV2など、多くの主要なCNNと互換性があります。
- 参考スコア(独自算出の注目度): 5.71305698739856
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper introduces a concept of layer aggregation to describe how
information from previous layers can be reused to better extract features at
the current layer. While DenseNet is a typical example of the layer aggregation
mechanism, its redundancy has been commonly criticized in the literature. This
motivates us to propose a very light-weighted module, called recurrent layer
aggregation (RLA), by making use of the sequential structure of layers in a
deep CNN. Our RLA module is compatible with many mainstream deep CNNs,
including ResNets, Xception and MobileNetV2, and its effectiveness is verified
by our extensive experiments on image classification, object detection and
instance segmentation tasks. Specifically, improvements can be uniformly
observed on CIFAR, ImageNet and MS COCO datasets, and the corresponding
RLA-Nets can surprisingly boost the performances by 2-3% on the object
detection task. This evidences the power of our RLA module in helping main CNNs
better learn structural information in images.
- Abstract(参考訳): 本稿では,従来のレイヤからの情報を再利用して,現在のレイヤの特徴をよりよく抽出する方法について述べる。
DenseNetはレイヤ集約機構の典型的な例であるが、その冗長性は文献で一般的に批判されている。
これにより、深層CNNにおける階層のシーケンシャル構造を利用することにより、リカレント層集約(RLA)と呼ばれる非常に軽量なモジュールを提案することができる。
我々のRLAモジュールは、ResNets、Xception、MobileNetV2など、多くの主要なCNNと互換性があり、画像分類、オブジェクト検出、インスタンスセグメンテーションタスクに関する広範な実験により、その効果が検証されている。
具体的には、改善はCIFAR、ImageNet、MS COCOデータセットで一様に観察でき、対応するRLA-Netは、オブジェクト検出タスクで驚くほどパフォーマンスを2-3%向上させることができる。
このことは、主要CNNが画像の構造情報をよりよく学習する上で、我々のRLAモジュールの力を示す。
関連論文リスト
- Scale-Invariant Object Detection by Adaptive Convolution with Unified Global-Local Context [3.061662434597098]
本稿では,効率的なDetモデルに基づくSAC-Net(Switchable Atrous Convolutional Network)を用いたオブジェクト検出モデルを提案する。
提案したSAC-Netは,マルチスケールオブジェクト検出タスクの性能向上を実現するために,低レベル機能と高レベル機能の両方の利点をカプセル化している。
ベンチマークデータセットを用いた実験により,提案したSAC-Netは,精度の点で最先端モデルよりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-09-17T10:08:37Z) - SENetV2: Aggregated dense layer for channelwise and global
representations [0.0]
我々は,Squeeze残余モジュール内に,多分岐密度層である新しい多層パーセプトロンを導入する。
この融合により、チャネルワイドパターンを捕捉し、グローバルな知識を持つネットワークの能力が向上する。
ベンチマークデータセットの広範な実験を行い、モデルを検証し、確立したアーキテクチャと比較する。
論文 参考訳(メタデータ) (2023-11-17T14:10:57Z) - Designing Deep Networks for Scene Recognition [3.493180651702109]
ネットワーク設計において広く受け入れられている原則を実証するために、広範な実験を行い、データを変更すると劇的な性能差が生じる可能性があることを実証する。
本稿では,データ指向ネットワーク設計という新しいネットワーク設計手法を提案する。
本稿では,半分未満の計算資源を用いてシーン認識性能を向上させるディープ・ナロー・ネットワークとDilated Poolingモジュールを提案する。
論文 参考訳(メタデータ) (2023-03-13T18:28:06Z) - Cross-Layer Retrospective Retrieving via Layer Attention [12.423426718300151]
我々はMRLA(Multi-head Recurrent Layer attention)と呼ばれる多層アテンション機構を考案した。
MRLAは、現在のレイヤのクエリ表現を以前のすべてのレイヤに送信し、異なるレベルの受信フィールドからクエリ関連情報を検索する。
MRLAはResNet-50で1.6%のTop-1精度を向上し,0.16Mパラメータと0.07BFLOPを導入した。
論文 参考訳(メタデータ) (2023-02-08T10:50:01Z) - Occlusion-Aware Instance Segmentation via BiLayer Network Architectures [73.45922226843435]
本稿では,2層畳み込みネットワーク(BCNet)を提案する。このネットワークでは,トップ層がオブジェクト(オブオーバ)を検出し,ボトム層が部分的にオブオーバドされたインスタンス(オブオーバド)を推測する。
一般的な畳み込みネットワーク設計,すなわちFCN(Fully Convolutional Network)とGCN(Graph Convolutional Network)を用いた2層構造の有効性について検討する。
論文 参考訳(メタデータ) (2022-08-08T21:39:26Z) - Deep Image Clustering with Contrastive Learning and Multi-scale Graph
Convolutional Networks [58.868899595936476]
コントラスト学習とマルチスケールグラフ畳み込みネットワーク(IcicleGCN)を用いた画像クラスタリング手法を提案する。
複数の画像データセットの実験は、最先端のIcicleGCNよりも優れたクラスタリング性能を示している。
論文 参考訳(メタデータ) (2022-07-14T19:16:56Z) - Learning Target-aware Representation for Visual Tracking via Informative
Interactions [49.552877881662475]
トラッキングのための特徴表現のターゲット認識能力を改善するために,新しいバックボーンアーキテクチャを提案する。
提案したGIMモジュールとInBN機構は、CNNやTransformerなど、さまざまなバックボーンタイプに適用可能である。
論文 参考訳(メタデータ) (2022-01-07T16:22:27Z) - CondenseNet V2: Sparse Feature Reactivation for Deep Networks [87.38447745642479]
高密度接続によるディープネットワークの機能再利用は、高い計算効率を達成する効果的な方法である。
スパース機能再活性化(SFR)と呼ばれる代替アプローチを提案し、再利用機能の有用性を積極的に高めることを目指しています。
提案手法は画像分類(ImageNet, CIFAR)とオブジェクト検出(MSCOCO)において,理論的効率と実用的速度の両面で有望な性能を達成できることを示す。
論文 参考訳(メタデータ) (2021-04-09T14:12:43Z) - Dual-constrained Deep Semi-Supervised Coupled Factorization Network with
Enriched Prior [80.5637175255349]
本稿では、DS2CF-Netと呼ばれる、拡張された事前制約付きDual-Constrained Deep Semi-Supervised Coupled Factorization Networkを提案する。
隠れた深い特徴を抽出するために、DS2CF-Netは、深い構造と幾何学的な構造に制約のあるニューラルネットワークとしてモデル化される。
我々のネットワークは、表現学習とクラスタリングのための最先端の性能を得ることができる。
論文 参考訳(メタデータ) (2020-09-08T13:10:21Z) - Semantic Segmentation With Multi Scale Spatial Attention For Self
Driving Cars [2.7317088388886384]
本稿では,様々なスケールのマルチスケール特徴融合を用いた新しいニューラルネットワークを提案し,その精度と効率的なセマンティックイメージセグメンテーションを提案する。
我々は、ResNetベースの特徴抽出器、ダウンサンプリング部における拡張畳み込み層、アップサンプリング部におけるアトラス畳み込み層を使用し、コンキャット操作を用いてそれらをマージした。
より文脈的な情報をエンコードし、ネットワークの受容領域を強化するため、新しいアテンションモジュールが提案されている。
論文 参考訳(メタデータ) (2020-06-30T20:19:09Z) - CRNet: Cross-Reference Networks for Few-Shot Segmentation [59.85183776573642]
少ないショットセグメンテーションは、少数のトレーニングイメージを持つ新しいクラスに一般化できるセグメンテーションモデルを学ぶことを目的としている。
相互参照機構により、我々のネットワークは2つの画像に共起する物体をよりよく見つけることができる。
PASCAL VOC 2012データセットの実験は、我々のネットワークが最先端のパフォーマンスを達成することを示す。
論文 参考訳(メタデータ) (2020-03-24T04:55:43Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。