論文の概要: A^2-FPN: Attention Aggregation based Feature Pyramid Network for
Instance Segmentation
- arxiv url: http://arxiv.org/abs/2105.03186v1
- Date: Fri, 7 May 2021 11:51:08 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-10 12:16:02.595209
- Title: A^2-FPN: Attention Aggregation based Feature Pyramid Network for
Instance Segmentation
- Title(参考訳): a^2-fpn:注意アグリゲーションに基づく特徴ピラミッドネットワーク
- Authors: Miao Hu and Yali Li and Lu Fang and Shengjin Wang
- Abstract要約: アテンションアグリゲーションに基づく機能ピラミッドネットワーク(A2-FPN)を提案し、マルチスケール機能学習を改善します。
A2-FPNは、Cascade Mask R-CNNやHybrid Task Cascadeといった強力なベースラインに統合された場合、2.0%と1.4%のマスクAPを改善する。
- 参考スコア(独自算出の注目度): 68.10621089649486
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Learning pyramidal feature representations is crucial for recognizing object
instances at different scales. Feature Pyramid Network (FPN) is the classic
architecture to build a feature pyramid with high-level semantics throughout.
However, intrinsic defects in feature extraction and fusion inhibit FPN from
further aggregating more discriminative features. In this work, we propose
Attention Aggregation based Feature Pyramid Network (A^2-FPN), to improve
multi-scale feature learning through attention-guided feature aggregation. In
feature extraction, it extracts discriminative features by
collecting-distributing multi-level global context features, and mitigates the
semantic information loss due to drastically reduced channels. In feature
fusion, it aggregates complementary information from adjacent features to
generate location-wise reassembly kernels for content-aware sampling, and
employs channel-wise reweighting to enhance the semantic consistency before
element-wise addition. A^2-FPN shows consistent gains on different instance
segmentation frameworks. By replacing FPN with A^2-FPN in Mask R-CNN, our model
boosts the performance by 2.1% and 1.6% mask AP when using ResNet-50 and
ResNet-101 as backbone, respectively. Moreover, A^2-FPN achieves an improvement
of 2.0% and 1.4% mask AP when integrated into the strong baselines such as
Cascade Mask R-CNN and Hybrid Task Cascade.
- Abstract(参考訳): ピラミッド型特徴表現の学習は、異なるスケールでオブジェクトインスタンスを認識するのに不可欠である。
Feature Pyramid Network (FPN)は、高レベルのセマンティクスを備えた機能ピラミッドを構築するための古典的なアーキテクチャである。
しかし、特徴抽出と融合における本質的な欠陥は、FPNがより差別的な特徴をさらに集積することを妨げる。
本研究では,注意誘導特徴集合によるマルチスケール特徴学習を改善するために,アテンションアグリゲーションに基づく特徴ピラミッドネットワーク(a^2-fpn)を提案する。
特徴抽出において,多レベルグローバルな文脈特徴の収集・分散により識別的特徴を抽出し,チャネルの大幅な減少による意味情報の損失を軽減する。
特徴融合では、隣接した特徴から補完的な情報を集約し、コンテンツ認識サンプリングのための位置対応の組換えカーネルを生成し、チャンネルワイドの重み付けを用いて、要素ワイド付加前のセマンティック一貫性を高める。
A^2-FPNは異なるインスタンスセグメンテーションフレームワークで一貫した利得を示す。
Mask R-CNNのFPNをA^2-FPNに置き換えることで、ResNet-50とResNet-101をバックボーンとして使用する場合、その性能を2.1%、マスクAPが1.6%向上する。
さらに、A^2-FPNは、Cascade Mask R-CNNやHybrid Task Cascadeといった強力なベースラインに統合された場合、2.0%と1.4%のマスクAPを改善する。
関連論文リスト
- Retro-FPN: Retrospective Feature Pyramid Network for Point Cloud
Semantic Segmentation [65.78483246139888]
本稿では,各点特徴量の予測を明示的かつふりかえり的な精錬プロセスとしてモデル化するRetro-FPNを提案する。
その重要な斬新さは、前層から意味コンテキストを要約するレトロ・トランスフォーマーである。
Retro-FPNは最先端のバックボーンよりも性能が大幅に向上することを示す。
論文 参考訳(メタデータ) (2023-08-18T05:28:25Z) - PARFormer: Transformer-based Multi-Task Network for Pedestrian Attribute
Recognition [23.814762073093153]
4つのモジュールを含むPARFormerという,純粋なトランスフォーマーベースのマルチタスクPARネットワークを提案する。
特徴抽出モジュールでは,特徴抽出のための強力なベースラインを構築し,複数のPARベンチマークで競合する結果を得る。
視点認識モジュールでは、歩行者属性に対する視点の影響を探索し、マルチビューのコントラスト損失を提案する。
属性認識モジュールでは、負の正の不均衡問題を緩和し、属性予測を生成する。
論文 参考訳(メタデータ) (2023-04-14T16:27:56Z) - Semantic Feature Integration network for Fine-grained Visual
Classification [5.182627302449368]
本稿では,これらの課題に対処するためにセマンティック・フィーチャー・インテグレーション・ネットワーク(SFI-Net)を提案する。
不要な特徴を排除し、識別的特徴間の意味関係を再構築することにより、SFI-Netは満足な性能を実現した。
論文 参考訳(メタデータ) (2023-02-13T07:32:25Z) - RCNet: Reverse Feature Pyramid and Cross-scale Shift Network for Object
Detection [10.847953426161924]
本稿では,RevFP(Reverse Feature Pyramid)とCSN(Cross-scale Shift Network)で構成されるRCNetを提案する。
RevFPは、局所的な双方向特徴融合を利用して、双方向ピラミッド推論パイプラインを簡素化する。
CSNは、隣接レベルと非隣接レベルの両方に直接表現を伝播し、より相関性の高いマルチスケール機能を実現する。
論文 参考訳(メタデータ) (2021-10-23T04:00:25Z) - FaPN: Feature-aligned Pyramid Network for Dense Image Prediction [6.613724825924151]
本稿では,画素の変換オフセットから,アップサンプリング機能への変換を学習する機能アライメントモジュールを提案する。
次に、これらの2つのモジュールをトップダウンピラミッドアーキテクチャに統合し、Feature-aligned Pyramid Network (FaPN)を提示します。
特に、私たちのFaPNは Mask-Former に統合された ADE20K 上で56.7% mIoU の最先端を実現している。
論文 参考訳(メタデータ) (2021-08-16T12:52:42Z) - CARAFE++: Unified Content-Aware ReAssembly of FEatures [132.49582482421246]
この目標を達成するために、ユニバーサルで軽量で高効率なオペレータであるContent-Aware ReAssembly of FEatures(CARAFE++)を提案します。
CARAFE++は、インスタンス固有のコンテンツ認識処理を可能にするアダプティブカーネルをオンザフライで生成する。
計算のオーバーヘッドが無視できるすべてのタスクにおいて、一貫性と実質的な利益を示しています。
論文 参考訳(メタデータ) (2020-12-07T07:34:57Z) - $P^2$ Net: Augmented Parallel-Pyramid Net for Attention Guided Pose
Estimation [69.25492391672064]
拡張ボトルネックとアテンションモジュールによる特徴改善を施したパラレルピラミドネットを提案する。
並列ピラミド構造は、ネットワークによって導入された情報損失を補うために続く。
提案手法は, MSCOCO と MPII のデータセットにおいて, 最適な性能を実現する。
論文 参考訳(メタデータ) (2020-10-26T02:10:12Z) - Dual-constrained Deep Semi-Supervised Coupled Factorization Network with
Enriched Prior [80.5637175255349]
本稿では、DS2CF-Netと呼ばれる、拡張された事前制約付きDual-Constrained Deep Semi-Supervised Coupled Factorization Networkを提案する。
隠れた深い特徴を抽出するために、DS2CF-Netは、深い構造と幾何学的な構造に制約のあるニューラルネットワークとしてモデル化される。
我々のネットワークは、表現学習とクラスタリングのための最先端の性能を得ることができる。
論文 参考訳(メタデータ) (2020-09-08T13:10:21Z) - A novel Region of Interest Extraction Layer for Instance Segmentation [3.5493798890908104]
本稿では,既存のRoI抽出器の限界を克服する必要性を動機とする。
提案するレイヤ(Generic RoI Extractor - GRoIE)には,非ローカルなビルディングブロックとアテンション機構が導入され,パフォーマンスが向上する。
GRoIEは、オブジェクト検出とインスタンスセグメンテーションの両方のために、すべての2段階アーキテクチャとシームレスに統合できる。
論文 参考訳(メタデータ) (2020-04-28T17:07:32Z) - When Residual Learning Meets Dense Aggregation: Rethinking the
Aggregation of Deep Neural Networks [57.0502745301132]
我々は,グローバルな残差学習と局所的なマイクロセンスアグリゲーションを備えた新しいアーキテクチャであるMicro-Dense Netsを提案する。
我々のマイクロセンスブロックはニューラルアーキテクチャ検索に基づくモデルと統合して性能を向上させることができる。
論文 参考訳(メタデータ) (2020-04-19T08:34:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。