論文の概要: Parallel Residual Bi-Fusion Feature Pyramid Network for Accurate
Single-Shot Object Detection
- arxiv url: http://arxiv.org/abs/2012.01724v5
- Date: Thu, 18 May 2023 15:33:06 GMT
- ステータス: 処理完了
- システム内更新日: 2023-05-19 21:19:59.672990
- Title: Parallel Residual Bi-Fusion Feature Pyramid Network for Accurate
Single-Shot Object Detection
- Title(参考訳): 単ショット物体検出のための並列残差二フュージョン特徴ピラミッドネットワーク
- Authors: Ping-Yang Chen, Ming-Ching Chang, Jun-Wei Hsieh, Yong-Sheng Chen
- Abstract要約: 本稿では,高速かつ高精度な単発物体検出のための並列残差二フュージョン特徴ピラミッドネットワーク(PRB-FPN)を提案する。
提案するネットワークは,UAVDT17およびMS COCOデータセット上での最先端性能を実現する。
- 参考スコア(独自算出の注目度): 22.817918566911203
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: This paper proposes the Parallel Residual Bi-Fusion Feature Pyramid Network
(PRB-FPN) for fast and accurate single-shot object detection. Feature Pyramid
(FP) is widely used in recent visual detection, however the top-down pathway of
FP cannot preserve accurate localization due to pooling shifting. The advantage
of FP is weakened as deeper backbones with more layers are used. In addition,
it cannot keep up accurate detection of both small and large objects at the
same time. To address these issues, we propose a new parallel FP structure with
bi-directional (top-down and bottom-up) fusion and associated improvements to
retain high-quality features for accurate localization. We provide the
following design improvements: (1) A parallel bifusion FP structure with a
bottom-up fusion module (BFM) to detect both small and large objects at once
with high accuracy. (2) A concatenation and re-organization (CORE) module
provides a bottom-up pathway for feature fusion, which leads to the
bi-directional fusion FP that can recover lost information from lower-layer
feature maps. (3) The CORE feature is further purified to retain richer
contextual information. Such CORE purification in both top-down and bottom-up
pathways can be finished in only a few iterations. (4) The adding of a residual
design to CORE leads to a new Re-CORE module that enables easy training and
integration with a wide range of deeper or lighter backbones. The proposed
network achieves state-of-the-art performance on the UAVDT17 and MS COCO
datasets. Code is available at https://github.com/pingyang1117/PRBNet_PyTorch.
- Abstract(参考訳): 本稿では,高速かつ高精度な単発物体検出のための並列残差二フュージョン特徴ピラミッドネットワーク(PRB-FPN)を提案する。
特徴ピラミッド (FP) は近年の視覚的検出において広く用いられているが, FP のトップダウン経路はプールシフトによる正確な位置決めを保たない。
FPの利点は、より多くの層を持つ深いバックボーンを使用することによって弱まる。
また、小型物体と大型物体の両方を同時に正確に検出することは不可能である。
これらの問題に対処するために、双方向(トップダウンおよびボトムアップ)融合とそれに伴う改善により、高精度なローカライズのための高品質な特徴を維持するための新しい並列FP構造を提案する。
1) ボトムアップ融合モジュール (BFM) を用いた並列拡散FP構造を用いて, 小型・大型両方の物体を同時に高精度に検出する。
2) 結合再編成(core)モジュールは,機能融合のためのボトムアップ経路を提供し,低層特徴マップから失われた情報を復元する双方向融合fpを実現する。
(3) CORE 機能はよりリッチなコンテキスト情報を保持するためにさらに浄化される。
トップダウン経路とボトムアップ経路の両方でのCORE浄化は、ほんの数イテレーションで完了する。
(4) COREに残留設計を追加することで、より深い、より軽いバックボーンでのトレーニングや統合が容易になる新しいRe-COREモジュールが実現される。
提案するネットワークは,UAVDT17およびMS COCOデータセット上での最先端性能を実現する。
コードはhttps://github.com/pingyang1117/prbnet_pytorchで入手できる。
関連論文リスト
- LR-FPN: Enhancing Remote Sensing Object Detection with Location Refined Feature Pyramid Network [2.028685490378346]
浅い位置情報の抽出を促進するために,新しい位置改良型特徴ピラミッドネットワーク(LR-FPN)を提案する。
2つの大規模なリモートセンシングデータセットの実験により、提案したLR-FPNは最先端のオブジェクト検出手法よりも優れていることが示された。
論文 参考訳(メタデータ) (2024-04-02T03:36:07Z) - Transformer-based Context Condensation for Boosting Feature Pyramids in
Object Detection [77.50110439560152]
現在の物体検出器は、通常マルチレベル特徴融合(MFF)のための特徴ピラミッド(FP)モジュールを持つ。
我々は,既存のFPがより優れたMFF結果を提供するのに役立つ,新しい,効率的なコンテキストモデリング機構を提案する。
特に,包括的文脈を2種類の表現に分解・凝縮して高効率化を図っている。
論文 参考訳(メタデータ) (2022-07-14T01:45:03Z) - DFTR: Depth-supervised Hierarchical Feature Fusion Transformer for
Salient Object Detection [44.94166578314837]
我々は、純粋なトランスフォーマーベースのSODフレームワーク、すなわち、Depth-supervised Hierarchical Feature Fusion TRansformer (DFTR)を提案する。
我々は,提案したDFTRを10個のベンチマークデータセット上で広範囲に評価し,実験結果から,既存のRGBおよびRGB-D SODタスクにおいて,DFTRが従来手法よりも一貫して優れていることが示された。
論文 参考訳(メタデータ) (2022-03-12T12:59:12Z) - RCNet: Reverse Feature Pyramid and Cross-scale Shift Network for Object
Detection [10.847953426161924]
本稿では,RevFP(Reverse Feature Pyramid)とCSN(Cross-scale Shift Network)で構成されるRCNetを提案する。
RevFPは、局所的な双方向特徴融合を利用して、双方向ピラミッド推論パイプラインを簡素化する。
CSNは、隣接レベルと非隣接レベルの両方に直接表現を伝播し、より相関性の高いマルチスケール機能を実現する。
論文 参考訳(メタデータ) (2021-10-23T04:00:25Z) - LC3Net: Ladder context correlation complementary network for salient
object detection [0.32116198597240836]
我々は,新しいラグコンテキスト相関補完ネットワーク (LC3Net) を提案する。
FCBはフィルタリング可能な畳み込みブロックであり、初期特徴の多様性に関する情報の自動収集を支援する。
DCMは、異なるレベルの特徴の密集を促進するための密接なクロスモジュールである。
BCDは双方向圧縮デコーダであり、マルチスケール機能の段階的縮小を支援する。
論文 参考訳(メタデータ) (2021-10-21T03:12:32Z) - A^2-FPN: Attention Aggregation based Feature Pyramid Network for
Instance Segmentation [68.10621089649486]
アテンションアグリゲーションに基づく機能ピラミッドネットワーク(A2-FPN)を提案し、マルチスケール機能学習を改善します。
A2-FPNは、Cascade Mask R-CNNやHybrid Task Cascadeといった強力なベースラインに統合された場合、2.0%と1.4%のマスクAPを改善する。
論文 参考訳(メタデータ) (2021-05-07T11:51:08Z) - $P^2$ Net: Augmented Parallel-Pyramid Net for Attention Guided Pose
Estimation [69.25492391672064]
拡張ボトルネックとアテンションモジュールによる特徴改善を施したパラレルピラミドネットを提案する。
並列ピラミド構造は、ネットワークによって導入された情報損失を補うために続く。
提案手法は, MSCOCO と MPII のデータセットにおいて, 最適な性能を実現する。
論文 参考訳(メタデータ) (2020-10-26T02:10:12Z) - AutoPose: Searching Multi-Scale Branch Aggregation for Pose Estimation [96.29533512606078]
本稿では,新しいニューラルアーキテクチャサーチ(NAS)フレームワークであるAutoPoseを紹介する。
高精度で高解像度な2次元ポーズ推定に向けて、クロススケール接続の複数の並列ブランチを自動的に検出することができる。
論文 参考訳(メタデータ) (2020-08-16T22:27:43Z) - Suppress and Balance: A Simple Gated Network for Salient Object
Detection [89.88222217065858]
両問題を同時に解くための単純なゲートネットワーク(GateNet)を提案する。
多レベルゲートユニットの助けを借りて、エンコーダからの貴重なコンテキスト情報をデコーダに最適に送信することができる。
さらに,提案したFold-ASPP操作(Fold-ASPP)に基づくアトラス空間ピラミッドプーリングを用いて,様々なスケールのサリアンオブジェクトを正確に位置決めする。
論文 参考訳(メタデータ) (2020-07-16T02:00:53Z) - Cross-layer Feature Pyramid Network for Salient Object Detection [102.20031050972429]
本稿では,有能な物体検出における進行的融合を改善するために,新しいクロス層特徴ピラミッドネットワークを提案する。
レイヤごとの分散機能は、他のすべてのレイヤからセマンティクスと健全な詳細の両方を同時に所有し、重要な情報の損失を減らします。
論文 参考訳(メタデータ) (2020-02-25T14:06:27Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。