論文の概要: PETDet: Proposal Enhancement for Two-Stage Fine-Grained Object Detection
- arxiv url: http://arxiv.org/abs/2312.10515v1
- Date: Sat, 16 Dec 2023 18:04:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-19 16:05:20.637870
- Title: PETDet: Proposal Enhancement for Two-Stage Fine-Grained Object Detection
- Title(参考訳): PETDet:2段階微細物体検出のための提案強調
- Authors: Wentao Li, Danpei Zhao, Bo Yuan, Yue Gao, Zhenwei Shi
- Abstract要約: PETDet (Proposal Enhancement for Two-stage fine-fine object detection) は, 2段階FGOD法において, サブタスクをよりよく扱うために提案される。
動的ラベル割り当てと注意に基づく分解により, アンカーフリー品質指向提案ネットワーク(QOPN)を提案する。
A novel Adaptive Recognition Loss (ARL)は、R-CNNの責任者が高品質な提案に焦点を合わせるためのガイダンスを提供する。
- 参考スコア(独自算出の注目度): 26.843891792018447
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Fine-grained object detection (FGOD) extends object detection with the
capability of fine-grained recognition. In recent two-stage FGOD methods, the
region proposal serves as a crucial link between detection and fine-grained
recognition. However, current methods overlook that some proposal-related
procedures inherited from general detection are not equally suitable for FGOD,
limiting the multi-task learning from generation, representation, to
utilization. In this paper, we present PETDet (Proposal Enhancement for
Two-stage fine-grained object detection) to better handle the sub-tasks in
two-stage FGOD methods. Firstly, an anchor-free Quality Oriented Proposal
Network (QOPN) is proposed with dynamic label assignment and attention-based
decomposition to generate high-quality oriented proposals. Additionally, we
present a Bilinear Channel Fusion Network (BCFN) to extract independent and
discriminative features of the proposals. Furthermore, we design a novel
Adaptive Recognition Loss (ARL) which offers guidance for the R-CNN head to
focus on high-quality proposals. Extensive experiments validate the
effectiveness of PETDet. Quantitative analysis reveals that PETDet with
ResNet50 reaches state-of-the-art performance on various FGOD datasets,
including FAIR1M-v1.0 (42.96 AP), FAIR1M-v2.0 (48.81 AP), MAR20 (85.91 AP) and
ShipRSImageNet (74.90 AP). The proposed method also achieves superior
compatibility between accuracy and inference speed. Our code and models will be
released at https://github.com/canoe-Z/PETDet.
- Abstract(参考訳): きめ細かい物体検出(FGOD)は、きめ細かな物体検出能力を拡張している。
最近の2段階FGOD法では、領域提案は検出と微粒化認識の間に重要なリンクとなる。
しかし、一般的な検出から受け継いだ提案関連手順がFGODに等しく適さないため、生成、表現、利用といったマルチタスク学習が制限されている。
本稿では,2段階FGOD法におけるサブタスクの処理性を改善するためにPETDet(Proposal Enhancement for Two-stage fine-fine object detection)を提案する。
まず,ハイクオリティ指向型提案ネットワーク(QOPN)を提案する。
さらに,提案手法の独立的・判別的特徴を抽出するために,bcfn(bilinear channel fusion network)を提案する。
さらに、R-CNNの責任者が高品質な提案にフォーカスするためのガイダンスを提供する新しい適応認識損失(ARL)を設計する。
PETDetの有効性を検証する実験。
定量分析によると、PETDet with ResNet50はFAIR1M-v1.0 (42.96 AP)、FAIR1M-v2.0 (48.81 AP)、MAR20 (85.91 AP)、ShipRSImageNet (74.90 AP)など、さまざまなFGODデータセット上で最先端のパフォーマンスに達する。
また,提案手法は精度と推論速度の整合性にも優れる。
私たちのコードとモデルはhttps://github.com/canoe-z/petdetでリリースします。
関連論文リスト
- Small Object Detection via Coarse-to-fine Proposal Generation and
Imitation Learning [52.06176253457522]
本稿では,粗粒度パイプラインと特徴模倣学習に基づく小型物体検出に適した2段階フレームワークを提案する。
CFINetは、大規模な小さなオブジェクト検出ベンチマークであるSODA-DとSODA-Aで最先端の性能を達成する。
論文 参考訳(メタデータ) (2023-08-18T13:13:09Z) - Benchmarking Deep Models for Salient Object Detection [67.07247772280212]
汎用SALOD(General SALient Object Detection)ベンチマークを構築し,複数のSOD手法の総合的な比較を行った。
以上の実験では、既存の損失関数は、通常いくつかの指標に特化しているが、他の指標には劣る結果が報告されている。
我々は,深層ネットワークに画素レベルと画像レベルの両方の監視信号を統合することにより,より識別的な特徴を学習するためのエッジ・アウェア・ロス(EA)を提案する。
論文 参考訳(メタデータ) (2022-02-07T03:43:16Z) - Decoupling Object Detection from Human-Object Interaction Recognition [37.133695677465376]
DEFRは、物体の位置や人間のポーズを使わずに、画像レベルでのヒューマン・オブジェクト・インタラクション(HOI)を認識できる。
本研究では,検出不要な手法の性能向上のための2つの知見を提案する。
論文 参考訳(メタデータ) (2021-12-13T03:01:49Z) - Plug-and-Play Few-shot Object Detection with Meta Strategy and Explicit
Localization Inference [78.41932738265345]
本稿では, 微調整を行なわずに新しいカテゴリーの物体を正確に検出できるプラグ検出器を提案する。
局所化プロセスに2つの明示的な推論を導入し、アノテーション付きデータへの依存を減らす。
これは、様々な評価プロトコルの下で、効率、精度、リコールの両方において大きなリードを示している。
論文 参考訳(メタデータ) (2021-10-26T03:09:57Z) - Oriented R-CNN for Object Detection [61.78746189807462]
本研究では、オブジェクト指向R-CNNと呼ばれる、効果的でシンプルなオブジェクト指向オブジェクト検出フレームワークを提案する。
第1段階では,高品質な指向型提案をほぼ無償で直接生成する指向型領域提案ネットワーク(指向RPN)を提案する。
第2段階は、R-CNNヘッダーで、興味のある領域(オブジェクト指向のRoI)を精製し、認識する。
論文 参考訳(メタデータ) (2021-08-12T12:47:43Z) - MRDet: A Multi-Head Network for Accurate Oriented Object Detection in
Aerial Images [51.227489316673484]
水平アンカーから変換された指向性提案を生成するために、任意指向領域提案ネットワーク(AO-RPN)を提案する。
正確なバウンディングボックスを得るために,検出タスクを複数のサブタスクに分離し,マルチヘッドネットワークを提案する。
各ヘッドは、対応するタスクに最適な特徴を学習するために特別に設計されており、ネットワークがオブジェクトを正確に検出することができる。
論文 参考訳(メタデータ) (2020-12-24T06:36:48Z) - AFD-Net: Adaptive Fully-Dual Network for Few-Shot Object Detection [8.39479809973967]
Few-shot Object Detection (FSOD) は、未確認の物体に迅速に適応できる検出器の学習を目的としている。
既存の方法では、共有コンポーネントを用いて分類と局所化のサブタスクを実行することで、この問題を解決している。
本稿では,2つのサブタスクの明示的な分解を考慮し,両者の情報を活用して特徴表現の強化を図ることを提案する。
論文 参考訳(メタデータ) (2020-11-30T10:21:32Z) - Corner Proposal Network for Anchor-free, Two-stage Object Detection [174.59360147041673]
オブジェクト検出の目標は、画像内のオブジェクトのクラスと位置を決定することである。
本稿では,多数のオブジェクト提案を抽出する新しいアンカーフリー2段階フレームワークを提案する。
この2つの段階が,リコールと精度の向上に有効な解であることを示す。
論文 参考訳(メタデータ) (2020-07-27T19:04:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。