論文の概要: Corner Proposal Network for Anchor-free, Two-stage Object Detection
- arxiv url: http://arxiv.org/abs/2007.13816v1
- Date: Mon, 27 Jul 2020 19:04:57 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-06 08:57:01.100581
- Title: Corner Proposal Network for Anchor-free, Two-stage Object Detection
- Title(参考訳): アンカーフリー二段物体検出のためのコーナー提案ネットワーク
- Authors: Kaiwen Duan, Lingxi Xie, Honggang Qi, Song Bai, Qingming Huang, Qi
Tian
- Abstract要約: オブジェクト検出の目標は、画像内のオブジェクトのクラスと位置を決定することである。
本稿では,多数のオブジェクト提案を抽出する新しいアンカーフリー2段階フレームワークを提案する。
この2つの段階が,リコールと精度の向上に有効な解であることを示す。
- 参考スコア(独自算出の注目度): 174.59360147041673
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The goal of object detection is to determine the class and location of
objects in an image. This paper proposes a novel anchor-free, two-stage
framework which first extracts a number of object proposals by finding
potential corner keypoint combinations and then assigns a class label to each
proposal by a standalone classification stage. We demonstrate that these two
stages are effective solutions for improving recall and precision,
respectively, and they can be integrated into an end-to-end network. Our
approach, dubbed Corner Proposal Network (CPN), enjoys the ability to detect
objects of various scales and also avoids being confused by a large number of
false-positive proposals. On the MS-COCO dataset, CPN achieves an AP of 49.2%
which is competitive among state-of-the-art object detection methods. CPN also
fits the scenario of computational efficiency, which achieves an AP of
41.6%/39.7% at 26.2/43.3 FPS, surpassing most competitors with the same
inference speed. Code is available at https://github.com/Duankaiwen/CPNDet
- Abstract(参考訳): オブジェクト検出の目標は、画像内のオブジェクトのクラスと位置を決定することである。
本稿では,新しいアンカーフリーな2段階フレームワークを提案する。まず,潜在的なコーナーキーポイントの組み合わせを見つけることで,多数のオブジェクト提案を抽出し,その後,各提案にクラスラベルを割り当てる。
これら2つのステージはそれぞれリコールと精度を改善する効果的なソリューションであり、エンドツーエンドネットワークに統合可能であることを実証する。
corner proposal network(cpn)と呼ばれるこのアプローチは,様々なスケールのオブジェクトを検出できると同時に,多数の偽陽性提案による混乱を回避する。
MS-COCOデータセットでは、CPNは49.2%のAPを達成しており、最先端のオブジェクト検出方法と競合する。
CPNは計算効率のシナリオにも適合し、APは26.2/43.3 FPSで41.6%/39.7%となり、同じ推論速度を持つほとんどの競合より優れている。
コードはhttps://github.com/Duankaiwen/CPNDetで入手できる。
関連論文リスト
- PETDet: Proposal Enhancement for Two-Stage Fine-Grained Object Detection [26.843891792018447]
PETDet (Proposal Enhancement for Two-stage fine-fine object detection) は, 2段階FGOD法において, サブタスクをよりよく扱うために提案される。
動的ラベル割り当てと注意に基づく分解により, アンカーフリー品質指向提案ネットワーク(QOPN)を提案する。
A novel Adaptive Recognition Loss (ARL)は、R-CNNの責任者が高品質な提案に焦点を合わせるためのガイダンスを提供する。
論文 参考訳(メタデータ) (2023-12-16T18:04:56Z) - Point-to-Box Network for Accurate Object Detection via Single Point
Supervision [51.95993495703855]
オフ・ザ・シェルフ提案法(OTSP)の軽量な代替手法を提案する。
P2BNetは、アンカーのような方法で提案を生成することで、オブジェクト間のバランスの取れた提案バッグを構築することができる。
コードはCOCO.com/ucas-vg/P2BNetでリリースされる。
論文 参考訳(メタデータ) (2022-07-14T11:32:00Z) - CenterNet++ for Object Detection [174.59360147041673]
ボトムアップアプローチはトップダウンと同じくらい競争力があり、リコールも高くなります。
CenterNetと呼ばれる我々のアプローチは、各オブジェクトを三重項キーポイント(左上と右下)として検出する。
MS-COCOデータセットでは、Res2Net-101 と Swin-Transformer の CenterNet がそれぞれ 53.7% と 57.1% のAPを達成している。
論文 参考訳(メタデータ) (2022-04-18T16:45:53Z) - EPP-Net: Extreme-Point-Prediction-Based Object Detection [9.270523894683278]
本研究では,各画素と4つの極点間の相対変位ベクトルを回帰するアンカーフリーの高密度物体検出器を提案する。
また、極点の2つの群、すなわち、連合上の極端断面積(EIoU)の類似度を測定するための新しい測度も提案する。
MS-COCOデータセットでは,ResNet-50では平均精度が39.3%,ResNeXt-101-DCNでは48.3%である。
論文 参考訳(メタデータ) (2021-04-29T01:01:50Z) - PDNet: Towards Better One-stage Object Detection with Prediction
Decoupling [37.83405509385431]
PDNetと呼ばれる予測ターゲット分離検出器を提案し,より柔軟な検出パラダイムを確立する。
バックボーンは1つのResNeXt-64x4d-101で、検出器はシングルスケールテストで48.7 APを達成した。
論文 参考訳(メタデータ) (2021-04-28T16:48:04Z) - MRDet: A Multi-Head Network for Accurate Oriented Object Detection in
Aerial Images [51.227489316673484]
水平アンカーから変換された指向性提案を生成するために、任意指向領域提案ネットワーク(AO-RPN)を提案する。
正確なバウンディングボックスを得るために,検出タスクを複数のサブタスクに分離し,マルチヘッドネットワークを提案する。
各ヘッドは、対応するタスクに最適な特徴を学習するために特別に設計されており、ネットワークがオブジェクトを正確に検出することができる。
論文 参考訳(メタデータ) (2020-12-24T06:36:48Z) - FCOS: A simple and strong anchor-free object detector [111.87691210818194]
物体検出を画素ごとの予測方式で解くために, 完全畳み込み型一段物検出器 (FCOS) を提案する。
RetinaNet、SSD、YOLOv3、Faster R-CNNといった最先端のオブジェクト検出器のほとんどは、事前に定義されたアンカーボックスに依存している。
対照的に、提案した検出器FCOSはアンカーボックスフリーであり、提案はフリーである。
論文 参考訳(メタデータ) (2020-06-14T01:03:39Z) - Scope Head for Accurate Localization in Object Detection [135.9979405835606]
本研究では,各位置のアンカーを相互依存関係としてモデル化したScopeNetと呼ばれる新しい検出器を提案する。
我々の簡潔で効果的な設計により、提案したScopeNetはCOCOの最先端の成果を達成する。
論文 参考訳(メタデータ) (2020-05-11T04:00:09Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。