論文の概要: CenterNet++ for Object Detection
- arxiv url: http://arxiv.org/abs/2204.08394v1
- Date: Mon, 18 Apr 2022 16:45:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-19 13:58:45.491886
- Title: CenterNet++ for Object Detection
- Title(参考訳): CenterNet++によるオブジェクト検出
- Authors: Kaiwen Duan, Song Bai, Lingxi Xie, Honggang Qi, Qingming Huang and Qi
Tian
- Abstract要約: ボトムアップアプローチはトップダウンと同じくらい競争力があり、リコールも高くなります。
CenterNetと呼ばれる我々のアプローチは、各オブジェクトを三重項キーポイント(左上と右下)として検出する。
MS-COCOデータセットでは、Res2Net-101 と Swin-Transformer の CenterNet がそれぞれ 53.7% と 57.1% のAPを達成している。
- 参考スコア(独自算出の注目度): 174.59360147041673
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: There are two mainstreams for object detection: top-down and bottom-up. The
state-of-the-art approaches mostly belong to the first category. In this paper,
we demonstrate that the bottom-up approaches are as competitive as the top-down
and enjoy higher recall. Our approach, named CenterNet, detects each object as
a triplet keypoints (top-left and bottom-right corners and the center
keypoint). We firstly group the corners by some designed cues and further
confirm the objects by the center keypoints. The corner keypoints equip the
approach with the ability to detect objects of various scales and shapes and
the center keypoint avoids the confusion brought by a large number of
false-positive proposals. Our approach is a kind of anchor-free detector
because it does not need to define explicit anchor boxes. We adapt our approach
to the backbones with different structures, i.e., the 'hourglass' like networks
and the the 'pyramid' like networks, which detect objects on a
single-resolution feature map and multi-resolution feature maps, respectively.
On the MS-COCO dataset, CenterNet with Res2Net-101 and Swin-Transformer
achieves APs of 53.7% and 57.1%, respectively, outperforming all existing
bottom-up detectors and achieving state-of-the-art. We also design a real-time
CenterNet, which achieves a good trade-off between accuracy and speed with an
AP of 43.6% at 30.5 FPS. https://github.com/Duankaiwen/PyCenterNet.
- Abstract(参考訳): オブジェクト検出には、トップダウンとボトムアップの2つの主流がある。
最先端のアプローチは、ほとんどが第一のカテゴリに属する。
本稿では,ボトムアップアプローチがトップダウンと同じくらい競争力があり,リコール率が高いことを示す。
このアプローチはCenterNetと呼ばれ、各オブジェクトを3つのキーポイント(左上と右下)として検出します。
まずコーナーをいくつかの設計キューでグループ化し、さらに中心キーポイントでオブジェクトを確認する。
コーナーキーポイントは様々なスケールや形状の物体を検知する能力を備えており、中心キーポイントは多くの偽陽性の提案によってもたらされる混乱を避ける。
我々のアプローチはアンカーフリー検出器の一種であり、明示的なアンカーボックスを定義する必要はない。
我々は,単一解像度特徴マップとマルチレゾリューション特徴マップのオブジェクトをそれぞれ検出する,ネットワークのような"時間ガラス"と"ピラミド"のようなネットワークのバックボーンにアプローチを適用する。
MS-COCOデータセットでは、CenterNet with Res2Net-101 と Swin-Transformer がそれぞれ 53.7% と 57.1% のAPを獲得し、既存のボトムアップ検出器を上回り、最先端技術を達成する。
また,30.5fpsで43.6%のapで精度と速度のトレードオフを実現するリアルタイムセンタネットを設計した。
https://github.com/Duankaiwen/PyCenterNet.com
関連論文リスト
- OCDet: Object Center Detection via Bounding Box-Aware Heatmap Prediction on Edge Devices with NPUs [7.969347737723115]
OCDetは、NPUを使ったエッジデバイス向けに最適化された軽量なObject Center Detectionフレームワークである。
OCDetは、オブジェクト中心の確率を表すヒートマップを予測し、ピーク識別を通じて中心点を抽出する。
NPUフレンドリーなセマンティックFPNとMobileNetV4のバックボーンで構築されたOCDetモデルは、当社のBa balanced Continuous Focal Loss (BCFL)によってトレーニングされています。
論文 参考訳(メタデータ) (2024-11-23T21:17:35Z) - Point-to-Box Network for Accurate Object Detection via Single Point
Supervision [51.95993495703855]
オフ・ザ・シェルフ提案法(OTSP)の軽量な代替手法を提案する。
P2BNetは、アンカーのような方法で提案を生成することで、オブジェクト間のバランスの取れた提案バッグを構築することができる。
コードはCOCO.com/ucas-vg/P2BNetでリリースされる。
論文 参考訳(メタデータ) (2022-07-14T11:32:00Z) - MidNet: An Anchor-and-Angle-Free Detector for Oriented Ship Detection in
Aerial Images [32.92312549385758]
そこで本研究では,各対象,すなわちMidNetを符号化するセンターと4つの中間点を配置する新しい検出器を提案する。
2つの公開船検出データセットでは、MidNetは90.52%と86.50%のAPを達成し、最先端の検出器を上回っている。
論文 参考訳(メタデータ) (2021-11-22T02:52:30Z) - Corner Proposal Network for Anchor-free, Two-stage Object Detection [174.59360147041673]
オブジェクト検出の目標は、画像内のオブジェクトのクラスと位置を決定することである。
本稿では,多数のオブジェクト提案を抽出する新しいアンカーフリー2段階フレームワークを提案する。
この2つの段階が,リコールと精度の向上に有効な解であることを示す。
論文 参考訳(メタデータ) (2020-07-27T19:04:57Z) - A Self-Training Approach for Point-Supervised Object Detection and
Counting in Crowds [54.73161039445703]
本稿では,ポイントレベルのアノテーションのみを用いて訓練された典型的なオブジェクト検出を可能にする,新たな自己学習手法を提案する。
トレーニング中、利用可能なポイントアノテーションを使用して、オブジェクトの中心点の推定を監督する。
実験の結果,本手法は検出タスクとカウントタスクの両方において,最先端のポイント管理手法よりも有意に優れていた。
論文 参考訳(メタデータ) (2020-07-25T02:14:42Z) - CenterNet3D: An Anchor Free Object Detector for Point Cloud [14.506796247331584]
本研究では,アンカーフリーのCenterNet3Dネットワークを提案し,アンカーなしで3次元物体検出を行う。
中心点に基づいて,アンカー不要な3次元物体検出を行うCenterNet3Dネットワークを提案する。
提案手法は,最先端のアンカーベースの一段法よりも優れ,二段法に匹敵する性能を有する。
論文 参考訳(メタデータ) (2020-07-13T13:53:56Z) - Point-Set Anchors for Object Detection, Instance Segmentation and Pose
Estimation [85.96410825961966]
中心点から抽出された画像の特徴は、離れたキーポイントや境界ボックスの境界を予測するための限られた情報を含んでいると論じる。
推論を容易にするために,より有利な位置に配置された点集合からの回帰を行うことを提案する。
我々は、オブジェクト検出、インスタンス分割、人間のポーズ推定にPoint-Set Anchorsと呼ばれるこのフレームワークを適用した。
論文 参考訳(メタデータ) (2020-07-06T15:59:56Z) - PointGroup: Dual-Set Point Grouping for 3D Instance Segmentation [111.7241018610573]
私たちは、インスタンスセグメンテーションのための新しいエンドツーエンドボトムアップアーキテクチャであるPointGroupを紹介します。
我々は2分岐ネットワークを設計し、ポイントの特徴を抽出し、セマンティックラベルとオフセットを予測し、各ポイントをそれぞれのインスタンスセントロイドに向けてシフトさせる。
クラスタリングコンポーネントは、元のおよびオフセットシフトされた点座標セットの両方を利用するために、その相補的な強度を利用する。
ScanNet v2 と S3DIS の2つの挑戦的データセットに対する広範な実験を行い、ScanNet v2 と S3DIS が最も高い性能を達成し、63.6% と 64.0% の2つを以前のベストが達成した54.9% と54.4% と比較した。
論文 参考訳(メタデータ) (2020-04-03T16:26:37Z) - CentripetalNet: Pursuing High-quality Keypoint Pairs for Object
Detection [20.86058667479973]
本稿では,CentripetalNetを提案する。このCentripetalNetは,Centripetalシフトを用いて,同じインスタンスからコーナーキーポイントをペアリングする。
CentripetalNetは、コーナーポイントの位置と中心シフトを予測し、シフトした結果が一致したコーナーにマッチする。
MS-COCOテストデブでは、CentripetalNetは既存のアンカーフリー検出器を48.0%のAPで上回るだけでなく、40.2%のMaskAPで最先端のインスタンスセグメンテーションアプローチと同等のパフォーマンスを達成する。
論文 参考訳(メタデータ) (2020-03-20T06:23:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。