論文の概要: CentripetalNet: Pursuing High-quality Keypoint Pairs for Object
Detection
- arxiv url: http://arxiv.org/abs/2003.09119v1
- Date: Fri, 20 Mar 2020 06:23:32 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-21 22:44:56.008995
- Title: CentripetalNet: Pursuing High-quality Keypoint Pairs for Object
Detection
- Title(参考訳): CentripetalNet:オブジェクト検出のための高品質なキーポイントペア
- Authors: Zhiwei Dong, Guoxuan Li, Yue Liao, Fei Wang, Pengju Ren, Chen Qian
- Abstract要約: 本稿では,CentripetalNetを提案する。このCentripetalNetは,Centripetalシフトを用いて,同じインスタンスからコーナーキーポイントをペアリングする。
CentripetalNetは、コーナーポイントの位置と中心シフトを予測し、シフトした結果が一致したコーナーにマッチする。
MS-COCOテストデブでは、CentripetalNetは既存のアンカーフリー検出器を48.0%のAPで上回るだけでなく、40.2%のMaskAPで最先端のインスタンスセグメンテーションアプローチと同等のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 20.86058667479973
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Keypoint-based detectors have achieved pretty-well performance. However,
incorrect keypoint matching is still widespread and greatly affects the
performance of the detector. In this paper, we propose CentripetalNet which
uses centripetal shift to pair corner keypoints from the same instance.
CentripetalNet predicts the position and the centripetal shift of the corner
points and matches corners whose shifted results are aligned. Combining
position information, our approach matches corner points more accurately than
the conventional embedding approaches do. Corner pooling extracts information
inside the bounding boxes onto the border. To make this information more aware
at the corners, we design a cross-star deformable convolution network to
conduct feature adaption. Furthermore, we explore instance segmentation on
anchor-free detectors by equipping our CentripetalNet with a mask prediction
module. On MS-COCO test-dev, our CentripetalNet not only outperforms all
existing anchor-free detectors with an AP of 48.0% but also achieves comparable
performance to the state-of-the-art instance segmentation approaches with a
40.2% MaskAP. Code will be available at
https://github.com/KiveeDong/CentripetalNet.
- Abstract(参考訳): キーポイントベースの検出器は、かなり高い性能を達成した。
しかし、不正確なキーポイントマッチングはいまだに広く、検出器の性能に大きな影響を与えている。
本稿では,同じインスタンスからペアコーナーキーポイントに遠心シフトを使用するcentripetalnetを提案する。
centripetalnetはコーナーポイントの位置と遠心シフトを予測し、シフト結果が一致したコーナーと一致する。
位置情報を組み合わせることで,従来の埋め込み手法よりも角点の精度が向上する。
コーナープーリングは境界ボックス内の情報を境界に抽出する。
この情報を隅でより認識するために、我々は機能適応を行うためにクロススター変形可能な畳み込みネットワークを設計する。
さらに,CentripetalNetにマスク予測モジュールを装着することにより,アンカーフリー検出器のインスタンスセグメンテーションを検討する。
MS-COCOテストデブでは、CentripetalNetは既存のアンカーフリー検出器を48.0%のAPで上回るだけでなく、40.2%のMaskAPで最先端のインスタンスセグメンテーションアプローチと同等のパフォーマンスを達成する。
コードはhttps://github.com/KiveeDong/CentripetalNetで入手できる。
関連論文リスト
- OCDet: Object Center Detection via Bounding Box-Aware Heatmap Prediction on Edge Devices with NPUs [7.969347737723115]
OCDetは、NPUを使ったエッジデバイス向けに最適化された軽量なObject Center Detectionフレームワークである。
OCDetは、オブジェクト中心の確率を表すヒートマップを予測し、ピーク識別を通じて中心点を抽出する。
NPUフレンドリーなセマンティックFPNとMobileNetV4のバックボーンで構築されたOCDetモデルは、当社のBa balanced Continuous Focal Loss (BCFL)によってトレーニングされています。
論文 参考訳(メタデータ) (2024-11-23T21:17:35Z) - PCP-MAE: Learning to Predict Centers for Point Masked Autoencoders [57.31790812209751]
マスクされたパッチの中央をエンコーダからの情報を使わずにデコーダに直接送る場合、依然としてよく再構築されていることを示す。
ポイントマスキングオートエンコーダ(PCP-MAE)の予測センターへの学習という,シンプルで効果的な手法を提案する。
本手法は他の方法と比較して事前学習効率が高く,Point-MAEよりも大幅に向上する。
論文 参考訳(メタデータ) (2024-08-16T13:53:53Z) - SPGroup3D: Superpoint Grouping Network for Indoor 3D Object Detection [23.208654655032955]
屋内シーンにおける現在の3Dオブジェクト検出手法は,主に投票・グループ化戦略に従って提案を行う。
屋内アンカーフリーワンステージ3次元物体検出のための新しいスーパーポイントグループネットワークを提案する。
実験により,ScanNet V2, SUN RGB-D, S3DISデータセット上での最先端性能を実証した。
論文 参考訳(メタデータ) (2023-12-21T08:08:02Z) - Center Focusing Network for Real-Time LiDAR Panoptic Segmentation [58.1194137706868]
高精度かつリアルタイムなLiDARパノプティブセグメンテーションを実現するために、CFNet(Central Focus Network)を導入した。
CFFEは、元のLiDARポイントと仮想インスタンスセンターの関係を明確に理解するために提案されている。
我々のCFNetは、すべての既存のメソッドを大きなマージンで上回り、最も効率的なメソッドよりも1.6倍高速です。
論文 参考訳(メタデータ) (2023-11-16T01:52:11Z) - Point-to-Box Network for Accurate Object Detection via Single Point
Supervision [51.95993495703855]
オフ・ザ・シェルフ提案法(OTSP)の軽量な代替手法を提案する。
P2BNetは、アンカーのような方法で提案を生成することで、オブジェクト間のバランスの取れた提案バッグを構築することができる。
コードはCOCO.com/ucas-vg/P2BNetでリリースされる。
論文 参考訳(メタデータ) (2022-07-14T11:32:00Z) - CenterNet++ for Object Detection [174.59360147041673]
ボトムアップアプローチはトップダウンと同じくらい競争力があり、リコールも高くなります。
CenterNetと呼ばれる我々のアプローチは、各オブジェクトを三重項キーポイント(左上と右下)として検出する。
MS-COCOデータセットでは、Res2Net-101 と Swin-Transformer の CenterNet がそれぞれ 53.7% と 57.1% のAPを達成している。
論文 参考訳(メタデータ) (2022-04-18T16:45:53Z) - MidNet: An Anchor-and-Angle-Free Detector for Oriented Ship Detection in
Aerial Images [32.92312549385758]
そこで本研究では,各対象,すなわちMidNetを符号化するセンターと4つの中間点を配置する新しい検出器を提案する。
2つの公開船検出データセットでは、MidNetは90.52%と86.50%のAPを達成し、最先端の検出器を上回っている。
論文 参考訳(メタデータ) (2021-11-22T02:52:30Z) - Corner Proposal Network for Anchor-free, Two-stage Object Detection [174.59360147041673]
オブジェクト検出の目標は、画像内のオブジェクトのクラスと位置を決定することである。
本稿では,多数のオブジェクト提案を抽出する新しいアンカーフリー2段階フレームワークを提案する。
この2つの段階が,リコールと精度の向上に有効な解であることを示す。
論文 参考訳(メタデータ) (2020-07-27T19:04:57Z) - CenterNet3D: An Anchor Free Object Detector for Point Cloud [14.506796247331584]
本研究では,アンカーフリーのCenterNet3Dネットワークを提案し,アンカーなしで3次元物体検出を行う。
中心点に基づいて,アンカー不要な3次元物体検出を行うCenterNet3Dネットワークを提案する。
提案手法は,最先端のアンカーベースの一段法よりも優れ,二段法に匹敵する性能を有する。
論文 参考訳(メタデータ) (2020-07-13T13:53:56Z) - Key Points Estimation and Point Instance Segmentation Approach for Lane
Detection [65.37887088194022]
本稿では,PINet (Point Instance Network) と呼ばれるトラヒックライン検出手法を提案する。
PINetには、同時にトレーニングされる複数のスタックされた時間ガラスネットワークが含まれている。
PINetはTuSimpleとCulaneのデータセットで競合精度と偽陽性を達成する。
論文 参考訳(メタデータ) (2020-02-16T15:51:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。