論文の概要: CenterNet3D: An Anchor Free Object Detector for Point Cloud
- arxiv url: http://arxiv.org/abs/2007.07214v4
- Date: Mon, 25 Oct 2021 14:49:24 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-11 00:25:38.004233
- Title: CenterNet3D: An Anchor Free Object Detector for Point Cloud
- Title(参考訳): CenterNet3D: Point Cloud用のアンカーフリーオブジェクト検出器
- Authors: Guojun Wang, Jian Wu, Bin Tian, Siyu Teng, Long Chen, Dongpu Cao
- Abstract要約: 本研究では,アンカーフリーのCenterNet3Dネットワークを提案し,アンカーなしで3次元物体検出を行う。
中心点に基づいて,アンカー不要な3次元物体検出を行うCenterNet3Dネットワークを提案する。
提案手法は,最先端のアンカーベースの一段法よりも優れ,二段法に匹敵する性能を有する。
- 参考スコア(独自算出の注目度): 14.506796247331584
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate and fast 3D object detection from point clouds is a key task in
autonomous driving. Existing one-stage 3D object detection methods can achieve
real-time performance, however, they are dominated by anchor-based detectors
which are inefficient and require additional post-processing. In this paper, we
eliminate anchors and model an object as a single point--the center point of
its bounding box. Based on the center point, we propose an anchor-free
CenterNet3D network that performs 3D object detection without anchors. Our
CenterNet3D uses keypoint estimation to find center points and directly
regresses 3D bounding boxes. However, because inherent sparsity of point
clouds, 3D object center points are likely to be in empty space which makes it
difficult to estimate accurate boundaries. To solve this issue, we propose an
extra corner attention module to enforce the CNN backbone to pay more attention
to object boundaries. Besides, considering that one-stage detectors suffer from
the discordance between the predicted bounding boxes and corresponding
classification confidences, we develop an efficient keypoint-sensitive warping
operation to align the confidences to the predicted bounding boxes. Our
proposed CenterNet3D is non-maximum suppression free which makes it more
efficient and simpler. We evaluate CenterNet3D on the widely used KITTI dataset
and more challenging nuScenes dataset. Our method outperforms all
state-of-the-art anchor-based one-stage methods and has comparable performance
to two-stage methods as well. It has an inference speed of 20 FPS and achieves
the best speed and accuracy trade-off. Our source code will be released at
https://github.com/wangguojun2018/CenterNet3d.
- Abstract(参考訳): ポイントクラウドからの高精度で高速な3Dオブジェクト検出は、自動運転における重要なタスクである。
既存の1段3Dオブジェクト検出手法はリアルタイムな性能を実現することができるが、非効率で追加の後処理を必要とするアンカーベース検出器に支配されている。
本稿では,アンカーを取り除き,オブジェクトを一つの点としてモデル化する。
中心点に基づいて,アンカー不要な3次元物体検出を行うCenterNet3Dネットワークを提案する。
われわれのCenterNet3Dは、キーポイント推定を用いてセンターポイントを見つけ、直接3Dバウンディングボックスを回帰する。
しかし、点雲の本質的にスパーシティのため、3dオブジェクトセンターポイントは空空間にある可能性が高いため、正確な境界を推定することが難しい。
この問題を解決するために、cnnバックボーンをオブジェクト境界にもっと注意を払うために、追加のコーナーアテンションモジュールを提案する。
また, 1段検出器は予測境界箱と対応する分類信頼度の不一致に悩まされていることを考慮し, 予測境界箱との信頼度を一致させる効率的なキーポイント・センシティブ・ワープ操作を開発する。
提案するCenterNet3Dは,非最大抑制フリーであり,より効率的かつ簡便である。
我々は、広く使われているKITTIデータセットとより困難なnuScenesデータセットに基づいてCenterNet3Dを評価する。
提案手法は,最先端のアンカーベースの一段法よりも優れ,二段法に匹敵する性能を有する。
推論速度は20 fpsで、最高の速度と精度のトレードオフを達成している。
ソースコードはhttps://github.com/wangguojun2018/centernet3dでリリースします。
関連論文リスト
- HEDNet: A Hierarchical Encoder-Decoder Network for 3D Object Detection
in Point Clouds [19.1921315424192]
ポイントクラウドにおける3Dオブジェクト検出は、自律運転システムにとって重要である。
3Dオブジェクト検出における主な課題は、3Dシーン内の点のスパース分布に起因する。
本稿では3次元オブジェクト検出のための階層型エンコーダデコーダネットワークであるHEDNetを提案する。
論文 参考訳(メタデータ) (2023-10-31T07:32:08Z) - V-DETR: DETR with Vertex Relative Position Encoding for 3D Object
Detection [73.37781484123536]
DETRフレームワークを用いた点雲のための高性能な3次元物体検出器を提案する。
限界に対処するため,新しい3次元相対位置(3DV-RPE)法を提案する。
挑戦的なScanNetV2ベンチマークで例外的な結果を示す。
論文 参考訳(メタデータ) (2023-08-08T17:14:14Z) - 3D Small Object Detection with Dynamic Spatial Pruning [62.72638845817799]
本稿では,3次元小物体検出のための効率的な特徴解析手法を提案する。
空間分解能の高いDSPDet3Dというマルチレベル3次元検出器を提案する。
ほぼ全ての物体を検知しながら、4500k以上のポイントからなる建物全体を直接処理するには2秒もかからない。
論文 参考訳(メタデータ) (2023-05-05T17:57:04Z) - CenterNet++ for Object Detection [174.59360147041673]
ボトムアップアプローチはトップダウンと同じくらい競争力があり、リコールも高くなります。
CenterNetと呼ばれる我々のアプローチは、各オブジェクトを三重項キーポイント(左上と右下)として検出する。
MS-COCOデータセットでは、Res2Net-101 と Swin-Transformer の CenterNet がそれぞれ 53.7% と 57.1% のAPを達成している。
論文 参考訳(メタデータ) (2022-04-18T16:45:53Z) - RBGNet: Ray-based Grouping for 3D Object Detection [104.98776095895641]
本稿では,点雲からの正確な3次元物体検出のための投票型3次元検出器RBGNetフレームワークを提案する。
決定された光線群を用いて物体表面上の点方向の特徴を集約する。
ScanNet V2 と SUN RGB-D による最先端の3D 検出性能を実現する。
論文 参考訳(メタデータ) (2022-04-05T14:42:57Z) - Anchor-free 3D Single Stage Detector with Mask-Guided Attention for
Point Cloud [79.39041453836793]
我々は、点雲をアンカーフリーで検出する新しい1段3次元検出器を開発した。
ボクセルをベースとしたスパース3D特徴量からスパース2D特徴量マップに変換することでこれを克服する。
検出信頼度スコアとバウンディングボックス回帰の精度との相関性を改善するために,IoUに基づく検出信頼度再校正手法を提案する。
論文 参考訳(メタデータ) (2021-08-08T13:42:13Z) - Center-based 3D Object Detection and Tracking [8.72305226979945]
3次元オブジェクトは通常、ポイントクラウド内の3Dボックスとして表現される。
この表現は、よく研究されたイメージベースの2Dバウンディングボックス検出を模倣するが、さらなる課題が伴う。
本稿では,3Dオブジェクトをポイントとして表現し,検出し,追跡する手法を提案する。
われわれのフレームワークであるCenterPointは、まずキーポイント検出器を用いて物体の中心を検知し、3次元サイズ、3次元方向、速度など他の属性に回帰する。
その結果、検出と追跡のアルゴリズムは単純で効率的で効果的である。
論文 参考訳(メタデータ) (2020-06-19T17:59:39Z) - 3D Object Detection Method Based on YOLO and K-Means for Image and Point
Clouds [1.9458156037869139]
ライダーに基づく3Dオブジェクト検出と分類タスクは、自動運転に不可欠である。
本稿では,点雲と画像に基づく3次元物体検出手法を提案する。
論文 参考訳(メタデータ) (2020-04-21T04:32:36Z) - PV-RCNN: Point-Voxel Feature Set Abstraction for 3D Object Detection [76.30585706811993]
我々はPointVoxel-RCNN(PV-RCNN)という新しい高性能な3Dオブジェクト検出フレームワークを提案する。
提案手法は3次元ボクセル畳み込みニューラルネットワーク(CNN)とPointNetベースの集合抽象化の両方を深く統合する。
3DボクセルCNNの効率的な学習と高品質な提案と、PointNetベースのネットワークのフレキシブル・レセプティブ・フィールドを利用する。
論文 参考訳(メタデータ) (2019-12-31T06:34:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。