論文の概要: LiDAR R-CNN: An Efficient and Universal 3D Object Detector
- arxiv url: http://arxiv.org/abs/2103.15297v1
- Date: Mon, 29 Mar 2021 03:01:21 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-31 05:27:02.080378
- Title: LiDAR R-CNN: An Efficient and Universal 3D Object Detector
- Title(参考訳): LiDAR R-CNN: 効率的で汎用的な3Dオブジェクト検出器
- Authors: Zhichao Li, Feng Wang, Naiyan Wang
- Abstract要約: 自動運転の知覚システムには、LiDARベースの3D検出が欠かせません。
lidar r-cnnは,既存の3d検出器を改良できる第2段検出器である。
特に、PointPillarsの1つのバリエーションに基づいて、私たちの方法は小さなコストで新しい最先端の結果を達成できます。
- 参考スコア(独自算出の注目度): 20.17906188581305
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: LiDAR-based 3D detection in point cloud is essential in the perception system
of autonomous driving. In this paper, we present LiDAR R-CNN, a second stage
detector that can generally improve any existing 3D detector. To fulfill the
real-time and high precision requirement in practice, we resort to point-based
approach other than the popular voxel-based approach. However, we find an
overlooked issue in previous work: Naively applying point-based methods like
PointNet could make the learned features ignore the size of proposals. To this
end, we analyze this problem in detail and propose several methods to remedy
it, which bring significant performance improvement. Comprehensive experimental
results on real-world datasets like Waymo Open Dataset (WOD) and KITTI dataset
with various popular detectors demonstrate the universality and superiority of
our LiDAR R-CNN. In particular, based on one variant of PointPillars, our
method could achieve new state-of-the-art results with minor cost. Codes will
be released at https://github.com/tusimple/LiDAR_RCNN .
- Abstract(参考訳): ポイントクラウドにおけるLiDARに基づく3D検出は、自律運転の知覚システムにおいて不可欠である。
本稿では,既存の3D検出器を改良可能な第2ステージ検出器LiDAR R-CNNを提案する。
実のところ、リアルタイムかつ高精度な要求を満たすために、一般的なボクセルベースのアプローチ以外の点ベースアプローチを採用する。
ポイントネットのようなポイントベースのメソッドを積極的に適用することで、学習した機能は提案のサイズを無視することができる。
そこで本研究では,この問題を詳細に分析し,その対策方法をいくつか提案する。
Waymo Open Dataset (WOD) やKITTIデータセットなどの実世界のデータセットに関する総合的な実験結果は、LiDAR R-CNNの普遍性と優位性を示している。
特に,pointpillarsの1つの変種に基づいて,小額なコストで新たな最先端結果を得ることができた。
コードはhttps://github.com/tusimple/LiDAR_RCNNでリリースされる。
関連論文リスト
- Leveraging Anchor-based LiDAR 3D Object Detection via Point Assisted
Sample Selection [40.005411891186874]
本稿では, 点雲分布を利用したアンカー試料品質測定のための新しいトレーニングサンプル選択法を提案する。
実験により, PASSの適用により, アンカーベースLiDAR3Dオブジェクト検出器の平均精度が向上し, 新たな最先端技術が得られた。
論文 参考訳(メタデータ) (2024-03-04T12:20:40Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Graph R-CNN: Towards Accurate 3D Object Detection with
Semantic-Decorated Local Graph [26.226885108862735]
2段検出器は3次元物体検出で大いに人気を博している。
ほとんどの2段式3D検出器は、2段目のRoI特徴抽出にグリッドポイント、ボクセルグリッド、またはサンプルキーポイントを利用する。
本稿ではこの問題を3つの側面で解決する。
論文 参考訳(メタデータ) (2022-08-07T02:56:56Z) - Boosting 3D Object Detection by Simulating Multimodality on Point Clouds [51.87740119160152]
本稿では,LiDAR 画像検出器に追従する特徴や応答をシミュレートすることで,単一モダリティ (LiDAR) 3次元物体検出器を高速化する新しい手法を提案する。
このアプローチでは、単一モダリティ検出器をトレーニングする場合のみ、LiDARイメージデータを必要とし、十分にトレーニングされた場合には、推論時にのみLiDARデータが必要である。
nuScenesデータセットの実験結果から,本手法はSOTA LiDARのみの3D検出器よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-06-30T01:44:30Z) - Cost-Aware Evaluation and Model Scaling for LiDAR-Based 3D Object
Detection [34.34668878632354]
本研究は,LiDARを用いた3次元物体検出器の低コスト評価を行う。
具体的には、単純なグリッドベースのワンステージ検出器であるSECONDに焦点を当てる。
大規模SECONDのファミリーとVoxel R-CNNやPV-RCNN++といった最近の3D検出手法を比較した。
論文 参考訳(メタデータ) (2022-05-02T18:16:17Z) - MonoDistill: Learning Spatial Features for Monocular 3D Object Detection [80.74622486604886]
本稿では,LiDAR信号からの空間情報を単分子3D検出器に導入するための簡易かつ効果的な手法を提案する。
得られたデータを用いて、ベースラインモデルと同じアーキテクチャで3D検出器をトレーニングする。
実験の結果,提案手法はベースラインモデルの性能を大幅に向上させることができることがわかった。
論文 参考訳(メタデータ) (2022-01-26T09:21:41Z) - Lite-FPN for Keypoint-based Monocular 3D Object Detection [18.03406686769539]
keypointベースのモノクロ3dオブジェクト検出は、非常に進歩し、高い速度精度のトレードオフを達成した。
マルチスケール機能融合を実現する軽量機能ピラミッドネットワークLite-FPNを提案します。
提案手法は,高い精度とフレームレートを同時に達成する。
論文 参考訳(メタデータ) (2021-05-01T14:44:31Z) - PV-RCNN++: Point-Voxel Feature Set Abstraction With Local Vector
Representation for 3D Object Detection [100.60209139039472]
点雲からの正確な3次元検出を行うために,PointVoxel Region based Convolution Neural Networks (PVRCNNs)を提案する。
提案するPV-RCNNは,Openデータセットと高競争性KITTIベンチマークの両方において,従来の最先端3D検出方法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2021-01-31T14:51:49Z) - Voxel R-CNN: Towards High Performance Voxel-based 3D Object Detection [99.16162624992424]
Voxel R-CNNというシンプルで効果的なVoxelベースのフレームワークを考案しました。
2段階のアプローチでボクセルの特徴をフル活用することにより,最先端の点ベースモデルと同等の精度で検出できる。
その結果、Voxel R-CNNは、NVIDIA 2080 Ti GPU上での25 FPSの速度で、リアルタイムフレーム処理速度を維持しながら、より高い検出精度を提供する。
論文 参考訳(メタデータ) (2020-12-31T17:02:46Z) - Rethinking Pseudo-LiDAR Representation [70.29791705160203]
我々は、より一般化され、擬似LiDARベースの3D検出器としてインスタンス化できるPatch-Netという画像ベースCNN検出器を提案する。
提案するPatchNetは,既存の擬似LiDARベースデータセットよりも優れています。
論文 参考訳(メタデータ) (2020-08-11T08:44:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。