論文の概要: Fully Convolutional One-Stage 3D Object Detection on LiDAR Range Images
- arxiv url: http://arxiv.org/abs/2205.13764v1
- Date: Fri, 27 May 2022 05:42:16 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-30 14:58:44.954253
- Title: Fully Convolutional One-Stage 3D Object Detection on LiDAR Range Images
- Title(参考訳): LiDARレンジ画像による完全畳み込み1段3次元物体検出
- Authors: Zhi Tian, Xiangxiang Chu, Xiaoming Wang, Xiaolin Wei, Chunhua Shen
- Abstract要約: FCOS-LiDARは、自律走行シーンのLiDAR点雲のための完全な1段式3Dオブジェクト検出器である。
標準的な2Dコンボリューションを持つRVベースの3D検出器は、最先端のBEVベースの検出器と同等の性能を発揮することを示す。
- 参考スコア(独自算出の注目度): 96.66271207089096
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present a simple yet effective fully convolutional one-stage 3D object
detector for LiDAR point clouds of autonomous driving scenes, termed
FCOS-LiDAR. Unlike the dominant methods that use the bird-eye view (BEV), our
proposed detector detects objects from the range view (RV, a.k.a. range image)
of the LiDAR points. Due to the range view's compactness and compatibility with
the LiDAR sensors' sampling process on self-driving cars, the range view-based
object detector can be realized by solely exploiting the vanilla 2D
convolutions, departing from the BEV-based methods which often involve
complicated voxelization operations and sparse convolutions.
For the first time, we show that an RV-based 3D detector with standard 2D
convolutions alone can achieve comparable performance to state-of-the-art
BEV-based detectors while being significantly faster and simpler. More
importantly, almost all previous range view-based detectors only focus on
single-frame point clouds, since it is challenging to fuse multi-frame point
clouds into a single range view. In this work, we tackle this challenging issue
with a novel range view projection mechanism, and for the first time
demonstrate the benefits of fusing multi-frame point clouds for a range-view
based detector. Extensive experiments on nuScenes show the superiority of our
proposed method and we believe that our work can be strong evidence that an
RV-based 3D detector can compare favourably with the current mainstream
BEV-based detectors.
- Abstract(参考訳): 我々は、FCOS-LiDARと呼ばれる自律走行シーンのLiDAR点雲に対して、シンプルで効果的な完全畳み込み型1段3次元物体検出器を提案する。
鳥眼ビュー(BEV)を使用する支配的な方法とは異なり、提案する検出器は、LiDAR点のレンジビュー(RV、すなわちレンジイメージ)から物体を検出する。
レンジビューのコンパクトさと、LiDARセンサーの自動運転車でのサンプリングプロセスとの互換性のため、レンジビューベースのオブジェクト検出器は、バニラ2Dコンボリューションを単に活用することで実現でき、複雑なボキセル化操作やスパースコンボリューションを伴うBEVベースの方法から離れることができる。
RVベースの3D検出器が標準の2D畳み込みだけで、最先端のBEVベースの検出器に匹敵する性能を達成できることを示す。
さらに重要なことに、以前の範囲のビューベースの検出器のほとんどは、単一フレームのポイントのクラウドにのみ焦点を合わせている。
本研究では、この課題を、新しい範囲ビュー投影機構を用いて解決し、レンジビューベース検出器に複数フレームの点雲を融合させることの利点を初めて実証する。
提案手法の優位性を示す大規模な実験を行い, RVベースの3D検出器が現行の主流のBEVベースの検出器と良好に比較できることを示す。
関連論文リスト
- Better Monocular 3D Detectors with LiDAR from the Past [64.6759926054061]
カメラベースの3D検出器は、画像の奥行きのあいまいさのため、LiDARベースの検出器に比べて性能が劣ることが多い。
本研究では,未ラベルの歴史的LiDARデータを活用することにより,単分子3D検出器の改良を図る。
複数の最先端モデルやデータセットに対して,9.66ミリ秒の追加レイテンシとストレージコストの低い,一貫性と大幅なパフォーマンス向上を示す。
論文 参考訳(メタデータ) (2024-04-08T01:38:43Z) - RCBEVDet: Radar-camera Fusion in Bird's Eye View for 3D Object Detection [33.07575082922186]
3次元物体検出は、自律運転における重要なタスクの1つである。
カメラのみに頼って高度に正確で頑丈な3Dオブジェクト検出を実現するのは難しい。
鳥眼ビュー(BEV)におけるレーダーカメラ融合3次元物体検出法
RadarBEVNetはデュアルストリームのレーダーバックボーンとRadar Cross-Section (RC)対応のBEVエンコーダで構成されている。
論文 参考訳(メタデータ) (2024-03-25T06:02:05Z) - Boosting Single-Frame 3D Object Detection by Simulating Multi-Frame
Point Clouds [47.488158093929904]
我々は,マルチフレーム点雲上で訓練された検出器に追従して,特徴と応答をシミュレートするために検出器を訓練する新しい手法を提案する。
このアプローチでは,単一フレーム検出装置のトレーニング時にのみマルチフレームポイントクラウドが必要であり,一度トレーニングすれば,単一フレームポイントクラウドのみをインプットとして検出することができる。
論文 参考訳(メタデータ) (2022-07-03T12:59:50Z) - Boosting 3D Object Detection by Simulating Multimodality on Point Clouds [51.87740119160152]
本稿では,LiDAR 画像検出器に追従する特徴や応答をシミュレートすることで,単一モダリティ (LiDAR) 3次元物体検出器を高速化する新しい手法を提案する。
このアプローチでは、単一モダリティ検出器をトレーニングする場合のみ、LiDARイメージデータを必要とし、十分にトレーニングされた場合には、推論時にのみLiDARデータが必要である。
nuScenesデータセットの実験結果から,本手法はSOTA LiDARのみの3D検出器よりも優れていることがわかった。
論文 参考訳(メタデータ) (2022-06-30T01:44:30Z) - A Simple Baseline for BEV Perception Without LiDAR [37.00868568802673]
LiDARに依存しない自動運転車のための3D認識システムの構築は、重要な研究課題である。
現在の方法では、車両の周囲のカメラから収集された多視点RGBデータを使用する。
本稿では,単純なベースラインモデルを提案する。このモデルでは,投影されたすべての画像位置から,単に「リフト」ステップで特徴を推定する。
論文 参考訳(メタデータ) (2022-06-16T06:57:32Z) - PillarGrid: Deep Learning-based Cooperative Perception for 3D Object
Detection from Onboard-Roadside LiDAR [15.195933965761645]
我々は,複数の3次元LiDARからの情報を融合した新しい協調認識手法であるtextitPillarGridを提案する。
PillarGrid は,1) 点雲の協調前処理,2) 軸方向のボキセル化と特徴抽出,3) 複数のセンサからの特徴のグリッド方向の深層融合,4) 畳み込みニューラルネットワーク(CNN) に基づく3Dオブジェクト検出である。
広汎な実験により、PillarGridはSOTA単一LiDARに基づく3Dオブジェクト検出法よりも精度と範囲を大きなマージンで上回ることがわかった。
論文 参考訳(メタデータ) (2022-03-12T02:28:41Z) - SGM3D: Stereo Guided Monocular 3D Object Detection [62.11858392862551]
SGM3Dと呼ばれるステレオ誘導単分子物体検出ネットワークを提案する。
ステレオ画像から抽出したロバストな3次元特徴を利用して、モノクル画像から得られた特徴を強化する。
本手法は,余分な計算コストを伴わずに性能を向上させるために,他の多くの単分子的手法に統合することができる。
論文 参考訳(メタデータ) (2021-12-03T13:57:14Z) - RAANet: Range-Aware Attention Network for LiDAR-based 3D Object
Detection with Auxiliary Density Level Estimation [11.180128679075716]
自律運転のためのLiDARデータから3Dオブジェクトを検出するために,Range-Aware Attention Network (RAANet) が開発された。
RAANetはより強力なBEV機能を抽出し、優れた3Dオブジェクト検出を生成する。
nuScenesデータセットの実験により,提案手法がLiDARを用いた3Dオブジェクト検出の最先端手法より優れていることが示された。
論文 参考訳(メタデータ) (2021-11-18T04:20:13Z) - Anchor-free 3D Single Stage Detector with Mask-Guided Attention for
Point Cloud [79.39041453836793]
我々は、点雲をアンカーフリーで検出する新しい1段3次元検出器を開発した。
ボクセルをベースとしたスパース3D特徴量からスパース2D特徴量マップに変換することでこれを克服する。
検出信頼度スコアとバウンディングボックス回帰の精度との相関性を改善するために,IoUに基づく検出信頼度再校正手法を提案する。
論文 参考訳(メタデータ) (2021-08-08T13:42:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。