論文の概要: BirdNet+: End-to-End 3D Object Detection in LiDAR Bird's Eye View
- arxiv url: http://arxiv.org/abs/2003.04188v1
- Date: Mon, 9 Mar 2020 15:08:40 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-25 09:10:52.793524
- Title: BirdNet+: End-to-End 3D Object Detection in LiDAR Bird's Eye View
- Title(参考訳): BirdNet+:LiDAR Bird's Eye Viewにおける3Dオブジェクトの終端検出
- Authors: Alejandro Barrera, Carlos Guindel, Jorge Beltr\'an and Fernando
Garc\'ia
- Abstract要約: 自動運転車のオンボード3Dオブジェクト検出は、LiDARデバイスが捉えた幾何学情報に依存することが多い。
本稿では,BEV画像のみから指向性3Dボックスを推測可能な,エンドツーエンドの3Dオブジェクト検出フレームワークを提案する。
- 参考スコア(独自算出の注目度): 117.44028458220427
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: On-board 3D object detection in autonomous vehicles often relies on geometry
information captured by LiDAR devices. Albeit image features are typically
preferred for detection, numerous approaches take only spatial data as input.
Exploiting this information in inference usually involves the use of compact
representations such as the Bird's Eye View (BEV) projection, which entails a
loss of information and thus hinders the joint inference of all the parameters
of the objects' 3D boxes. In this paper, we present a fully end-to-end 3D
object detection framework that can infer oriented 3D boxes solely from BEV
images by using a two-stage object detector and ad-hoc regression branches,
eliminating the need for a post-processing stage. The method outperforms its
predecessor (BirdNet) by a large margin and obtains state-of-the-art results on
the KITTI 3D Object Detection Benchmark for all the categories in evaluation.
- Abstract(参考訳): 自動運転車のオンボード3Dオブジェクト検出は、LiDARデバイスが捉えた幾何学情報に依存することが多い。
画像の特徴は一般的に検出に好まれるが、多くのアプローチは入力として空間データのみを取る。
この情報を推論で展開するには、通常、情報の損失を伴い、オブジェクトの3Dボックスの全てのパラメータのジョイント推論を妨げるバードアイビュー(BEV)プロジェクションのようなコンパクトな表現を使用する必要がある。
本稿では,2段階の物体検出器とアドホック回帰分枝を用いて,bev画像からのみ指向性3dボックスを推定し,後処理の必要をなくすための,完全エンドツーエンドの3dオブジェクト検出フレームワークを提案する。
この手法は, 評価におけるすべてのカテゴリに対して, KITTI 3D Object Detection Benchmark の最先端結果を得るとともに, 先行技術(BirdNet)よりも優れる。
関連論文リスト
- 3DiffTection: 3D Object Detection with Geometry-Aware Diffusion Features [70.50665869806188]
3DiffTectionは、単一の画像から3Dオブジェクトを検出する最先端の方法である。
拡散モデルを微調整し、単一の画像に条件付けされた新しいビュー合成を行う。
さらに、検出監視により、ターゲットデータ上でモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-11-07T23:46:41Z) - OA-BEV: Bringing Object Awareness to Bird's-Eye-View Representation for
Multi-Camera 3D Object Detection [78.38062015443195]
OA-BEVは、BEVベースの3Dオブジェクト検出フレームワークにプラグインできるネットワークである。
提案手法は,BEV ベースラインに対する平均精度と nuScenes 検出スコアの両面で一貫した改善を実現する。
論文 参考訳(メタデータ) (2023-01-13T06:02:31Z) - RBGNet: Ray-based Grouping for 3D Object Detection [104.98776095895641]
本稿では,点雲からの正確な3次元物体検出のための投票型3次元検出器RBGNetフレームワークを提案する。
決定された光線群を用いて物体表面上の点方向の特徴を集約する。
ScanNet V2 と SUN RGB-D による最先端の3D 検出性能を実現する。
論文 参考訳(メタデータ) (2022-04-05T14:42:57Z) - A Versatile Multi-View Framework for LiDAR-based 3D Object Detection
with Guidance from Panoptic Segmentation [9.513467995188634]
LiDARデータを用いた3Dオブジェクト検出は、自律運転システムにとって必須のコンポーネントである。
本稿では,3次元物体検出とパノプティックセグメンテーションを共同で行う新しいマルチタスクフレームワークを提案する。
論文 参考訳(メタデータ) (2022-03-04T04:57:05Z) - DETR3D: 3D Object Detection from Multi-view Images via 3D-to-2D Queries [43.02373021724797]
マルチカメラ3Dオブジェクト検出のためのフレームワークを提案する。
本手法は3次元空間での予測を直接操作する。
我々はnuScenes自動運転ベンチマークで最先端の性能を達成する。
論文 参考訳(メタデータ) (2021-10-13T17:59:35Z) - FGR: Frustum-Aware Geometric Reasoning for Weakly Supervised 3D Vehicle
Detection [81.79171905308827]
3Dアノテーションを使わずに点雲中の車両を検出するためのフラストラム対応幾何推論(FGR)を提案する。
本手法は粗い3次元セグメンテーションと3次元バウンディングボックス推定の2段階からなる。
2Dバウンディングボックスとスパースポイントクラウドだけで、3D空間内のオブジェクトを正確に検出できます。
論文 参考訳(メタデータ) (2021-05-17T07:29:55Z) - Single-Shot 3D Detection of Vehicles from Monocular RGB Images via
Geometry Constrained Keypoints in Real-Time [6.82446891805815]
単眼RGB画像における車両検出のための新しい3次元単発物体検出法を提案する。
提案手法は,3次元空間への2次元検出を付加回帰および分類パラメータの予測により引き上げる。
KITTI 3D Object Detection と新しい nuScenes Object Detection ベンチマークを用いて,自律走行のための異なるデータセットに対するアプローチを検証し,その評価を行った。
論文 参考訳(メタデータ) (2020-06-23T15:10:19Z) - DOPS: Learning to Detect 3D Objects and Predict their 3D Shapes [54.239416488865565]
LIDARデータに対する高速な1段3次元物体検出法を提案する。
我々の手法の中核となる新規性は高速かつシングルパスアーキテクチャであり、どちらも3次元の物体を検出し、それらの形状を推定する。
提案手法は,ScanNetシーンのオブジェクト検出で5%,オープンデータセットでは3.4%の精度で結果が得られた。
論文 参考訳(メタデータ) (2020-04-02T17:48:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。