論文の概要: Single-Shot 3D Detection of Vehicles from Monocular RGB Images via
Geometry Constrained Keypoints in Real-Time
- arxiv url: http://arxiv.org/abs/2006.13084v1
- Date: Tue, 23 Jun 2020 15:10:19 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-17 22:53:47.758867
- Title: Single-Shot 3D Detection of Vehicles from Monocular RGB Images via
Geometry Constrained Keypoints in Real-Time
- Title(参考訳): 幾何学制約キーポイントによる単眼RGB画像からの車両のリアルタイム検出
- Authors: Nils G\"ahlert and Jun-Jun Wan and Nicolas Jourdan and Jan Finkbeiner
and Uwe Franke and Joachim Denzler
- Abstract要約: 単眼RGB画像における車両検出のための新しい3次元単発物体検出法を提案する。
提案手法は,3次元空間への2次元検出を付加回帰および分類パラメータの予測により引き上げる。
KITTI 3D Object Detection と新しい nuScenes Object Detection ベンチマークを用いて,自律走行のための異なるデータセットに対するアプローチを検証し,その評価を行った。
- 参考スコア(独自算出の注目度): 6.82446891805815
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper we propose a novel 3D single-shot object detection method for
detecting vehicles in monocular RGB images. Our approach lifts 2D detections to
3D space by predicting additional regression and classification parameters and
hence keeping the runtime close to pure 2D object detection. The additional
parameters are transformed to 3D bounding box keypoints within the network
under geometric constraints. Our proposed method features a full 3D description
including all three angles of rotation without supervision by any labeled
ground truth data for the object's orientation, as it focuses on certain
keypoints within the image plane. While our approach can be combined with any
modern object detection framework with only little computational overhead, we
exemplify the extension of SSD for the prediction of 3D bounding boxes. We test
our approach on different datasets for autonomous driving and evaluate it using
the challenging KITTI 3D Object Detection as well as the novel nuScenes Object
Detection benchmarks. While we achieve competitive results on both benchmarks
we outperform current state-of-the-art methods in terms of speed with more than
20 FPS for all tested datasets and image resolutions.
- Abstract(参考訳): 本稿では,単眼RGB画像における車両検出のための3次元単発物体検出手法を提案する。
提案手法は,回帰パラメータと分類パラメータの追加を予測し,ランタイムを純粋な2次元オブジェクト検出に近づけることで,2次元検出を3次元空間に持ち上げる。
追加パラメータは、幾何学的制約の下でネットワーク内の3次元境界ボックスキーポイントに変換される。
提案手法は,画像平面内の特定のキーポイントに着目し,物体の向きに関するラベル付き基底真理データによる監督なしに3次元の回転角を全て含む完全な3次元記述を特徴とする。
提案手法は, 計算オーバーヘッドの少ない最新のオブジェクト検出フレームワークと組み合わせることができるが, 3次元境界ボックスの予測のためにSSDの拡張を実証する。
我々は、自律運転のための異なるデータセットを用いてアプローチを検証し、挑戦的なKITTI 3Dオブジェクト検出と新しいnuScenesオブジェクト検出ベンチマークを用いて評価する。
両方のベンチマークで競争力のある結果を得る一方で、テストされたデータセットと画像解像度で20fps以上の速度で現在の最先端のメソッドを上回っています。
関連論文リスト
- Sparse Points to Dense Clouds: Enhancing 3D Detection with Limited LiDAR Data [68.18735997052265]
単分子と点雲に基づく3次元検出の利点を組み合わせたバランスの取れたアプローチを提案する。
本手法では,低コストで低解像度のセンサから得られる3Dポイントを少数必要としている。
3次元検出の精度は最先端の単分子検出法と比較して20%向上する。
論文 参考訳(メタデータ) (2024-04-10T03:54:53Z) - 3DiffTection: 3D Object Detection with Geometry-Aware Diffusion Features [70.50665869806188]
3DiffTectionは、単一の画像から3Dオブジェクトを検出する最先端の方法である。
拡散モデルを微調整し、単一の画像に条件付けされた新しいビュー合成を行う。
さらに、検出監視により、ターゲットデータ上でモデルをトレーニングする。
論文 参考訳(メタデータ) (2023-11-07T23:46:41Z) - DETR3D: 3D Object Detection from Multi-view Images via 3D-to-2D Queries [43.02373021724797]
マルチカメラ3Dオブジェクト検出のためのフレームワークを提案する。
本手法は3次元空間での予測を直接操作する。
我々はnuScenes自動運転ベンチマークで最先端の性能を達成する。
論文 参考訳(メタデータ) (2021-10-13T17:59:35Z) - Reinforced Axial Refinement Network for Monocular 3D Object Detection [160.34246529816085]
モノクロ3次元物体検出は、2次元入力画像から物体の位置と特性を抽出することを目的としている。
従来のアプローチでは、空間から3D境界ボックスをサンプリングし、対象オブジェクトと各オブジェクトの関係を推定するが、有効サンプルの確率は3D空間で比較的小さい。
我々は,まず最初の予測から始めて,各ステップで1つの3dパラメータだけを変えて,基礎的真理に向けて徐々に洗練することを提案する。
これは、いくつかのステップの後に報酬を得るポリシーを設計する必要があるため、最適化するために強化学習を採用します。
論文 参考訳(メタデータ) (2020-08-31T17:10:48Z) - DOPS: Learning to Detect 3D Objects and Predict their 3D Shapes [54.239416488865565]
LIDARデータに対する高速な1段3次元物体検出法を提案する。
我々の手法の中核となる新規性は高速かつシングルパスアーキテクチャであり、どちらも3次元の物体を検出し、それらの形状を推定する。
提案手法は,ScanNetシーンのオブジェクト検出で5%,オープンデータセットでは3.4%の精度で結果が得られた。
論文 参考訳(メタデータ) (2020-04-02T17:48:50Z) - BirdNet+: End-to-End 3D Object Detection in LiDAR Bird's Eye View [117.44028458220427]
自動運転車のオンボード3Dオブジェクト検出は、LiDARデバイスが捉えた幾何学情報に依存することが多い。
本稿では,BEV画像のみから指向性3Dボックスを推測可能な,エンドツーエンドの3Dオブジェクト検出フレームワークを提案する。
論文 参考訳(メタデータ) (2020-03-09T15:08:40Z) - ZoomNet: Part-Aware Adaptive Zooming Neural Network for 3D Object
Detection [69.68263074432224]
ステレオ画像に基づく3D検出のためのZoomNetという新しいフレームワークを提案する。
ZoomNetのパイプラインは、通常の2Dオブジェクト検出モデルから始まり、左右のバウンディングボックスのペアを取得するために使用される。
さらに,RGB画像のテクスチャキューを多用し,より正確な異質度推定を行うため,適応ズームという概念的に真直ぐなモジュールを導入する。
論文 参考訳(メタデータ) (2020-03-01T17:18:08Z) - SMOKE: Single-Stage Monocular 3D Object Detection via Keypoint
Estimation [3.1542695050861544]
3Dの向きとオブジェクトの変換を推定することは、インフラストラクチャレスの自律走行と運転に不可欠である。
SMOKEと呼ばれる新しい3次元オブジェクト検出手法を提案する。
構造的単純さにもかかわらず、提案するSMOKEネットワークは、KITTIデータセット上の既存のモノクル3D検出方法よりも優れている。
論文 参考訳(メタデータ) (2020-02-24T08:15:36Z) - RTM3D: Real-time Monocular 3D Detection from Object Keypoints for
Autonomous Driving [26.216609821525676]
最も成功した3D検出器は、3Dバウンディングボックスから2Dボックスへの投射制約を重要な構成要素としている。
画像空間における3次元境界ボックスの9つの視点キーポイントを予測し、3次元空間における3次元視点と2次元視点の幾何学的関係を利用して、次元、位置、方向を復元する。
提案手法は,KITTIベンチマークの最先端性能を達成しつつ,モノクロ画像の3次元検出を行う最初のリアルタイムシステムである。
論文 参考訳(メタデータ) (2020-01-10T08:29:20Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。