論文の概要: Center3D: Center-based Monocular 3D Object Detection with Joint Depth
Understanding
- arxiv url: http://arxiv.org/abs/2005.13423v1
- Date: Wed, 27 May 2020 15:29:09 GMT
- ステータス: 処理完了
- システム内更新日: 2022-11-28 08:20:04.950746
- Title: Center3D: Center-based Monocular 3D Object Detection with Joint Depth
Understanding
- Title(参考訳): Center3D:関節深度理解による中心型単眼物体検出
- Authors: Yunlei Tang, Sebastian Dorn and Chiragkumar Savani
- Abstract要約: Center3Dは、1段のアンカーフリーアプローチで、3Dの位置と深さを効率的に推定する。
2次元中心と3次元中心の差を利用して、常に深さを推定することができる。
最先端の検出器と比較すると、Center3Dはリアルタイム単分子物体検出において最高の速度精度のトレードオフを達成した。
- 参考スコア(独自算出の注目度): 3.4806267677524896
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Localizing objects in 3D space and understanding their associated 3D
properties is challenging given only monocular RGB images. The situation is
compounded by the loss of depth information during perspective projection. We
present Center3D, a one-stage anchor-free approach, to efficiently estimate 3D
location and depth using only monocular RGB images. By exploiting the
difference between 2D and 3D centers, we are able to estimate depth
consistently. Center3D uses a combination of classification and regression to
understand the hidden depth information more robustly than each method alone.
Our method employs two joint approaches: (1) LID: a classification-dominated
approach with sequential Linear Increasing Discretization. (2) DepJoint: a
regression-dominated approach with multiple Eigen's transformations for depth
estimation. Evaluating on KITTI dataset for moderate objects, Center3D improved
the AP in BEV from $29.7\%$ to $42.8\%$, and the AP in 3D from $18.6\%$ to
$39.1\%$. Compared with state-of-the-art detectors, Center3D has achieved the
best speed-accuracy trade-off in realtime monocular object detection.
- Abstract(参考訳): 3D空間における物体の局所化とそれに関連する3D特性の理解は、単眼のRGB画像のみを考えると困難である。
この状況は遠近投射中に深度情報を失うことで複雑になる。
単眼RGB画像のみを用いて3次元位置と深度を効率よく推定する1段アンカーフリーアプローチであるCenter3Dを提案する。
2Dセンターと3Dセンターの違いを利用して、常に深さを推定することができる。
center3dは分類と回帰の組み合わせを使って、隠れた奥行き情報を各メソッド単独よりもロバストに理解する。
提案手法は,(1) lid: 逐次線形増分離散化を用いた分類優位アプローチである。
2) DepJoint: 深度推定のための複数の固有変換を持つ回帰支配型アプローチ。
適度な対象に対するKITTIデータセットの評価により、Center3DはBEVのAPを29.7 %から42.8 %に改善し、3DのAPを18.6 %から39.1 %に改善した。
最先端の検出器と比較すると、center3dはリアルタイムモノクロ物体検出における最高速度精度のトレードオフを達成した。
関連論文リスト
- Toward Accurate Camera-based 3D Object Detection via Cascade Depth
Estimation and Calibration [20.82054596017465]
最近の3次元物体検出は、画像から3次元特徴空間への変換の精度によって制限されている。
本稿では,カメラを用いた3次元物体検出の基本的な課題である,正確な特徴持ち上げと物体位置決めのための深度情報を効果的に学習する方法を提案する。
論文 参考訳(メタデータ) (2024-02-07T14:21:26Z) - Monocular 3D Object Detection with Depth from Motion [74.29588921594853]
我々は、正確な物体深度推定と検出にカメラエゴモーションを利用する。
我々のフレームワークはDfM(Depth from Motion)と呼ばれ、2D画像の特徴を3D空間に持ち上げて3Dオブジェクトを検出する。
我々のフレームワークは、KITTIベンチマークにおいて最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2022-07-26T15:48:46Z) - Homography Loss for Monocular 3D Object Detection [54.04870007473932]
ホログラフィーロス(Homography Loss)と呼ばれる,2次元情報と3次元情報の両方を利用する識別可能なロス関数を提案する。
提案手法は,KITTI 3Dデータセットにおいて,他の最先端技術と比較して高い性能を示す。
論文 参考訳(メタデータ) (2022-04-02T03:48:03Z) - Learning Geometry-Guided Depth via Projective Modeling for Monocular 3D Object Detection [70.71934539556916]
射影モデルを用いて幾何学誘導深度推定を学習し, モノクル3次元物体検出を推し進める。
具体的には,モノクロ3次元物体検出ネットワークにおける2次元および3次元深度予測の投影モデルを用いた原理的幾何式を考案した。
本手法は, 適度なテスト設定において, 余分なデータを2.80%も加えることなく, 最先端単分子法の検出性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-07-29T12:30:39Z) - M3DSSD: Monocular 3D Single Stage Object Detector [82.25793227026443]
特徴アライメントと非対称非局所的注意を有するモノクロ3次元単段物体検出器(M3DSSD)を提案する。
提案したM3DSSDは,KITTIデータセット上のモノラルな3Dオブジェクト検出手法よりも大幅に性能が向上する。
論文 参考訳(メタデータ) (2021-03-24T13:09:11Z) - Stereo Object Matching Network [78.35697025102334]
本稿では,画像からの2次元コンテキスト情報と3次元オブジェクトレベル情報の両方を利用するステレオオブジェクトマッチング手法を提案する。
コストボリューム空間における3次元オブジェクト性を扱うための新しい方法として, 選択的サンプリング (RoISelect) と 2D-3D 融合がある。
論文 参考訳(メタデータ) (2021-03-23T12:54:43Z) - Stereo CenterNet based 3D Object Detection for Autonomous Driving [2.508414661327797]
ステレオ画像の幾何学的情報を用いた3次元物体検出手法Stereo CenterNetを提案する。
Stereo CenterNetは、空間内のオブジェクトの3D境界ボックスの4つの意味キーポイントを予測し、3D空間におけるオブジェクトのバウンディングボックスを復元するために、2D左の右ボックス、3D次元、向き、キーポイントを使用する。
KITTIデータセットを用いた実験により, ステレオ幾何に基づく最先端手法と比較して, 高速かつ高精度なトレードオフを実現することができた。
論文 参考訳(メタデータ) (2021-03-20T02:18:49Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - Object-Aware Centroid Voting for Monocular 3D Object Detection [30.59728753059457]
本研究では, 深度を学習することなく, 終端から終端までトレーニング可能な単分子3次元物体検出器を提案する。
領域的外見の注意と幾何学的射影分布の両面を考慮した,新しいオブジェクト認識型投票手法が導入された。
遅延融合と予測される3D方向と次元により、オブジェクトの3D境界ボックスは単一のRGB画像から検出できる。
論文 参考訳(メタデータ) (2020-07-20T02:11:18Z) - SMOKE: Single-Stage Monocular 3D Object Detection via Keypoint
Estimation [3.1542695050861544]
3Dの向きとオブジェクトの変換を推定することは、インフラストラクチャレスの自律走行と運転に不可欠である。
SMOKEと呼ばれる新しい3次元オブジェクト検出手法を提案する。
構造的単純さにもかかわらず、提案するSMOKEネットワークは、KITTIデータセット上の既存のモノクル3D検出方法よりも優れている。
論文 参考訳(メタデータ) (2020-02-24T08:15:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。