論文の概要: Probabilistic and Geometric Depth: Detecting Objects in Perspective
- arxiv url: http://arxiv.org/abs/2107.14160v1
- Date: Thu, 29 Jul 2021 16:30:33 GMT
- ステータス: 処理完了
- システム内更新日: 2021-07-30 13:15:33.117399
- Title: Probabilistic and Geometric Depth: Detecting Objects in Perspective
- Title(参考訳): 確率的・幾何学的深さ:遠近からの物体検出
- Authors: Tai Wang, Xinge Zhu, Jiangmiao Pang, Dahua Lin
- Abstract要約: 3次元物体検出は、運転支援システムなどの様々な実用用途で必要とされる重要な機能である。
双眼視やLiDARに頼っている従来の設定に比べて、経済的な解決策として単眼3D検出が注目されているが、それでも満足のいく結果が得られていない。
本稿ではまず,この問題に関する系統的研究を行い,現在の単分子3次元検出問題をインスタンス深度推定問題として単純化できることを考察する。
- 参考スコア(独自算出の注目度): 78.00922683083776
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: 3D object detection is an important capability needed in various practical
applications such as driver assistance systems. Monocular 3D detection, as an
economical solution compared to conventional settings relying on binocular
vision or LiDAR, has drawn increasing attention recently but still yields
unsatisfactory results. This paper first presents a systematic study on this
problem and observes that the current monocular 3D detection problem can be
simplified as an instance depth estimation problem: The inaccurate instance
depth blocks all the other 3D attribute predictions from improving the overall
detection performance. However, recent methods directly estimate the depth
based on isolated instances or pixels while ignoring the geometric relations
across different objects, which can be valuable constraints as the key
information about depth is not directly manifest in the monocular image.
Therefore, we construct geometric relation graphs across predicted objects and
use the graph to facilitate depth estimation. As the preliminary depth
estimation of each instance is usually inaccurate in this ill-posed setting, we
incorporate a probabilistic representation to capture the uncertainty. It
provides an important indicator to identify confident predictions and further
guide the depth propagation. Despite the simplicity of the basic idea, our
method obtains significant improvements on KITTI and nuScenes benchmarks,
achieving the 1st place out of all monocular vision-only methods while still
maintaining real-time efficiency. Code and models will be released at
https://github.com/open-mmlab/mmdetection3d.
- Abstract(参考訳): 3次元物体検出は、運転支援システムなどの様々な実用用途で必要とされる重要な機能である。
単眼3d検出は、双眼視やlidarに依存する従来の設定と比較して経済的な解決策として近年注目が集まっているが、それでも不十分な結果をもたらす。
本稿では,まずこの問題を体系的に研究し,現状の単眼的3d検出問題をインスタンス深さ推定問題として単純化できることを示す。
しかし、近年の手法では、異なる物体間の幾何学的関係を無視しながら、孤立したインスタンスや画素に基づいて深度を直接推定する手法が提案されている。
そこで,予測対象に対して幾何関係グラフを構築し,そのグラフを用いて深度推定を行う。
この不正確な設定では、各インスタンスの事前の深さ推定が不正確なため、不確実性を捉える確率的表現が組み込まれている。
自信のある予測を識別し、さらに奥行きの伝播を導く重要な指標を提供する。
基本概念の単純さにもかかわらず,本手法はKITTIとnuScenesベンチマークの大幅な改善を実現し,リアルタイムの効率を保ちながら,すべての単眼視のみの手法から第1位を獲得している。
コードとモデルはhttps://github.com/open-mmlab/mmdetection3dでリリースされる。
関連論文リスト
- GUPNet++: Geometry Uncertainty Propagation Network for Monocular 3D
Object Detection [95.8940731298518]
我々はGUPNet++(Geometry Uncertainty Propagation Network)を提案する。
トレーニング中の幾何射影の不確実性伝播関係をモデル化し、エンドツーエンドのモデル学習の安定性と効率を向上させる。
実験により,提案手法は画像ベースモノクロ3次元検出におけるSOTA性能を得るだけでなく,簡易なフレームワークで有効性を示す。
論文 参考訳(メタデータ) (2023-10-24T08:45:15Z) - Self-supervised 3D Object Detection from Monocular Pseudo-LiDAR [9.361704310981196]
単眼画像のみを用いた絶対深度予測と3次元物体検出手法を提案する。
その結果,提案手法は,KITTI 3Dデータセット上での他の既存手法を上回る性能を示した。
論文 参考訳(メタデータ) (2022-09-20T05:55:49Z) - Monocular 3D Object Detection with Depth from Motion [74.29588921594853]
我々は、正確な物体深度推定と検出にカメラエゴモーションを利用する。
我々のフレームワークはDfM(Depth from Motion)と呼ばれ、2D画像の特徴を3D空間に持ち上げて3Dオブジェクトを検出する。
我々のフレームワークは、KITTIベンチマークにおいて最先端の手法よりも大きなマージンで優れている。
論文 参考訳(メタデータ) (2022-07-26T15:48:46Z) - Learning Geometry-Guided Depth via Projective Modeling for Monocular 3D Object Detection [70.71934539556916]
射影モデルを用いて幾何学誘導深度推定を学習し, モノクル3次元物体検出を推し進める。
具体的には,モノクロ3次元物体検出ネットワークにおける2次元および3次元深度予測の投影モデルを用いた原理的幾何式を考案した。
本手法は, 適度なテスト設定において, 余分なデータを2.80%も加えることなく, 最先端単分子法の検出性能を著しく向上させる。
論文 参考訳(メタデータ) (2021-07-29T12:30:39Z) - Geometry-aware data augmentation for monocular 3D object detection [18.67567745336633]
本稿では,自動運転システムにおける必須モジュールの一つであるモノキュラー3次元物体検出について述べる。
重要な課題は、深さ回復問題は単眼データに不備があることです。
我々は,既存の手法が,異なる幾何学的シフトが発生した場合の深さをロバストに推定できないことを明らかにするために,詳細な解析を行う。
上記の操作を,対応する4つの3D対応データ拡張手法に変換する。
論文 参考訳(メタデータ) (2021-04-12T23:12:48Z) - Virtual Normal: Enforcing Geometric Constraints for Accurate and Robust
Depth Prediction [87.08227378010874]
深度予測における高次3次元幾何学的制約の重要性を示す。
単純な幾何学的制約を強制する損失項を設計することにより、単眼深度推定の精度とロバスト性を大幅に改善する。
The-of-the-art results of learning metric depth on NYU Depth-V2 and KITTI。
論文 参考訳(メタデータ) (2021-03-07T00:08:21Z) - Categorical Depth Distribution Network for Monocular 3D Object Detection [7.0405916639906785]
モノラル3D検出の重要な課題は、物体の深度を正確に予測することです。
多くの手法は3次元検出を支援するために直接深度を推定しようとするが、深度不正確な結果、限られた性能を示す。
Categorical Depth Distribution Network (CADDN) を提案し、3次元空間の適切な深さ間隔にリッチなコンテキスト特徴情報を投影する。
提案手法をkitti 3d object detection benchmarkで検証し, 単項法のうち1位にランク付けした。
論文 参考訳(メタデータ) (2021-03-01T16:08:29Z) - Occlusion-Aware Depth Estimation with Adaptive Normal Constraints [85.44842683936471]
カラービデオから多フレーム深度を推定する新しい学習手法を提案する。
本手法は深度推定精度において最先端の手法より優れる。
論文 参考訳(メタデータ) (2020-04-02T07:10:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。