論文の概要: MonoPair: Monocular 3D Object Detection Using Pairwise Spatial
Relationships
- arxiv url: http://arxiv.org/abs/2003.00504v1
- Date: Sun, 1 Mar 2020 15:37:48 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-27 12:38:12.081359
- Title: MonoPair: Monocular 3D Object Detection Using Pairwise Spatial
Relationships
- Title(参考訳): MonoPair: 空間的関係を用いた単眼3次元物体検出
- Authors: Yongjian Chen and Lei Tai and Kai Sun and Mingyang Li
- Abstract要約: そこで本研究では,一対のサンプルの関係を考慮し,モノラルな3次元物体検出を改良する手法を提案する。
具体的には,近接する物体対の物体位置と3次元距離の不確実性を考慮した予測を行う。
実験により,提案手法は,最先端の競合他社よりも広いマージンで性能を向上し,KITTI 3D検出ベンチマークで最高の性能が得られることが示された。
- 参考スコア(独自算出の注目度): 11.149904308044356
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Monocular 3D object detection is an essential component in autonomous driving
while challenging to solve, especially for those occluded samples which are
only partially visible. Most detectors consider each 3D object as an
independent training target, inevitably resulting in a lack of useful
information for occluded samples. To this end, we propose a novel method to
improve the monocular 3D object detection by considering the relationship of
paired samples. This allows us to encode spatial constraints for
partially-occluded objects from their adjacent neighbors. Specifically, the
proposed detector computes uncertainty-aware predictions for object locations
and 3D distances for the adjacent object pairs, which are subsequently jointly
optimized by nonlinear least squares. Finally, the one-stage uncertainty-aware
prediction structure and the post-optimization module are dedicatedly
integrated for ensuring the run-time efficiency. Experiments demonstrate that
our method yields the best performance on KITTI 3D detection benchmark, by
outperforming state-of-the-art competitors by wide margins, especially for the
hard samples.
- Abstract(参考訳): モノキュラーな3d物体検出は、自律運転において必須の要素であり、特に部分的にしか見えない閉塞されたサンプルの場合、解決が困難である。
ほとんどの検出器は、それぞれの3Dオブジェクトを独立したトレーニングターゲットと見なしており、必然的に、隠蔽されたサンプルの有用な情報が欠如している。
そこで本研究では,一対のサンプルの関係を考慮し,モノラルな3次元物体検出を改良する手法を提案する。
これにより、隣り合う部分閉塞オブジェクトに対する空間的制約をエンコードできる。
具体的には, 近接する物体対の物体位置と3次元距離の不確実性を考慮した予測を, 非線形最小二乗法により共同最適化した。
最後に、ワンステージ不確実性認識予測構造とポスト最適化モジュールを専用に統合し、実行効率を確保する。
実験により,本手法がKITTI 3D検出ベンチマークにおいて,特に硬度試料において,最先端の競合他社よりも高い性能を示すことを示す。
関連論文リスト
- 3D Adversarial Augmentations for Robust Out-of-Domain Predictions [115.74319739738571]
ドメイン外データへの一般化の改善に注力する。
対象を逆向きに変形させるベクトルの集合を学習する。
本研究では,学習したサンプル非依存ベクトルをモデルトレーニング時に利用可能なオブジェクトに適用することにより,対数拡大を行う。
論文 参考訳(メタデータ) (2023-08-29T17:58:55Z) - 3DMODT: Attention-Guided Affinities for Joint Detection & Tracking in 3D
Point Clouds [95.54285993019843]
本稿では,3次元点雲における複数物体の同時検出と追跡手法を提案する。
本モデルでは,複数のフレームを用いた時間情報を利用してオブジェクトを検出し,一つのネットワーク上で追跡する。
論文 参考訳(メタデータ) (2022-11-01T20:59:38Z) - Shape-Aware Monocular 3D Object Detection [15.693199934120077]
単分子3次元物体検出モデルを提案する。
この検出は、対象物を取り巻く無関係な領域からの干渉をほとんど避ける。
単分子3次元物体検出モデルに対して,新しい評価基準,すなわち平均深度類似度(ADS)を提案する。
論文 参考訳(メタデータ) (2022-04-19T07:43:56Z) - Homography Loss for Monocular 3D Object Detection [54.04870007473932]
ホログラフィーロス(Homography Loss)と呼ばれる,2次元情報と3次元情報の両方を利用する識別可能なロス関数を提案する。
提案手法は,KITTI 3Dデータセットにおいて,他の最先端技術と比較して高い性能を示す。
論文 参考訳(メタデータ) (2022-04-02T03:48:03Z) - Delving into Localization Errors for Monocular 3D Object Detection [85.77319416168362]
単眼画像から3Dバウンディングボックスを推定することは、自動運転に不可欠な要素です。
本研究では, 各サブタスクがもたらす影響を定量化し, 局所化誤差を求めることが, モノクロ3次元検出の抑制に欠かせない要因である。
論文 参考訳(メタデータ) (2021-03-30T10:38:01Z) - M3DSSD: Monocular 3D Single Stage Object Detector [82.25793227026443]
特徴アライメントと非対称非局所的注意を有するモノクロ3次元単段物体検出器(M3DSSD)を提案する。
提案したM3DSSDは,KITTIデータセット上のモノラルな3Dオブジェクト検出手法よりも大幅に性能が向上する。
論文 参考訳(メタデータ) (2021-03-24T13:09:11Z) - Reinforced Axial Refinement Network for Monocular 3D Object Detection [160.34246529816085]
モノクロ3次元物体検出は、2次元入力画像から物体の位置と特性を抽出することを目的としている。
従来のアプローチでは、空間から3D境界ボックスをサンプリングし、対象オブジェクトと各オブジェクトの関係を推定するが、有効サンプルの確率は3D空間で比較的小さい。
我々は,まず最初の予測から始めて,各ステップで1つの3dパラメータだけを変えて,基礎的真理に向けて徐々に洗練することを提案する。
これは、いくつかのステップの後に報酬を得るポリシーを設計する必要があるため、最適化するために強化学習を採用します。
論文 参考訳(メタデータ) (2020-08-31T17:10:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。