論文の概要: LET-3D-AP: Longitudinal Error Tolerant 3D Average Precision for
Camera-Only 3D Detection
- arxiv url: http://arxiv.org/abs/2206.07705v1
- Date: Wed, 15 Jun 2022 17:57:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-16 14:09:18.518477
- Title: LET-3D-AP: Longitudinal Error Tolerant 3D Average Precision for
Camera-Only 3D Detection
- Title(参考訳): let-3d-ap: カメラのみの3d検出のための縦誤差耐性3d平均精度
- Authors: Wei-Chih Hung, Henrik Kretzschmar, Vincent Casser, Jyh-Jing Hwang,
Dragomir Anguelov
- Abstract要約: 3次元平均精度(3D AP)は、予測された有界箱と地上の真理有界箱との結合に依存する。
我々は,深度推定誤差に関して,より寛容であるように設計された,人気のある3次元APメトリックの変種を提案する。
具体的には, LET-3D-AP と LET-3D-APL という新しい長手誤差耐性指標を用いて, 予測された有界箱の長手位置誤差を許容する。
- 参考スコア(独自算出の注目度): 21.626076794816093
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The popular object detection metric 3D Average Precision (3D AP) relies on
the intersection over union between predicted bounding boxes and ground truth
bounding boxes. However, depth estimation based on cameras has limited
accuracy, which may cause otherwise reasonable predictions that suffer from
such longitudinal localization errors to be treated as false positives and
false negatives. We therefore propose variants of the popular 3D AP metric that
are designed to be more permissive with respect to depth estimation errors.
Specifically, our novel longitudinal error tolerant metrics, LET-3D-AP and
LET-3D-APL, allow longitudinal localization errors of the predicted bounding
boxes up to a given tolerance. The proposed metrics have been used in the Waymo
Open Dataset 3D Camera-Only Detection Challenge. We believe that they will
facilitate advances in the field of camera-only 3D detection by providing more
informative performance signals.
- Abstract(参考訳): 一般的な物体検出指標3d平均精度(3d ap)は、予測された境界ボックスと基底真理バウンディングボックスとの結合上の交点に依存する。
しかし、カメラによる深度推定は精度が限られており、そのような経年的局所化誤差に苦しむ合理的な予測を偽陽性と偽陰性として扱うことができる。
そこで我々は,深度推定誤差に関して,より寛容な3次元APメトリックの変種を提案する。
具体的には, LET-3D-AP と LET-3D-APL は, 予測された有界箱の長手位置誤差を許容できる。
提案されたメトリクスは、Waymo Open Dataset 3D Camera-Only Detection Challengeで使用されている。
我々は、より情報的な性能信号を提供することで、カメラのみの3D検出の分野での進歩を促進すると信じている。
関連論文リスト
- CatFree3D: Category-agnostic 3D Object Detection with Diffusion [63.75470913278591]
本稿では,2次元検出と深度予測から3次元検出を分離するパイプラインを提案する。
また,3次元検出結果の正確な評価のために,正規化ハンガリー距離(NHD)指標も導入した。
論文 参考訳(メタデータ) (2024-08-22T22:05:57Z) - Sparse Points to Dense Clouds: Enhancing 3D Detection with Limited LiDAR Data [68.18735997052265]
単分子と点雲に基づく3次元検出の利点を組み合わせたバランスの取れたアプローチを提案する。
本手法では,低コストで低解像度のセンサから得られる3Dポイントを少数必要としている。
3次元検出の精度は最先端の単分子検出法と比較して20%向上する。
論文 参考訳(メタデータ) (2024-04-10T03:54:53Z) - Improving LiDAR 3D Object Detection via Range-based Point Cloud Density
Optimization [13.727464375608765]
既存の3Dオブジェクト検出器は、遠くにある領域とは対照的に、LiDARセンサーに近い点雲領域でよく機能する傾向にある。
センサ近傍の高密度物体に対する検出モデルには学習バイアスがあり、異なる距離で入力点雲密度を操作するだけで検出性能を向上させることができることを示す。
論文 参考訳(メタデータ) (2023-06-09T04:11:43Z) - Is Pseudo-Lidar needed for Monocular 3D Object detection? [32.772699246216774]
我々は,擬似ライダー法のような深度事前学習の恩恵を受けることができるエンド・ツー・エンドの単分子3次元物体検出器DD3Dを提案する。
我々のアーキテクチャは、深度推定と3次元検出の効果的な情報伝達のために設計されており、ラベルなし事前学習データの量でスケールすることができる。
論文 参考訳(メタデータ) (2021-08-13T22:22:51Z) - Uncertainty-Aware Camera Pose Estimation from Points and Lines [101.03675842534415]
Perspective-n-Point-and-Line (Pn$PL) は、2D-3D特徴座標の3Dモデルに関して、高速で正確で堅牢なカメラローカライゼーションを目指している。
論文 参考訳(メタデータ) (2021-07-08T15:19:36Z) - Delving into Localization Errors for Monocular 3D Object Detection [85.77319416168362]
単眼画像から3Dバウンディングボックスを推定することは、自動運転に不可欠な要素です。
本研究では, 各サブタスクがもたらす影響を定量化し, 局所化誤差を求めることが, モノクロ3次元検出の抑制に欠かせない要因である。
論文 参考訳(メタデータ) (2021-03-30T10:38:01Z) - Gated3D: Monocular 3D Object Detection From Temporal Illumination Cues [28.806932489163888]
低コストな単分子ゲート型画像処理装置から時間的照度を利用した新しい3次元物体検出法を提案する。
提案手法は,1万km以上の運転データから得られたゲート画像を含む新しい3次元検出データセットを用いて評価する。
論文 参考訳(メタデータ) (2021-02-06T16:06:51Z) - PLUME: Efficient 3D Object Detection from Stereo Images [95.31278688164646]
既存の手法では、2つのステップでこの問題に対処する: 第一深度推定を行い、その深さ推定から擬似LiDAR点雲表現を計算し、3次元空間で物体検出を行う。
この2つのタスクを同一のメトリック空間で統一するモデルを提案する。
提案手法は,既存の手法と比較して推定時間を大幅に削減し,挑戦的なKITTIベンチマークの最先端性能を実現する。
論文 参考訳(メタデータ) (2021-01-17T05:11:38Z) - Reinforced Axial Refinement Network for Monocular 3D Object Detection [160.34246529816085]
モノクロ3次元物体検出は、2次元入力画像から物体の位置と特性を抽出することを目的としている。
従来のアプローチでは、空間から3D境界ボックスをサンプリングし、対象オブジェクトと各オブジェクトの関係を推定するが、有効サンプルの確率は3D空間で比較的小さい。
我々は,まず最初の予測から始めて,各ステップで1つの3dパラメータだけを変えて,基礎的真理に向けて徐々に洗練することを提案する。
これは、いくつかのステップの後に報酬を得るポリシーを設計する必要があるため、最適化するために強化学習を採用します。
論文 参考訳(メタデータ) (2020-08-31T17:10:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。