論文の概要: EA-LSS: Edge-aware Lift-splat-shot Framework for 3D BEV Object Detection
- arxiv url: http://arxiv.org/abs/2303.17895v3
- Date: Tue, 22 Aug 2023 11:56:19 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-23 21:10:22.210622
- Title: EA-LSS: Edge-aware Lift-splat-shot Framework for 3D BEV Object Detection
- Title(参考訳): ea-lss: 3d bevオブジェクト検出のためのエッジアウェアリフトプレートショットフレームワーク
- Authors: Haotian Hu, Fanyi Wang, Jingwen Su, Yaonong Wang, Laifeng Hu, Weiye
Fang, Jingwei Xu, Zhiwang Zhang
- Abstract要約: 本稿では,新しいエッジ対応Lift-splat-shot (EA-LSS) フレームワークを提案する。
具体的には、深度跳躍問題と細粒度深度(FGD)モジュールを緩和し、精密な深度監視を行うために、エッジ対応深度融合(EADF)モジュールを提案する。
我々のEA-LSSフレームワークは、任意のLSSベースの3次元オブジェクト検出モデルと互換性があり、推論時間の無視できる増加で性能を効果的に向上させる。
- 参考スコア(独自算出の注目度): 9.289537252177048
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, great progress has been made in the Lift-Splat-Shot-based
(LSS-based) 3D object detection method. However, inaccurate depth estimation
remains an important constraint to the accuracy of camera-only and multi-model
3D object detection models, especially in regions where the depth changes
significantly (i.e., the ``depth jump'' problem). In this paper, we proposed a
novel Edge-aware Lift-splat-shot (EA-LSS) framework. Specifically, edge-aware
depth fusion (EADF) module is proposed to alleviate the ``depth jump'' problem
and fine-grained depth (FGD) module to further enforce refined supervision on
depth. Our EA-LSS framework is compatible for any LSS-based 3D object detection
models, and effectively boosts their performances with negligible increment of
inference time. Experiments on nuScenes benchmarks demonstrate that EA-LSS is
effective in either camera-only or multi-model models. It is worth mentioning
that EA-LSS achieved the state-of-the-art performance on nuScenes test
benchmarks with mAP and NDS of 76.5% and 77.6%, respectively.
- Abstract(参考訳): 近年,Lft-Splat-Shot-based (LSS-based) 3Dオブジェクト検出法に大きな進歩を遂げている。
しかし、特に深度が著しく変化する領域(例えば「深度ジャンプ」問題)において、カメラのみおよびマルチモデル3Dオブジェクト検出モデルの精度には、不正確な深さ推定が重要な制約となっている。
本稿では,新しいエッジ対応Lift-splat-shot (EA-LSS) フレームワークを提案する。
具体的には,「深度跳躍」問題と細粒度深度(FGD)モジュールを緩和し,深度管理をさらに強化するために,エッジ対応深度融合(EADF)モジュールを提案する。
我々のEA-LSSフレームワークは、任意のLSSベースの3次元オブジェクト検出モデルと互換性があり、推論時間の無視できる増加で性能を効果的に向上させる。
nuScenesベンチマークの実験では、EA-LSSはカメラのみまたはマルチモデルモデルで有効であることが示されている。
EA-LSS は mAP と NDS のそれぞれ76.5% と 77.6% の nuScenes テストベンチマークで最先端のパフォーマンスを達成したことは注目に値する。
関連論文リスト
- FrozenRecon: Pose-free 3D Scene Reconstruction with Frozen Depth Models [67.96827539201071]
本稿では,3次元シーン再構成のための新しいテスト時間最適化手法を提案する。
本手法は5つのゼロショットテストデータセット上で,最先端のクロスデータセット再構築を実現する。
論文 参考訳(メタデータ) (2023-08-10T17:55:02Z) - Introducing Depth into Transformer-based 3D Object Detection [24.224177932086455]
本稿では,カメラを用いた3次元検出のためのDepth-Aware Transformerフレームワークを提案する。
DATは,同じ設定下でnuScenes val上で+2.8 NDSを大幅に改善することを示す。
トレーニング済みのVoVNet-99をバックボーンとして使用する場合、DATはnuScenesテストで60.0 NDSと51.5 mAPの強い結果が得られる。
論文 参考訳(メタデータ) (2023-02-25T06:28:32Z) - MSMDFusion: Fusing LiDAR and Camera at Multiple Scales with Multi-Depth
Seeds for 3D Object Detection [89.26380781863665]
自律運転システムにおける高精度で信頼性の高い3次元物体検出を実現するためには,LiDARとカメラ情報の融合が不可欠である。
近年のアプローチでは、2次元カメラ画像の3次元空間への昇華点によるカメラ特徴のセマンティックな密度の探索が試みられている。
マルチグラニュラリティLiDARとカメラ機能とのマルチスケールなプログレッシブインタラクションに焦点を当てた,新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-07T12:29:29Z) - Is Pseudo-Lidar needed for Monocular 3D Object detection? [32.772699246216774]
我々は,擬似ライダー法のような深度事前学習の恩恵を受けることができるエンド・ツー・エンドの単分子3次元物体検出器DD3Dを提案する。
我々のアーキテクチャは、深度推定と3次元検出の効果的な情報伝達のために設計されており、ラベルなし事前学習データの量でスケールすることができる。
論文 参考訳(メタデータ) (2021-08-13T22:22:51Z) - Aug3D-RPN: Improving Monocular 3D Object Detection by Synthetic Images
with Virtual Depth [64.29043589521308]
仮想深度で画像を合成することでトレーニングデータを増強するレンダリングモジュールを提案する。
レンダリングモジュールは、RGB画像と対応するスパース深度画像とを入力として、さまざまなフォトリアリスティック合成画像を出力する。
さらに,深度推定タスクを通じて共同で最適化することで,検出モデルを改善する補助モジュールを導入する。
論文 参考訳(メタデータ) (2021-07-28T11:00:47Z) - IAFA: Instance-aware Feature Aggregation for 3D Object Detection from a
Single Image [37.83574424518901]
単一の画像からの3Dオブジェクト検出は、自動運転において重要なタスクです。
本稿では,3次元物体検出の精度向上のために有用な情報を集約するインスタンス認識手法を提案する。
論文 参考訳(メタデータ) (2021-03-05T05:47:52Z) - Reinforced Axial Refinement Network for Monocular 3D Object Detection [160.34246529816085]
モノクロ3次元物体検出は、2次元入力画像から物体の位置と特性を抽出することを目的としている。
従来のアプローチでは、空間から3D境界ボックスをサンプリングし、対象オブジェクトと各オブジェクトの関係を推定するが、有効サンプルの確率は3D空間で比較的小さい。
我々は,まず最初の予測から始めて,各ステップで1つの3dパラメータだけを変えて,基礎的真理に向けて徐々に洗練することを提案する。
これは、いくつかのステップの後に報酬を得るポリシーを設計する必要があるため、最適化するために強化学習を採用します。
論文 参考訳(メタデータ) (2020-08-31T17:10:48Z) - InfoFocus: 3D Object Detection for Autonomous Driving with Dynamic
Information Modeling [65.47126868838836]
動的情報モデリングを用いた新しい3次元オブジェクト検出フレームワークを提案する。
粗い予測は、ボクセルベースの領域提案ネットワークを介して第1段階で生成される。
大規模なnuScenes 3D検出ベンチマークで実験を行った。
論文 参考訳(メタデータ) (2020-07-16T18:27:08Z) - Generative Sparse Detection Networks for 3D Single-shot Object Detection [43.91336826079574]
3Dオブジェクト検出は、ロボット工学や拡張現実など多くの有望な分野に適用可能であるため、広く研究されている。
しかし、3Dデータのまばらな性質は、このタスクに固有の課題をもたらしている。
本稿では,完全畳み込み単一ショットスパース検出ネットワークであるGenerative Sparse Detection Network (GSDN)を提案する。
論文 参考訳(メタデータ) (2020-06-22T15:54:24Z) - SESS: Self-Ensembling Semi-Supervised 3D Object Detection [138.80825169240302]
具体的には、ラベルのない新しい未知のデータに基づくネットワークの一般化を促進するための、徹底的な摂動スキームを設計する。
我々のSESSは、50%のラベル付きデータを用いて、最先端の完全教師付き手法と比較して、競争性能を達成している。
論文 参考訳(メタデータ) (2019-12-26T08:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。