論文の概要: EA-BEV: Edge-aware Bird' s-Eye-View Projector for 3D Object Detection
- arxiv url: http://arxiv.org/abs/2303.17895v1
- Date: Fri, 31 Mar 2023 08:56:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-03 14:53:05.262958
- Title: EA-BEV: Edge-aware Bird' s-Eye-View Projector for 3D Object Detection
- Title(参考訳): EA-BEV:3Dオブジェクト検出のためのエッジ認識型鳥のs-Eye-Viewプロジェクタ
- Authors: Haotian, Hu and Fanyi, Wang and Jingwen, Su and Laifeng, Hu and
Tianpeng, Feng and Zhaokai, Zhang and Wangzhi, Zhang
- Abstract要約: LSSに基づく3Dオブジェクト検出のためのエッジアウェアバードのEye-View(EA-BEV)プロジェクタを提案する。
提案したエッジ対応深度融合モジュールと深度推定モジュールを結合することにより、EA-BEVプロジェクタがこの問題を解決し、深度管理を洗練させる。
我々のEA-BEVプロジェクターは、LSSベースのオブジェクト検出モデルのためのプラグイン・アンド・プレイモジュールであり、ベースライン性能を効果的に改善する。
- 参考スコア(独自算出の注目度): 51.31552830451981
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In recent years, great progress has been made in the Lift-Splat-Shot-based
(LSS-based) 3D object detection method, which converts features of 2D camera
view and 3D lidar view to Bird's-Eye-View (BEV) for feature fusion. However,
inaccurate depth estimation (e.g. the 'depth jump' problem) is an obstacle to
develop LSS-based methods. To alleviate the 'depth jump' problem, we proposed
Edge-Aware Bird's-Eye-View (EA-BEV) projector. By coupling proposed edge-aware
depth fusion module and depth estimate module, the proposed EA-BEV projector
solves the problem and enforces refined supervision on depth. Besides, we
propose sparse depth supervision and gradient edge depth supervision, for
constraining learning on global depth and local marginal depth information. Our
EA-BEV projector is a plug-and-play module for any LSS-based 3D object
detection models, and effectively improves the baseline performance. We
demonstrate the effectiveness on the nuScenes benchmark. On the nuScenes 3D
object detection validation dataset, our proposed EA-BEV projector can boost
several state-of-the-art LLS-based baselines on nuScenes 3D object detection
benchmark and nuScenes BEV map segmentation benchmark with negligible increment
of inference time.
- Abstract(参考訳): 近年,2Dカメラビューと3Dライダービューの特徴を,機能融合のためのBird's-Eye-View(BEV)に変換する,Lft-Splat-Shot-based (LSS-based) 3Dオブジェクト検出法が大幅に進歩している。
しかし、不正確な深さ推定(例えば「深さジャンプ」問題)はLSSベースの手法を開発するのに障害となる。
ディフ・ジャンプ」問題を緩和するため,我々はエッジアウェア・バードズ・ズ・アイ・ビュー(ea-bev)プロジェクタを提案した。
提案したエッジ対応深度融合モジュールと深度推定モジュールを結合することにより、EA-BEVプロジェクタがこの問題を解決し、深度管理を洗練させる。
さらに,大域深度情報と局所限界深度情報の学習を制限するため,疎度深度監視と勾配深度監視を提案する。
我々のEA-BEVプロジェクターは、LSSベースのオブジェクト検出モデルのためのプラグアンドプレイモジュールであり、ベースライン性能を効果的に改善する。
nuScenesベンチマークの有効性を示す。
提案したEA-BEVプロジェクタは、nuScenes 3Dオブジェクト検出ベンチマークとnuScenes BEVマップセグメンテーションベンチマークに基づいて、予測時間の無視可能な、最先端のLSSベースのベースラインを強化することができる。
関連論文リスト
- FrozenRecon: Pose-free 3D Scene Reconstruction with Frozen Depth Models [67.96827539201071]
本稿では,3次元シーン再構成のための新しいテスト時間最適化手法を提案する。
本手法は5つのゼロショットテストデータセット上で,最先端のクロスデータセット再構築を実現する。
論文 参考訳(メタデータ) (2023-08-10T17:55:02Z) - Introducing Depth into Transformer-based 3D Object Detection [24.224177932086455]
本稿では,カメラを用いた3次元検出のためのDepth-Aware Transformerフレームワークを提案する。
DATは,同じ設定下でnuScenes val上で+2.8 NDSを大幅に改善することを示す。
トレーニング済みのVoVNet-99をバックボーンとして使用する場合、DATはnuScenesテストで60.0 NDSと51.5 mAPの強い結果が得られる。
論文 参考訳(メタデータ) (2023-02-25T06:28:32Z) - MSMDFusion: Fusing LiDAR and Camera at Multiple Scales with Multi-Depth
Seeds for 3D Object Detection [89.26380781863665]
自律運転システムにおける高精度で信頼性の高い3次元物体検出を実現するためには,LiDARとカメラ情報の融合が不可欠である。
近年のアプローチでは、2次元カメラ画像の3次元空間への昇華点によるカメラ特徴のセマンティックな密度の探索が試みられている。
マルチグラニュラリティLiDARとカメラ機能とのマルチスケールなプログレッシブインタラクションに焦点を当てた,新しいフレームワークを提案する。
論文 参考訳(メタデータ) (2022-09-07T12:29:29Z) - Is Pseudo-Lidar needed for Monocular 3D Object detection? [32.772699246216774]
我々は,擬似ライダー法のような深度事前学習の恩恵を受けることができるエンド・ツー・エンドの単分子3次元物体検出器DD3Dを提案する。
我々のアーキテクチャは、深度推定と3次元検出の効果的な情報伝達のために設計されており、ラベルなし事前学習データの量でスケールすることができる。
論文 参考訳(メタデータ) (2021-08-13T22:22:51Z) - Aug3D-RPN: Improving Monocular 3D Object Detection by Synthetic Images
with Virtual Depth [64.29043589521308]
仮想深度で画像を合成することでトレーニングデータを増強するレンダリングモジュールを提案する。
レンダリングモジュールは、RGB画像と対応するスパース深度画像とを入力として、さまざまなフォトリアリスティック合成画像を出力する。
さらに,深度推定タスクを通じて共同で最適化することで,検出モデルを改善する補助モジュールを導入する。
論文 参考訳(メタデータ) (2021-07-28T11:00:47Z) - IAFA: Instance-aware Feature Aggregation for 3D Object Detection from a
Single Image [37.83574424518901]
単一の画像からの3Dオブジェクト検出は、自動運転において重要なタスクです。
本稿では,3次元物体検出の精度向上のために有用な情報を集約するインスタンス認識手法を提案する。
論文 参考訳(メタデータ) (2021-03-05T05:47:52Z) - Reinforced Axial Refinement Network for Monocular 3D Object Detection [160.34246529816085]
モノクロ3次元物体検出は、2次元入力画像から物体の位置と特性を抽出することを目的としている。
従来のアプローチでは、空間から3D境界ボックスをサンプリングし、対象オブジェクトと各オブジェクトの関係を推定するが、有効サンプルの確率は3D空間で比較的小さい。
我々は,まず最初の予測から始めて,各ステップで1つの3dパラメータだけを変えて,基礎的真理に向けて徐々に洗練することを提案する。
これは、いくつかのステップの後に報酬を得るポリシーを設計する必要があるため、最適化するために強化学習を採用します。
論文 参考訳(メタデータ) (2020-08-31T17:10:48Z) - InfoFocus: 3D Object Detection for Autonomous Driving with Dynamic
Information Modeling [65.47126868838836]
動的情報モデリングを用いた新しい3次元オブジェクト検出フレームワークを提案する。
粗い予測は、ボクセルベースの領域提案ネットワークを介して第1段階で生成される。
大規模なnuScenes 3D検出ベンチマークで実験を行った。
論文 参考訳(メタデータ) (2020-07-16T18:27:08Z) - Generative Sparse Detection Networks for 3D Single-shot Object Detection [43.91336826079574]
3Dオブジェクト検出は、ロボット工学や拡張現実など多くの有望な分野に適用可能であるため、広く研究されている。
しかし、3Dデータのまばらな性質は、このタスクに固有の課題をもたらしている。
本稿では,完全畳み込み単一ショットスパース検出ネットワークであるGenerative Sparse Detection Network (GSDN)を提案する。
論文 参考訳(メタデータ) (2020-06-22T15:54:24Z) - SESS: Self-Ensembling Semi-Supervised 3D Object Detection [138.80825169240302]
具体的には、ラベルのない新しい未知のデータに基づくネットワークの一般化を促進するための、徹底的な摂動スキームを設計する。
我々のSESSは、50%のラベル付きデータを用いて、最先端の完全教師付き手法と比較して、競争性能を達成している。
論文 参考訳(メタデータ) (2019-12-26T08:48:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。