論文の概要: DB3D-L: Depth-aware BEV Feature Transformation for Accurate 3D Lane Detection
- arxiv url: http://arxiv.org/abs/2505.13266v1
- Date: Mon, 19 May 2025 15:47:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.71168
- Title: DB3D-L: Depth-aware BEV Feature Transformation for Accurate 3D Lane Detection
- Title(参考訳): DB3D-L:正確な3次元車線検出のための深度認識型BEV特徴変換
- Authors: Yehao Liu, Xiaosu Xu, Zijian Wang, Yiqing Yao,
- Abstract要約: 3Dレーン検出は自動運転において重要な役割を果たす。
近年の進歩は、Laneの3D情報をより効果的に知覚するために、FV画像からBirds-Eye-View(BEV)機能を構築している。
しかし、深度情報がないため、FV画像から正確なBEV情報を構築することは制限される。
- 参考スコア(独自算出の注目度): 3.7115000857388494
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3D Lane detection plays an important role in autonomous driving. Recent advances primarily build Birds-Eye-View (BEV) feature from front-view (FV) images to perceive 3D information of Lane more effectively. However, constructing accurate BEV information from FV image is limited due to the lacking of depth information, causing previous works often rely heavily on the assumption of a flat ground plane. Leveraging monocular depth estimation to assist in constructing BEV features is less constrained, but existing methods struggle to effectively integrate the two tasks. To address the above issue, in this paper, an accurate 3D lane detection method based on depth-aware BEV feature transtormation is proposed. In detail, an effective feature extraction module is designed, in which a Depth Net is integrated to obtain the vital depth information for 3D perception, thereby simplifying the complexity of view transformation. Subquently a feature reduce module is proposed to reduce height dimension of FV features and depth features, thereby enables effective fusion of crucial FV features and depth features. Then a fusion module is designed to build BEV feature from prime FV feature and depth information. The proposed method performs comparably with state-of-the-art methods on both synthetic Apollo, realistic OpenLane datasets.
- Abstract(参考訳): 3Dレーン検出は自動運転において重要な役割を果たす。
近年の進歩は、Laneの3D情報をより効果的に知覚するために、FV画像からBirds-Eye-View(BEV)機能を構築している。
しかし、FV画像からの正確なBEV情報の構築は、深度情報の欠如により制限されるため、従来の作業は平地平面の仮定に大きく依存することが多い。
BEV機能の構築を支援するために単眼深度推定を活用することは、制約が少ないが、既存の手法では2つのタスクを効果的に統合するのに苦労している。
以上の課題に対処するために,深度を考慮したBEV特徴トランストーミングに基づく高精度な3次元車線検出手法を提案する。
詳細は、3次元知覚において重要な深度情報を得るために深度ネットを統合した効率的な特徴抽出モジュールを設計し、ビュー変換の複雑さを単純化する。
次に,FV特徴量と深度特徴量の高さ次元を低減し,重要なFV特徴量と深度特徴量とを効果的に融合させる特徴量削減モジュールを提案する。
次に、融合モジュールは、素FV特徴と深度情報からBEV特徴を構築するように設計されている。
提案手法は,ApolloとリアルなOpenLaneデータセットの両方で,最先端の手法と互換性がある。
関連論文リスト
- Depth3DLane: Monocular 3D Lane Detection via Depth Prior Distillation [5.909083729156255]
限界に対処し、3次元車線検出精度を向上させるためのBEVベースのフレームワークを提案する。
教師モデルから意味深度知識を伝達するために,Depth Prior Distillationを活用する。
本手法は,z軸誤差による最先端性能を実現する。
論文 参考訳(メタデータ) (2025-04-25T13:08:41Z) - OPEN: Object-wise Position Embedding for Multi-view 3D Object Detection [102.0744303467713]
OPENと呼ばれる新しい多視点3Dオブジェクト検出器を提案する。
我々の主目的は、提案したオブジェクト指向位置埋め込みを通して、オブジェクトワイド情報をネットワークに効果的に注入することである。
OPENは、nuScenesテストベンチマークで64.4%のNDSと56.7%のmAPで、最先端の新たなパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-07-15T14:29:15Z) - Instance-aware Multi-Camera 3D Object Detection with Structural Priors
Mining and Self-Boosting Learning [93.71280187657831]
カメラによる鳥眼視(BEV)知覚パラダイムは、自律運転分野において大きな進歩を遂げている。
画像平面のインスタンス認識をBEV検出器内の深度推定プロセスに統合するIA-BEVを提案する。
論文 参考訳(メタデータ) (2023-12-13T09:24:42Z) - CoBEV: Elevating Roadside 3D Object Detection with Depth and Height Complementarity [34.025530326420146]
我々は、新しいエンドツーエンドのモノクロ3Dオブジェクト検出フレームワークであるComplementary-BEVを開発した。
道路カメラを用いたDAIR-V2X-IとRope3Dの公開3次元検出ベンチマークについて広範な実験を行った。
カメラモデルのAPスコアが初めてDAIR-V2X-Iで80%に達する。
論文 参考訳(メタデータ) (2023-10-04T13:38:53Z) - BEV-IO: Enhancing Bird's-Eye-View 3D Detection with Instance Occupancy [58.92659367605442]
我々は,BEV表現をインスタンス占有情報で拡張する新しい3次元検出パラダイムであるBEV-IOを提案する。
BEV-IOは、パラメータや計算オーバーヘッドの無視できる増加しか加えず、最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-26T11:16:12Z) - EA-LSS: Edge-aware Lift-splat-shot Framework for 3D BEV Object Detection [9.289537252177048]
本稿では,3次元物体検出のための新しいエッジ対応Lift-splat-shot (EA-LSS) フレームワークを提案する。
我々のEA-LSSフレームワークは、任意のLSSベースの3Dオブジェクト検出モデルと互換性がある。
論文 参考訳(メタデータ) (2023-03-31T08:56:29Z) - OA-BEV: Bringing Object Awareness to Bird's-Eye-View Representation for
Multi-Camera 3D Object Detection [78.38062015443195]
OA-BEVは、BEVベースの3Dオブジェクト検出フレームワークにプラグインできるネットワークである。
提案手法は,BEV ベースラインに対する平均精度と nuScenes 検出スコアの両面で一貫した改善を実現する。
論文 参考訳(メタデータ) (2023-01-13T06:02:31Z) - M$^2$-3DLaneNet: Exploring Multi-Modal 3D Lane Detection [30.250833348463633]
M$2$-3DLaneNetは、深度補完を通してLiDARデータから幾何情報を取り込むことで、2Dの機能を3D空間に持ち上げる。
大規模なOpenLaneデータセットの実験では、範囲に関係なく、M$2$-3DLaneNetの有効性が示されている。
論文 参考訳(メタデータ) (2022-09-13T13:45:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。