論文の概要: DB3D-L: Depth-aware BEV Feature Transformation for Accurate 3D Lane Detection
- arxiv url: http://arxiv.org/abs/2505.13266v1
- Date: Mon, 19 May 2025 15:47:20 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-20 14:57:11.71168
- Title: DB3D-L: Depth-aware BEV Feature Transformation for Accurate 3D Lane Detection
- Title(参考訳): DB3D-L:正確な3次元車線検出のための深度認識型BEV特徴変換
- Authors: Yehao Liu, Xiaosu Xu, Zijian Wang, Yiqing Yao,
- Abstract要約: 3Dレーン検出は自動運転において重要な役割を果たす。
近年の進歩は、Laneの3D情報をより効果的に知覚するために、FV画像からBirds-Eye-View(BEV)機能を構築している。
しかし、深度情報がないため、FV画像から正確なBEV情報を構築することは制限される。
- 参考スコア(独自算出の注目度): 3.7115000857388494
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: 3D Lane detection plays an important role in autonomous driving. Recent advances primarily build Birds-Eye-View (BEV) feature from front-view (FV) images to perceive 3D information of Lane more effectively. However, constructing accurate BEV information from FV image is limited due to the lacking of depth information, causing previous works often rely heavily on the assumption of a flat ground plane. Leveraging monocular depth estimation to assist in constructing BEV features is less constrained, but existing methods struggle to effectively integrate the two tasks. To address the above issue, in this paper, an accurate 3D lane detection method based on depth-aware BEV feature transtormation is proposed. In detail, an effective feature extraction module is designed, in which a Depth Net is integrated to obtain the vital depth information for 3D perception, thereby simplifying the complexity of view transformation. Subquently a feature reduce module is proposed to reduce height dimension of FV features and depth features, thereby enables effective fusion of crucial FV features and depth features. Then a fusion module is designed to build BEV feature from prime FV feature and depth information. The proposed method performs comparably with state-of-the-art methods on both synthetic Apollo, realistic OpenLane datasets.
- Abstract(参考訳): 3Dレーン検出は自動運転において重要な役割を果たす。
近年の進歩は、Laneの3D情報をより効果的に知覚するために、FV画像からBirds-Eye-View(BEV)機能を構築している。
しかし、FV画像からの正確なBEV情報の構築は、深度情報の欠如により制限されるため、従来の作業は平地平面の仮定に大きく依存することが多い。
BEV機能の構築を支援するために単眼深度推定を活用することは、制約が少ないが、既存の手法では2つのタスクを効果的に統合するのに苦労している。
以上の課題に対処するために,深度を考慮したBEV特徴トランストーミングに基づく高精度な3次元車線検出手法を提案する。
詳細は、3次元知覚において重要な深度情報を得るために深度ネットを統合した効率的な特徴抽出モジュールを設計し、ビュー変換の複雑さを単純化する。
次に,FV特徴量と深度特徴量の高さ次元を低減し,重要なFV特徴量と深度特徴量とを効果的に融合させる特徴量削減モジュールを提案する。
次に、融合モジュールは、素FV特徴と深度情報からBEV特徴を構築するように設計されている。
提案手法は,ApolloとリアルなOpenLaneデータセットの両方で,最先端の手法と互換性がある。
関連論文リスト
- Depth3DLane: Monocular 3D Lane Detection via Depth Prior Distillation [5.909083729156255]
限界に対処し、3次元車線検出精度を向上させるためのBEVベースのフレームワークを提案する。
教師モデルから意味深度知識を伝達するために,Depth Prior Distillationを活用する。
本手法は,z軸誤差による最先端性能を実現する。
論文 参考訳(メタデータ) (2025-04-25T13:08:41Z) - ROA-BEV: 2D Region-Oriented Attention for BEV-based 3D Object Detection [10.11767889540451]
BEVを用いた2次元領域指向型物体検出ネットワーク(ROA-BEV)を提案する。
提案手法は,マルチスケール構造によるROAの情報特徴学習能力をさらに強化する。
nuScenesの実験では、ROA-BEVはBEVDepthに基づいて性能を改善している。
論文 参考訳(メタデータ) (2024-10-14T08:51:56Z) - OPEN: Object-wise Position Embedding for Multi-view 3D Object Detection [102.0744303467713]
OPENと呼ばれる新しい多視点3Dオブジェクト検出器を提案する。
我々の主目的は、提案したオブジェクト指向位置埋め込みを通して、オブジェクトワイド情報をネットワークに効果的に注入することである。
OPENは、nuScenesテストベンチマークで64.4%のNDSと56.7%のmAPで、最先端の新たなパフォーマンスを実現している。
論文 参考訳(メタデータ) (2024-07-15T14:29:15Z) - Towards Unified 3D Object Detection via Algorithm and Data Unification [70.27631528933482]
我々は、最初の統一型マルチモーダル3Dオブジェクト検出ベンチマークMM-Omni3Dを構築し、上記のモノクロ検出器をマルチモーダルバージョンに拡張する。
設計した単分子・多モード検出器をそれぞれUniMODEとMM-UniMODEと命名した。
論文 参考訳(メタデータ) (2024-02-28T18:59:31Z) - Instance-aware Multi-Camera 3D Object Detection with Structural Priors
Mining and Self-Boosting Learning [93.71280187657831]
カメラによる鳥眼視(BEV)知覚パラダイムは、自律運転分野において大きな進歩を遂げている。
画像平面のインスタンス認識をBEV検出器内の深度推定プロセスに統合するIA-BEVを提案する。
論文 参考訳(メタデータ) (2023-12-13T09:24:42Z) - CoBEV: Elevating Roadside 3D Object Detection with Depth and Height Complementarity [34.025530326420146]
我々は、新しいエンドツーエンドのモノクロ3Dオブジェクト検出フレームワークであるComplementary-BEVを開発した。
道路カメラを用いたDAIR-V2X-IとRope3Dの公開3次元検出ベンチマークについて広範な実験を行った。
カメラモデルのAPスコアが初めてDAIR-V2X-Iで80%に達する。
論文 参考訳(メタデータ) (2023-10-04T13:38:53Z) - BEV-IO: Enhancing Bird's-Eye-View 3D Detection with Instance Occupancy [58.92659367605442]
我々は,BEV表現をインスタンス占有情報で拡張する新しい3次元検出パラダイムであるBEV-IOを提案する。
BEV-IOは、パラメータや計算オーバーヘッドの無視できる増加しか加えず、最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-26T11:16:12Z) - EA-LSS: Edge-aware Lift-splat-shot Framework for 3D BEV Object Detection [9.289537252177048]
本稿では,3次元物体検出のための新しいエッジ対応Lift-splat-shot (EA-LSS) フレームワークを提案する。
我々のEA-LSSフレームワークは、任意のLSSベースの3Dオブジェクト検出モデルと互換性がある。
論文 参考訳(メタデータ) (2023-03-31T08:56:29Z) - OA-BEV: Bringing Object Awareness to Bird's-Eye-View Representation for
Multi-Camera 3D Object Detection [78.38062015443195]
OA-BEVは、BEVベースの3Dオブジェクト検出フレームワークにプラグインできるネットワークである。
提案手法は,BEV ベースラインに対する平均精度と nuScenes 検出スコアの両面で一貫した改善を実現する。
論文 参考訳(メタデータ) (2023-01-13T06:02:31Z) - Rethinking Dimensionality Reduction in Grid-based 3D Object Detection [24.249147412551768]
我々は,MDRNetと呼ばれるマルチレベル特徴量次元削減戦略に基づく,新しいポイントクラウド検出ネットワークを提案する。
MDRNetでは、空間認識次元度低減(SDR)は、ボクセル-BEV間の特徴変換において、オブジェクトの価値のある部分に動的に集中するように設計されている。
nuScenes実験の結果,提案手法は最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2022-09-20T04:51:54Z) - M$^2$-3DLaneNet: Exploring Multi-Modal 3D Lane Detection [30.250833348463633]
M$2$-3DLaneNetは、深度補完を通してLiDARデータから幾何情報を取り込むことで、2Dの機能を3D空間に持ち上げる。
大規模なOpenLaneデータセットの実験では、範囲に関係なく、M$2$-3DLaneNetの有効性が示されている。
論文 参考訳(メタデータ) (2022-09-13T13:45:18Z) - Joint Learning of Salient Object Detection, Depth Estimation and Contour
Extraction [91.43066633305662]
RGB-D Salient Object Detection (SOD) のための新しいマルチタスク・マルチモーダルフィルタトランス (MMFT) ネットワークを提案する。
具体的には、深度推定、健全な物体検出、輪郭推定の3つの相補的なタスクを統合する。マルチタスク機構は、タスク認識の特徴を補助タスクから学習するためのモデルを促進する。
実験の結果、複数のデータセット上での深度に基づくRGB-D SOD法をはるかに上回るだけでなく、高品質の深度マップと塩分濃度を同時に正確に予測できることがわかった。
論文 参考訳(メタデータ) (2022-03-09T17:20:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。