論文の概要: Enhancing 3D Lane Detection and Topology Reasoning with 2D Lane Priors
- arxiv url: http://arxiv.org/abs/2406.03105v1
- Date: Wed, 5 Jun 2024 09:48:56 GMT
- ステータス: 処理完了
- システム内更新日: 2024-06-06 18:59:55.886425
- Title: Enhancing 3D Lane Detection and Topology Reasoning with 2D Lane Priors
- Title(参考訳): 2次元車線前処理による3次元車線検出とトポロジー推論の強化
- Authors: Han Li, Zehao Huang, Zitian Wang, Wenge Rong, Naiyan Wang, Si Liu,
- Abstract要約: 3次元車線検出とトポロジー推論は、自動運転シナリオにおいて必須のタスクである。
Topo2DはTransformerをベースとした新しいフレームワークで、2Dレーンインスタンスを利用して3Dクエリと3D位置埋め込みを初期化する。
Topo2Dは、マルチビュートポロジ推論ベンチマークOpenLane-V2で44.5% OLS、シングルビュー3Dレーン検出ベンチマークOpenLaneで62.6%のF-Socreを達成した。
- 参考スコア(独自算出の注目度): 40.92232275558338
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D lane detection and topology reasoning are essential tasks in autonomous driving scenarios, requiring not only detecting the accurate 3D coordinates on lane lines, but also reasoning the relationship between lanes and traffic elements. Current vision-based methods, whether explicitly constructing BEV features or not, all establish the lane anchors/queries in 3D space while ignoring the 2D lane priors. In this study, we propose Topo2D, a novel framework based on Transformer, leveraging 2D lane instances to initialize 3D queries and 3D positional embeddings. Furthermore, we explicitly incorporate 2D lane features into the recognition of topology relationships among lane centerlines and between lane centerlines and traffic elements. Topo2D achieves 44.5% OLS on multi-view topology reasoning benchmark OpenLane-V2 and 62.6% F-Socre on single-view 3D lane detection benchmark OpenLane, exceeding the performance of existing state-of-the-art methods.
- Abstract(参考訳): 3次元車線検出とトポロジ推論は、車線上の正確な3次元座標を検出するだけでなく、車線と交通要素の関係を推論する必要がある。
BEVの機能を明確に構築するか否かに関わらず、現在の視覚ベースの手法は、いずれも2Dレーンの先行を無視しながら、3D空間にレーンアンカー/クエリを確立する。
本研究では,Transformerをベースとした新しいフレームワークであるTopo2Dを提案する。
さらに、車線中心線および車線中心線と交通要素間のトポロジー関係の認識に、2次元車線の特徴を明示的に取り入れた。
Topo2Dは、マルチビュートポロジ推論ベンチマークOpenLane-V2で44.5%、シングルビュー3Dレーン検出ベンチマークOpenLaneで62.6%のOLSを達成した。
関連論文リスト
- 3D Lane Detection from Front or Surround-View using Joint-Modeling & Matching [27.588395086563978]
本稿では,Bezier曲線と手法を組み合わせた共同モデリング手法を提案する。
また,3次元サラウンドビューレーン検出研究の探索を目的とした新しい3次元空間についても紹介する。
この革新的な手法は、Openlaneデータセットのフロントビュー3Dレーン検出において、新しいベンチマークを確立する。
論文 参考訳(メタデータ) (2024-01-16T01:12:24Z) - Decoupling the Curve Modeling and Pavement Regression for Lane Detection [67.22629246312283]
曲線に基づく車線表現は多くの車線検出法で一般的な手法である。
本稿では,曲線モデルと地上高さ回帰という2つの部分に分解することで,車線検出タスクに対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-09-19T11:24:14Z) - LATR: 3D Lane Detection from Monocular Images with Transformer [42.34193673590758]
単眼画像からの3次元車線検出は、自動運転の基本的な課題である。
最近の進歩は、前面画像の特徴とカメラパラメータから構築された構造的な3Dサロゲートに依存している。
本稿では, 3D-aware front-view機能を用いた3次元車線検出システムであるLATRモデルを提案する。
論文 参考訳(メタデータ) (2023-08-08T21:08:42Z) - OpenLane-V2: A Topology Reasoning Benchmark for Unified 3D HD Mapping [84.65114565766596]
交通シーン構造を考慮したトポロジ推論のための最初のデータセットであるOpenLane-V2を提案する。
OpenLane-V2は2000のアノテートされた道路シーンで構成され、交通要素と車線との関係を記述している。
様々な最先端手法を評価し,OpenLane-V2の定量的,定性的な結果を示し,交通現場におけるトポロジ推論の今後の道筋を示す。
論文 参考訳(メタデータ) (2023-04-20T16:31:22Z) - Reconstruct from Top View: A 3D Lane Detection Approach based on
Geometry Structure Prior [19.1954119672487]
本研究では,2次元から3次元のレーン再構成プロセスの下での幾何学的構造を利用して,単分子式3次元レーン検出問題に対する高度なアプローチを提案する。
まず, 3次元車線と地上2次元車線との形状を解析し, 先行構造に基づく明示的な監督を提案する。
第2に、2次元レーン表現における構造損失を低減するため、フロントビュー画像からトップビューレーン情報を直接抽出する。
論文 参考訳(メタデータ) (2022-06-21T04:03:03Z) - ONCE-3DLanes: Building Monocular 3D Lane Detection [41.46466150783367]
OnCE-3DLanesは3次元空間にレーンレイアウトアノテーションを付加した実世界の自律走行データセットである。
点雲と画像ピクセルとの明確な関係を利用して、データセットのアノテーションパイプラインは、高品質な3Dレーンの位置を自動的に生成するように設計されている。
論文 参考訳(メタデータ) (2022-04-30T16:35:25Z) - PersFormer: 3D Lane Detection via Perspective Transformer and the
OpenLane Benchmark [109.03773439461615]
PersFormerは、新しいトランスフォーマーベースの空間特徴変換モジュールを備えた、エンドツーエンドのモノクル3Dレーン検出器である。
高品質なアノテーションとシナリオの多様性を備えたOpenLaneと呼ばれる,最初の大規模な3Dレーンデータセットの1つをリリースしました。
論文 参考訳(メタデータ) (2022-03-21T16:12:53Z) - Cylinder3D: An Effective 3D Framework for Driving-scene LiDAR Semantic
Segmentation [87.54570024320354]
大規模運転シーンのLiDARセマンティックセマンティックセグメンテーションのための最先端の手法は、しばしば2D空間の点雲を投影して処理する。
3D-to-2Dプロジェクションの問題に取り組むための簡単な解決策は、3D表現を保ち、3D空間の点を処理することである。
我々は3次元シリンダー分割と3次元シリンダー畳み込みに基づくフレームワークをCylinder3Dとして開発し,3次元トポロジの関係と運転シーンの点雲の構造を利用する。
論文 参考訳(メタデータ) (2020-08-04T13:56:19Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。