論文の概要: SparseLaneSTP: Leveraging Spatio-Temporal Priors with Sparse Transformers for 3D Lane Detection
- arxiv url: http://arxiv.org/abs/2601.04968v1
- Date: Thu, 08 Jan 2026 14:16:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-09 17:01:53.230208
- Title: SparseLaneSTP: Leveraging Spatio-Temporal Priors with Sparse Transformers for 3D Lane Detection
- Title(参考訳): SparseLaneSTP:3次元レーン検出のためのスパーストランスを用いた時空間プリミティブの活用
- Authors: Maximilian Pittner, Joel Janai, Mario Faigle, Alexandru Paul Condurache,
- Abstract要約: 3Dレーン検出は、自動運転において重要な課題として浮上している。
本稿では,SparseLaneSTPを提案する。SparseLaneSTPは,レーン構造の幾何学的性質と時間情報の両方をスパースレーントランスに統合する手法である。
新しいレーン固有の時間的注意機構、スパースアーキテクチャに適した連続レーン表現、および時間的正規化を導入している。
- 参考スコア(独自算出の注目度): 42.86570387250456
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: 3D lane detection has emerged as a critical challenge in autonomous driving, encompassing identification and localization of lane markings and the 3D road surface. Conventional 3D methods detect lanes from dense birds-eye-viewed (BEV) features, though erroneous transformations often result in a poor feature representation misaligned with the true 3D road surface. While recent sparse lane detectors have surpassed dense BEV approaches, they completely disregard valuable lane-specific priors. Furthermore, existing methods fail to utilize historic lane observations, which yield the potential to resolve ambiguities in situations of poor visibility. To address these challenges, we present SparseLaneSTP, a novel method that integrates both geometric properties of the lane structure and temporal information into a sparse lane transformer. It introduces a new lane-specific spatio-temporal attention mechanism, a continuous lane representation tailored for sparse architectures as well as temporal regularization. Identifying weaknesses of existing 3D lane datasets, we also introduce a precise and consistent 3D lane dataset using a simple yet effective auto-labeling strategy. Our experimental section proves the benefits of our contributions and demonstrates state-of-the-art performance across all detection and error metrics on existing 3D lane detection benchmarks as well as on our novel dataset.
- Abstract(参考訳): 3次元車線検出は、車線標識と3次元路面の同定と位置決めを含む自動運転における重要な課題として浮上している。
従来の3D法では、密集した鳥眼視(BEV)の特徴から車線を検出するが、誤変換によって、真の3D路面と不一致な特徴表現が生じることが多い。
最近のスパースレーン検出器は、密度の高いBEVアプローチを超越しているものの、価値ある車線固有の先行を全く無視している。
さらに、既存の手法では歴史的な車線観測を利用できず、視界不良の状況において曖昧さを解消する可能性がある。
これらの課題に対処するために,SparseLaneSTPを提案する。SparseLaneSTPは,レーン構造の幾何学的性質と時間情報の両方をスパースレーントランスに統合する新しい手法である。
これは、スパースアーキテクチャや時間正規化に適した連続レーン表現である、新しいレーン固有時空間アテンション機構を導入している。
既存の3Dレーンデータセットの弱点を識別すると同時に、単純で効果的な自動ラベル戦略を用いて、正確で一貫した3Dレーンデータセットも導入する。
我々の実験セクションは、我々のコントリビューションの利点を証明し、既存の3Dレーン検出ベンチマークと新しいデータセットのすべての検出およびエラーメトリクスにおける最先端のパフォーマンスを実証する。
関連論文リスト
- Breaking Down Monocular Ambiguity: Exploiting Temporal Evolution for 3D Lane Detection [79.98605061363999]
単眼3次元車線検出は,前頭側視像(FV)から車線の3次元位置を推定することを目的としている。
既存の手法は、単一フレーム入力の固有のあいまいさによって制約される。
車両が移動するときにシーンの時間的進化に埋め込まれたリッチな情報を解放することを提案する。
論文 参考訳(メタデータ) (2025-04-29T08:10:17Z) - LaneCPP: Continuous 3D Lane Detection using Physical Priors [45.52331418900137]
レーンCPPは、車線構造と道路形状に関する物理的事前知識を活用する連続した3次元車線検出モデルを用いる。
コントリビューションのメリットを示し、3次元車線検出をより堅牢にするための事前利用の意義を実証する。
論文 参考訳(メタデータ) (2024-06-12T16:31:06Z) - Decoupling the Curve Modeling and Pavement Regression for Lane Detection [67.22629246312283]
曲線に基づく車線表現は多くの車線検出法で一般的な手法である。
本稿では,曲線モデルと地上高さ回帰という2つの部分に分解することで,車線検出タスクに対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-09-19T11:24:14Z) - ONCE-3DLanes: Building Monocular 3D Lane Detection [41.46466150783367]
OnCE-3DLanesは3次元空間にレーンレイアウトアノテーションを付加した実世界の自律走行データセットである。
点雲と画像ピクセルとの明確な関係を利用して、データセットのアノテーションパイプラインは、高品質な3Dレーンの位置を自動的に生成するように設計されている。
論文 参考訳(メタデータ) (2022-04-30T16:35:25Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。