論文の概要: Anchor3DLane++: 3D Lane Detection via Sample-Adaptive Sparse 3D Anchor Regression
- arxiv url: http://arxiv.org/abs/2412.16889v1
- Date: Sun, 22 Dec 2024 06:52:10 GMT
- ステータス: 翻訳完了
- システム内更新日: 2024-12-24 15:58:25.336962
- Title: Anchor3DLane++: 3D Lane Detection via Sample-Adaptive Sparse 3D Anchor Regression
- Title(参考訳): Anchor3DLane++:サンプル適応スパース3Dアンカー回帰による3次元レーン検出
- Authors: Shaofei Huang, Zhenwei Shen, Zehao Huang, Yue Liao, Jizhong Han, Naiyan Wang, Si Liu,
- Abstract要約: 本稿では,3次元レーンアンカーを構造表現として定義し,FV特徴から直接予測を行う,Anchor3DLane++という新しいBEVフリー手法を提案する。
Anchor3DLane++は従来の最先端の手法よりも優れています。
- 参考スコア(独自算出の注目度): 38.70696274059616
- License:
- Abstract: In this paper, we focus on the challenging task of monocular 3D lane detection. Previous methods typically adopt inverse perspective mapping (IPM) to transform the Front-Viewed (FV) images or features into the Bird-Eye-Viewed (BEV) space for lane detection. However, IPM's dependence on flat ground assumption and context information loss in BEV representations lead to inaccurate 3D information estimation. Though efforts have been made to bypass BEV and directly predict 3D lanes from FV representations, their performances still fall behind BEV-based methods due to a lack of structured modeling of 3D lanes. In this paper, we propose a novel BEV-free method named Anchor3DLane++ which defines 3D lane anchors as structural representations and makes predictions directly from FV features. We also design a Prototype-based Adaptive Anchor Generation (PAAG) module to generate sample-adaptive sparse 3D anchors dynamically. In addition, an Equal-Width (EW) loss is developed to leverage the parallel property of lanes for regularization. Furthermore, camera-LiDAR fusion is also explored based on Anchor3DLane++ to leverage complementary information. Extensive experiments on three popular 3D lane detection benchmarks show that our Anchor3DLane++ outperforms previous state-of-the-art methods. Code is available at: https://github.com/tusen-ai/Anchor3DLane.
- Abstract(参考訳): 本稿では,単分子3次元車線検出の課題に焦点をあてる。
従来の手法では、逆視点マッピング(IPM)を使用して、FV(Front-Viewed)画像や特徴を、車線検出のためのBird-Eye-Viewed(BEV)空間に変換する。
しかし、BEV表現における平地仮定と文脈情報損失へのIMMの依存は、不正確な3D情報推定に繋がる。
BEVをバイパスし、FV表現から直接3Dレーンを予測する努力が続けられているが、その性能は3Dレーンの構造的モデリングが欠如しているため、まだBEVベースの手法には及ばない。
本稿では,3次元レーンアンカーを構造表現として定義し,FV特徴から直接予測を行う,Anchor3DLane++という新しいBEVフリー手法を提案する。
また,サンプル適応型スパース3Dアンカーを動的に生成するPAAGモジュールを設計する。
さらに, レーンの並列特性を正規化に活用するため, 等幅損失(EW損失)が開発された。
さらに、Anchor3DLane++をベースとしたカメラ-LiDAR融合も検討されている。
3つの人気のある3Dレーン検出ベンチマークの大規模な実験は、Anchor3DLane++が従来の最先端メソッドよりも優れていることを示している。
コードは、https://github.com/tusen-ai/Anchor3DLaneで入手できる。
関連論文リスト
- SOGDet: Semantic-Occupancy Guided Multi-view 3D Object Detection [19.75965521357068]
本稿では,SOGDet(Semantic-Occupancy Guided Multi-view Object Detection)と呼ばれる新しい手法を提案する。
以上の結果から,SOGDet は nuScenes Detection Score (NDS) と平均平均精度 (mAP) の3つのベースライン法の性能を一貫して向上させることがわかった。
これは、3Dオブジェクト検出と3Dセマンティック占有の組み合わせが、3D環境をより包括的に認識し、より堅牢な自律運転システムの構築を支援することを示唆している。
論文 参考訳(メタデータ) (2023-08-26T07:38:21Z) - An Efficient Transformer for Simultaneous Learning of BEV and Lane
Representations in 3D Lane Detection [55.281369497158515]
3次元車線検出のための効率的な変圧器を提案する。
バニラ変圧器と異なり、我々のモデルは車線とBEVの表現を同時に学習するクロスアテンション機構を含んでいる。
本手法は,2次元および3次元の車線特徴を画像ビューとBEVの特徴にそれぞれ適用することにより,2次元および3次元車線予測を実現する。
論文 参考訳(メタデータ) (2023-06-08T04:18:31Z) - BEV-IO: Enhancing Bird's-Eye-View 3D Detection with Instance Occupancy [58.92659367605442]
我々は,BEV表現をインスタンス占有情報で拡張する新しい3次元検出パラダイムであるBEV-IOを提案する。
BEV-IOは、パラメータや計算オーバーヘッドの無視できる増加しか加えず、最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-26T11:16:12Z) - OA-BEV: Bringing Object Awareness to Bird's-Eye-View Representation for
Multi-Camera 3D Object Detection [78.38062015443195]
OA-BEVは、BEVベースの3Dオブジェクト検出フレームワークにプラグインできるネットワークである。
提案手法は,BEV ベースラインに対する平均精度と nuScenes 検出スコアの両面で一貫した改善を実現する。
論文 参考訳(メタデータ) (2023-01-13T06:02:31Z) - Anchor3DLane: Learning to Regress 3D Anchors for Monocular 3D Lane
Detection [35.797350813519756]
深度情報がないため,単分子式3次元車線検出は難しい課題である。
本稿では,FV表現から直接3次元車線を予測するために,Anchor3DLaneというBEVフリー手法を提案する。
論文 参考訳(メタデータ) (2023-01-06T04:35:31Z) - BEV-MAE: Bird's Eye View Masked Autoencoders for Point Cloud
Pre-training in Autonomous Driving Scenarios [51.285561119993105]
自律運転におけるLiDARに基づく3Dオブジェクト検出のための,効率的なマスク付きオートエンコーダ事前学習フレームワークであるBEV-MAEを提案する。
具体的には、3Dエンコーダ学習特徴表現を導くために,鳥の目視(BEV)誘導マスキング戦略を提案する。
学習可能なポイントトークンを導入し、3Dエンコーダの一貫性のある受容的フィールドサイズを維持する。
論文 参考訳(メタデータ) (2022-12-12T08:15:03Z) - CurveFormer: 3D Lane Detection by Curve Propagation with Curve Queries
and Attention [3.330270927081078]
3Dレーン検出は、自動運転システムにとって不可欠な部分である。
以前のCNNとTransformerベースの手法は、通常、フロントビューイメージから鳥の目視(BEV)特徴マップを生成する。
単段トランスフォーマーを用いた3次元レーンパラメータの直接計算法であるCurveFormerを提案する。
論文 参考訳(メタデータ) (2022-09-16T14:54:57Z) - ONCE-3DLanes: Building Monocular 3D Lane Detection [41.46466150783367]
OnCE-3DLanesは3次元空間にレーンレイアウトアノテーションを付加した実世界の自律走行データセットである。
点雲と画像ピクセルとの明確な関係を利用して、データセットのアノテーションパイプラインは、高品質な3Dレーンの位置を自動的に生成するように設計されている。
論文 参考訳(メタデータ) (2022-04-30T16:35:25Z) - DOPS: Learning to Detect 3D Objects and Predict their 3D Shapes [54.239416488865565]
LIDARデータに対する高速な1段3次元物体検出法を提案する。
我々の手法の中核となる新規性は高速かつシングルパスアーキテクチャであり、どちらも3次元の物体を検出し、それらの形状を推定する。
提案手法は,ScanNetシーンのオブジェクト検出で5%,オープンデータセットでは3.4%の精度で結果が得られた。
論文 参考訳(メタデータ) (2020-04-02T17:48:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。