論文の概要: Anchor3DLane: Learning to Regress 3D Anchors for Monocular 3D Lane
Detection
- arxiv url: http://arxiv.org/abs/2301.02371v1
- Date: Fri, 6 Jan 2023 04:35:31 GMT
- ステータス: 処理完了
- システム内更新日: 2023-01-09 23:41:35.651696
- Title: Anchor3DLane: Learning to Regress 3D Anchors for Monocular 3D Lane
Detection
- Title(参考訳): Anchor3DLane:モノクロ3Dレーン検出のための3Dアンカーの学習
- Authors: Shaofei Huang, Zhenwei Shen, Zehao Huang, Zihan Ding, Jiao Dai,
Jizhong Han, Naiyan Wang, Si Liu
- Abstract要約: 3Dレーン検出の一般的な解決策は、まず正面視(FV)画像や特徴を逆視点マッピング(IPM)で鳥眼視(BEV)空間に変換することである。
本稿では,FV表現から直接3次元車線を予測するために,Anchor3DLaneというBEVフリー手法を提案する。
- 参考スコア(独自算出の注目度): 35.797350813519756
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Monocular 3D lane detection is a challenging task due to its lack of depth
information. A popular solution to 3D lane detection is to first transform the
front-viewed (FV) images or features into the bird-eye-view (BEV) space with
inverse perspective mapping (IPM) and detect lanes from BEV features. However,
the reliance of IPM on flat ground assumption and loss of context information
makes it inaccurate to restore 3D information from BEV representations. An
attempt has been made to get rid of BEV and predict 3D lanes from FV
representations directly, while it still underperforms other BEV-based methods
given its lack of structured representation for 3D lanes. In this paper, we
define 3D lane anchors in the 3D space and propose a BEV-free method named
Anchor3DLane to predict 3D lanes directly from FV representations. 3D lane
anchors are projected to the FV features to extract their features which
contain both good structural and context information to make accurate
predictions. We further extend Anchor3DLane to the multi-frame setting to
incorporate temporal information for performance improvement. In addition, we
also develop a global optimization method that makes use of the equal-width
property between lanes to reduce the lateral error of predictions. Extensive
experiments on three popular 3D lane detection benchmarks show that our
Anchor3DLane outperforms previous BEV-based methods and achieves
state-of-the-art performances.
- Abstract(参考訳): 深さ情報がないため,単眼3次元レーン検出は難しい課題である。
3Dレーン検出の一般的な解決策は、まず正面視(FV)画像や特徴を逆視点マッピング(IPM)で鳥眼視(BEV)空間に変換し、BEV特徴から車線を検出することである。
しかし、IPMが平らな地上での仮定やコンテキスト情報の喪失に依存しているため、BEV表現から3D情報を復元するには不正確である。
BEVを排除し、FV表現から直接3Dレーンを予測する試みがなされているが、3Dレーンの構造的表現が欠如していることから、他のBEVベースの方法よりも性能が低い。
本稿では,3d空間における3dレーンアンカーを定義し,fv表現から直接3dレーンを予測するためのアンカー3dlane法を提案する。
3DレーンアンカーはFV機能に投影され、正確な予測を行うための優れた構造情報とコンテキスト情報の両方を含む特徴を抽出する。
さらにanchor3dlaneをマルチフレーム設定に拡張し、パフォーマンス改善のために時間情報を取り込む。
さらに,車線間の等幅特性を利用した大域的最適化手法も開発し,予測の側方誤差を低減する。
3つの人気のある3Dレーン検出ベンチマークの大規模な実験により、我々のAnchor3DLaneは従来のBEVベースの手法より優れ、最先端のパフォーマンスを実現しています。
関連論文リスト
- BEVSpread: Spread Voxel Pooling for Bird's-Eye-View Representation in Vision-based Roadside 3D Object Detection [47.74067616658986]
視覚に基づく道路沿いの3D物体検出は、自律運転領域で注目を集めている。
この知見に触発されて,BEVSpreadと呼ばれる新しいボクセルプール方式を提案する。
BeVSpreadは既存のフラストタルベースのBEV法の性能を大幅に向上させることができる。
論文 参考訳(メタデータ) (2024-06-13T03:33:36Z) - An Efficient Transformer for Simultaneous Learning of BEV and Lane
Representations in 3D Lane Detection [55.281369497158515]
3次元車線検出のための効率的な変圧器を提案する。
バニラ変圧器と異なり、我々のモデルは車線とBEVの表現を同時に学習するクロスアテンション機構を含んでいる。
本手法は,2次元および3次元の車線特徴を画像ビューとBEVの特徴にそれぞれ適用することにより,2次元および3次元車線予測を実現する。
論文 参考訳(メタデータ) (2023-06-08T04:18:31Z) - BEV-IO: Enhancing Bird's-Eye-View 3D Detection with Instance Occupancy [58.92659367605442]
我々は,BEV表現をインスタンス占有情報で拡張する新しい3次元検出パラダイムであるBEV-IOを提案する。
BEV-IOは、パラメータや計算オーバーヘッドの無視できる増加しか加えず、最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2023-05-26T11:16:12Z) - BEV-MAE: Bird's Eye View Masked Autoencoders for Point Cloud
Pre-training in Autonomous Driving Scenarios [51.285561119993105]
自律運転におけるLiDARに基づく3Dオブジェクト検出のための,効率的なマスク付きオートエンコーダ事前学習フレームワークであるBEV-MAEを提案する。
具体的には、3Dエンコーダ学習特徴表現を導くために,鳥の目視(BEV)誘導マスキング戦略を提案する。
学習可能なポイントトークンを導入し、3Dエンコーダの一貫性のある受容的フィールドサイズを維持する。
論文 参考訳(メタデータ) (2022-12-12T08:15:03Z) - ONCE-3DLanes: Building Monocular 3D Lane Detection [41.46466150783367]
OnCE-3DLanesは3次元空間にレーンレイアウトアノテーションを付加した実世界の自律走行データセットである。
点雲と画像ピクセルとの明確な関係を利用して、データセットのアノテーションパイプラインは、高品質な3Dレーンの位置を自動的に生成するように設計されている。
論文 参考訳(メタデータ) (2022-04-30T16:35:25Z) - PersFormer: 3D Lane Detection via Perspective Transformer and the
OpenLane Benchmark [109.03773439461615]
PersFormerは、新しいトランスフォーマーベースの空間特徴変換モジュールを備えた、エンドツーエンドのモノクル3Dレーン検出器である。
高品質なアノテーションとシナリオの多様性を備えたOpenLaneと呼ばれる,最初の大規模な3Dレーンデータセットの1つをリリースしました。
論文 参考訳(メタデータ) (2022-03-21T16:12:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。