論文の概要: PersFormer: 3D Lane Detection via Perspective Transformer and the
OpenLane Benchmark
- arxiv url: http://arxiv.org/abs/2203.11089v1
- Date: Mon, 21 Mar 2022 16:12:53 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-22 17:24:51.818311
- Title: PersFormer: 3D Lane Detection via Perspective Transformer and the
OpenLane Benchmark
- Title(参考訳): PersFormer:spective TransformerとOpenLaneベンチマークによる3次元レーン検出
- Authors: Li Chen, Chonghao Sima, Yang Li, Zehan Zheng, Jiajie Xu, Xiangwei
Geng, Hongyang Li, Conghui He, Jianping Shi, Yu Qiao, Junchi Yan
- Abstract要約: PersFormerは、新しいトランスフォーマーベースの空間特徴変換モジュールを備えた、エンドツーエンドのモノクル3Dレーン検出器である。
高品質なアノテーションとシナリオの多様性を備えたOpenLaneと呼ばれる,最初の大規模な3Dレーンデータセットの1つをリリースしました。
- 参考スコア(独自算出の注目度): 109.03773439461615
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Methods for 3D lane detection have been recently proposed to address the
issue of inaccurate lane layouts in many autonomous driving scenarios
(uphill/downhill, bump, etc.). Previous work struggled in complex cases due to
their simple designs of the spatial transformation between front view and
bird's eye view (BEV) and the lack of a realistic dataset. Towards these
issues, we present PersFormer: an end-to-end monocular 3D lane detector with a
novel Transformer-based spatial feature transformation module. Our model
generates BEV features by attending to related front-view local regions with
camera parameters as a reference. PersFormer adopts a unified 2D/3D anchor
design and an auxiliary task to detect 2D/3D lanes simultaneously, enhancing
the feature consistency and sharing the benefits of multi-task learning.
Moreover, we release one of the first large-scale real-world 3D lane datasets,
which is called OpenLane, with high-quality annotation and scenario diversity.
OpenLane contains 200,000 frames, over 880,000 instance-level lanes, 14 lane
categories, along with scene tags and the closed-in-path object annotations to
encourage the development of lane detection and more industrial-related
autonomous driving methods. We show that PersFormer significantly outperforms
competitive baselines in the 3D lane detection task on our new OpenLane dataset
as well as Apollo 3D Lane Synthetic dataset, and is also on par with
state-of-the-art algorithms in the 2D task on OpenLane. The project page is
available at https://github.com/OpenPerceptionX/OpenLane.
- Abstract(参考訳): 近年,多くの自律走行シナリオ(上り坂・下り坂など)における不正確な車線配置の問題に対処する3次元車線検出手法が提案されている。
従来の作業は、正面視と鳥眼視(BEV)の間の空間変換のシンプルな設計と現実的なデータセットの欠如により、複雑なケースで苦労した。
そこで,本稿では,トランスフォーマティブな空間特徴変換モジュールを備えた終端から終端の3dレーン検出器persformerを提案する。
本モデルでは,カメラパラメータを基準としたフロントビュー局所領域への参加により,BEVの特徴を生成する。
PersFormerは統合された2D/3Dアンカー設計と補助タスクを採用し、2D/3Dレーンを同時に検出し、機能の一貫性を高め、マルチタスク学習の利点を共有する。
さらに我々は,高品質なアノテーションとシナリオの多様性を備えたOpenLaneと呼ばれる,最初の大規模実世界の3Dレーンデータセットをリリースする。
OpenLaneには20万フレーム、インスタンスレベルのレーン880,000以上、14のレーンカテゴリ、シーンタグとクローズド・イン・パスのオブジェクトアノテーションが含まれており、車線検出や産業関連の自動運転手法の開発を促進する。
PersFormerは、新しいOpenLaneデータセットの3Dレーン検出タスクとアポロ3Dレーン合成データセットの競合ベースラインを大幅に上回り、OpenLaneの2Dタスクの最先端アルゴリズムと同等であることを示す。
プロジェクトページはhttps://github.com/openperceptionx/openlane。
関連論文リスト
- Monocular Lane Detection Based on Deep Learning: A Survey [51.19079381823076]
車線検出は自律運転認識システムにおいて重要な役割を果たす。
ディープラーニングアルゴリズムが普及するにつれて、ディープラーニングに基づく単眼車線検出手法が優れた性能を示した。
本稿では, 成熟度の高い2次元車線検出手法と開発途上国の3次元車線検出技術の両方を網羅して, 既存手法の概要を概説する。
論文 参考訳(メタデータ) (2024-11-25T12:09:43Z) - DV-3DLane: End-to-end Multi-modal 3D Lane Detection with Dual-view Representation [40.71071200694655]
DV-3DLaneは、新しいエンドツーエンドDual-Viewマルチモーダル3Dレーン検出フレームワークである。
画像とLiDAR点の両方の強度を相乗化する。
最先端のパフォーマンスを実現し、F1スコアが11.2、エラーが53.5%減少している。
論文 参考訳(メタデータ) (2024-06-23T10:48:42Z) - Enhancing 3D Lane Detection and Topology Reasoning with 2D Lane Priors [40.92232275558338]
3次元車線検出とトポロジー推論は、自動運転シナリオにおいて必須のタスクである。
Topo2DはTransformerをベースとした新しいフレームワークで、2Dレーンインスタンスを利用して3Dクエリと3D位置埋め込みを初期化する。
Topo2Dは、マルチビュートポロジ推論ベンチマークOpenLane-V2で44.5% OLS、シングルビュー3Dレーン検出ベンチマークOpenLaneで62.6%のF-Socreを達成した。
論文 参考訳(メタデータ) (2024-06-05T09:48:56Z) - Decoupling the Curve Modeling and Pavement Regression for Lane Detection [67.22629246312283]
曲線に基づく車線表現は多くの車線検出法で一般的な手法である。
本稿では,曲線モデルと地上高さ回帰という2つの部分に分解することで,車線検出タスクに対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-09-19T11:24:14Z) - LATR: 3D Lane Detection from Monocular Images with Transformer [42.34193673590758]
単眼画像からの3次元車線検出は、自動運転の基本的な課題である。
最近の進歩は、前面画像の特徴とカメラパラメータから構築された構造的な3Dサロゲートに依存している。
本稿では, 3D-aware front-view機能を用いた3次元車線検出システムであるLATRモデルを提案する。
論文 参考訳(メタデータ) (2023-08-08T21:08:42Z) - An Efficient Transformer for Simultaneous Learning of BEV and Lane
Representations in 3D Lane Detection [55.281369497158515]
3次元車線検出のための効率的な変圧器を提案する。
バニラ変圧器と異なり、我々のモデルは車線とBEVの表現を同時に学習するクロスアテンション機構を含んでいる。
本手法は,2次元および3次元の車線特徴を画像ビューとBEVの特徴にそれぞれ適用することにより,2次元および3次元車線予測を実現する。
論文 参考訳(メタデータ) (2023-06-08T04:18:31Z) - Fully Sparse Fusion for 3D Object Detection [69.32694845027927]
現在広く使われているマルチモーダル3D検出法は、通常、密度の高いBird-Eye-View特徴マップを使用するLiDARベースの検出器上に構築されている。
完全にスパースなアーキテクチャは、長距離知覚において非常に効率的であるため、注目を集めている。
本稿では,新たに出現するフルスパースアーキテクチャにおいて,画像のモダリティを効果的に活用する方法を検討する。
論文 参考訳(メタデータ) (2023-04-24T17:57:43Z) - SWFormer: Sparse Window Transformer for 3D Object Detection in Point
Clouds [44.635939022626744]
ポイントクラウドにおける3Dオブジェクト検出は、現代のロボティクスと自律運転システムの中核となるコンポーネントである。
3Dオブジェクト検出の鍵となる課題は、3Dシーン内でのポイント占有のスパースな性質にある。
Sparse Window Transformer (SWFormer) を提案する。
論文 参考訳(メタデータ) (2022-10-13T21:37:53Z) - ONCE-3DLanes: Building Monocular 3D Lane Detection [41.46466150783367]
OnCE-3DLanesは3次元空間にレーンレイアウトアノテーションを付加した実世界の自律走行データセットである。
点雲と画像ピクセルとの明確な関係を利用して、データセットのアノテーションパイプラインは、高品質な3Dレーンの位置を自動的に生成するように設計されている。
論文 参考訳(メタデータ) (2022-04-30T16:35:25Z) - PerMO: Perceiving More at Once from a Single Image for Autonomous
Driving [76.35684439949094]
単一画像から完全テクスチャ化された車両の3次元モデルを検出し,セグメント化し,再構成する新しい手法を提案する。
私たちのアプローチは、ディープラーニングの強みと従来のテクニックの優雅さを組み合わせています。
我々はこれらのアルゴリズムを自律運転システムに統合した。
論文 参考訳(メタデータ) (2020-07-16T05:02:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。