論文の概要: ONCE-3DLanes: Building Monocular 3D Lane Detection
- arxiv url: http://arxiv.org/abs/2205.00301v1
- Date: Sat, 30 Apr 2022 16:35:25 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-03 15:19:52.159907
- Title: ONCE-3DLanes: Building Monocular 3D Lane Detection
- Title(参考訳): ONCE-3DLanes:モノクロ3Dレーン検出の構築
- Authors: Fan Yan, Ming Nie, Xinyue Cai, Jianhua Han, Hang Xu, Zhen Yang,
Chaoqiang Ye, Yanwei Fu, Michael Bi Mi, Li Zhang
- Abstract要約: OnCE-3DLanesは3次元空間にレーンレイアウトアノテーションを付加した実世界の自律走行データセットである。
点雲と画像ピクセルとの明確な関係を利用して、データセットのアノテーションパイプラインは、高品質な3Dレーンの位置を自動的に生成するように設計されている。
- 参考スコア(独自算出の注目度): 41.46466150783367
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present ONCE-3DLanes, a real-world autonomous driving dataset with lane
layout annotation in 3D space. Conventional 2D lane detection from a monocular
image yields poor performance of following planning and control tasks in
autonomous driving due to the case of uneven road. Predicting the 3D lane
layout is thus necessary and enables effective and safe driving. However,
existing 3D lane detection datasets are either unpublished or synthesized from
a simulated environment, severely hampering the development of this field. In
this paper, we take steps towards addressing these issues. By exploiting the
explicit relationship between point clouds and image pixels, a dataset
annotation pipeline is designed to automatically generate high-quality 3D lane
locations from 2D lane annotations in 211K road scenes. In addition, we present
an extrinsic-free, anchor-free method, called SALAD, regressing the 3D
coordinates of lanes in image view without converting the feature map into the
bird's-eye view (BEV). To facilitate future research on 3D lane detection, we
benchmark the dataset and provide a novel evaluation metric, performing
extensive experiments of both existing approaches and our proposed method. The
aim of our work is to revive the interest of 3D lane detection in a real-world
scenario. We believe our work can lead to the expected and unexpected
innovations in both academia and industry.
- Abstract(参考訳): OnCE-3DLanesは3次元空間にレーンレイアウトアノテーションを付加した実世界の自動運転データセットである。
単眼画像からの従来の2次元レーン検出は、不均一道路の場合の自動運転における計画・制御タスクの追従性能が低下する。
したがって、3Dレーンレイアウトを予測し、効果的で安全な運転を可能にする必要がある。
しかし、既存の3Dレーン検出データセットは、模擬環境から未発表または合成され、この分野の発展を著しく妨げている。
本稿では,これらの課題に取り組むための一歩を踏み出す。
ポイントクラウドと画像ピクセル間の明示的な関係を利用して、データセットアノテーションパイプラインは、211kの道路シーンで2dレーンアノテーションから高品質な3dレーンロケーションを自動的に生成するように設計されている。
さらに,SALADと呼ばれる外因性のないアンカーフリーな手法を提案し,特徴マップを鳥眼ビュー(BEV)に変換することなく,画像ビューにおけるレーンの3次元座標を回帰する。
3次元車線検出の今後の研究を容易にするため,提案手法と提案手法の併用により,データセットをベンチマークし,新しい評価指標を提供する。
私たちの研究の目的は、現実世界のシナリオで3dレーン検出の関心を復活させることです。
私たちの仕事が、学界と産業の両方で予期せぬ革新に繋がると信じています。
関連論文リスト
- HeightFormer: A Semantic Alignment Monocular 3D Object Detection Method from Roadside Perspective [11.841338298700421]
本研究では,空間的前駆体とVoxel Pooling formerを統合した3次元物体検出フレームワークを提案する。
Rope3DとDAIR-V2X-Iデータセットを用いて実験を行い、提案アルゴリズムが車とサイクリストの両方を検知する際の性能を実証した。
論文 参考訳(メタデータ) (2024-10-10T09:37:33Z) - Enhancing 3D Lane Detection and Topology Reasoning with 2D Lane Priors [40.92232275558338]
3次元車線検出とトポロジー推論は、自動運転シナリオにおいて必須のタスクである。
Topo2DはTransformerをベースとした新しいフレームワークで、2Dレーンインスタンスを利用して3Dクエリと3D位置埋め込みを初期化する。
Topo2Dは、マルチビュートポロジ推論ベンチマークOpenLane-V2で44.5% OLS、シングルビュー3Dレーン検出ベンチマークOpenLaneで62.6%のF-Socreを達成した。
論文 参考訳(メタデータ) (2024-06-05T09:48:56Z) - 3D Lane Detection from Front or Surround-View using Joint-Modeling & Matching [27.588395086563978]
本稿では,Bezier曲線と手法を組み合わせた共同モデリング手法を提案する。
また,3次元サラウンドビューレーン検出研究の探索を目的とした新しい3次元空間についても紹介する。
この革新的な手法は、Openlaneデータセットのフロントビュー3Dレーン検出において、新しいベンチマークを確立する。
論文 参考訳(メタデータ) (2024-01-16T01:12:24Z) - 3D Data Augmentation for Driving Scenes on Camera [50.41413053812315]
本稿では,Drive-3DAugと呼ばれる3次元データ拡張手法を提案する。
まずNeural Radiance Field(NeRF)を用いて,背景および前景の3次元モデルの再構成を行う。
そして、予め定義された背景の有効領域に適応した位置と向きの3Dオブジェクトを配置することにより、拡張駆動シーンを得ることができる。
論文 参考訳(メタデータ) (2023-03-18T05:51:05Z) - Image-to-Lidar Self-Supervised Distillation for Autonomous Driving Data [80.14669385741202]
本稿では,自律運転データに適した3次元知覚モデルのための自己教師付き事前学習手法を提案する。
我々は、自動走行装置における同期・校正画像とLidarセンサーの可用性を活用している。
私たちのメソッドは、ポイントクラウドや画像アノテーションを一切必要としません。
論文 参考訳(メタデータ) (2022-03-30T12:40:30Z) - PersFormer: 3D Lane Detection via Perspective Transformer and the
OpenLane Benchmark [109.03773439461615]
PersFormerは、新しいトランスフォーマーベースの空間特徴変換モジュールを備えた、エンドツーエンドのモノクル3Dレーン検出器である。
高品質なアノテーションとシナリオの多様性を備えたOpenLaneと呼ばれる,最初の大規模な3Dレーンデータセットの1つをリリースしました。
論文 参考訳(メタデータ) (2022-03-21T16:12:53Z) - FGR: Frustum-Aware Geometric Reasoning for Weakly Supervised 3D Vehicle
Detection [81.79171905308827]
3Dアノテーションを使わずに点雲中の車両を検出するためのフラストラム対応幾何推論(FGR)を提案する。
本手法は粗い3次元セグメンテーションと3次元バウンディングボックス推定の2段階からなる。
2Dバウンディングボックスとスパースポイントクラウドだけで、3D空間内のオブジェクトを正確に検出できます。
論文 参考訳(メタデータ) (2021-05-17T07:29:55Z) - Monocular 3D Vehicle Detection Using Uncalibrated Traffic Cameras
through Homography [12.062095895630563]
本稿では,1台の交通カメラから3次元世界における車両の位置とポーズを抽出する手法を提案する。
道路平面と画像平面の相同性が3D車両の検出に不可欠であることを観察する。
本稿では,BEV画像の歪み検出精度を高めるためのtextittailedr-box と textitdual-view Network アーキテクチャを提案する。
論文 参考訳(メタデータ) (2021-03-29T02:57:37Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。