論文の概要: BEV Lane Det: Fast Lane Detection on BEV Ground
- arxiv url: http://arxiv.org/abs/2210.06006v1
- Date: Wed, 12 Oct 2022 08:22:21 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-13 14:47:13.464521
- Title: BEV Lane Det: Fast Lane Detection on BEV Ground
- Title(参考訳): BEVレーンデット:BEV地上での高速レーン検出
- Authors: Ruihao Wang, Jian Qin, Kaiying Li, Dong Cao
- Abstract要約: 本研究は,CNN層とFC層のみを有する展開指向単分子3Dレーン検出器を提案する。
検出器はApollo 3D Lane SyntheticデータセットとOpenLane実世界のデータセットで96 FPS実行速度で最先端の結果を達成した。
- 参考スコア(独自算出の注目度): 3.230736644603395
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, 3D lane detection has been an actively developing area in
autonomous driving which is the key to routing the vehicle. This work proposes
a deployment-oriented monocular 3D lane detector with only naive CNN and FC
layers. This detector achieved state-of-the-art results on the Apollo 3D Lane
Synthetic dataset and OpenLane real-world dataset with 96 FPS runtime speed. We
conduct three techniques in our detector: (1) Virtual Camera eliminates the
difference in poses of cameras mounted on different vehicles. (2) Spatial
Feature Pyramid Transform as a light-weighed image-view to bird-eye view
transformer can utilize scales of image-view featmaps. (3) Yolo Style Lane
Representation makes a good balance between bird-eye view resolution and
runtime speed. Meanwhile, it can reduce the inefficiency caused by the class
imbalance due to the sparsity of the lane detection task during training.
Combining these three techniques, we obtained a 58.4% F1-score on the OpenLane
dataset, which is a 10.6% improvement over the baseline. On the Apollo dataset,
we achieved an F1-score of 96.9%, which is 4% points of supremacy over the best
on the leaderboard. The source code will release soon.
- Abstract(参考訳): 近年、3Dレーン検出は、車両をルーティングする鍵となる自動運転の活発な発展領域となっている。
本研究は,naive cnnとfc層のみを有する展開指向単眼3次元レーン検出器を提案する。
この検出器は、apollo 3d lane synthetic datasetとopenlane real-world datasetで96 fpsのランタイム速度で最先端の結果を得た。
1)仮想カメラは、異なる車両に搭載されたカメラのポーズの違いを排除します。
2) 空間的特徴ピラミッド変換を鳥眼トランスフォーマーに軽量な画像ビューとして用いることで,画像ビューフェートマップのスケールを活用できる。
(3)ヨロスタイルレーン表現は,鳥眼視の解像度と実行速度のバランスが良好である。
一方、訓練中の車線検出タスクのスパース性に起因するクラス不均衡による非効率を低減できる。
これら3つの技術を組み合わせることで、openlaneデータセット上で58.4%のf1-scoreを得た。
Apolloデータセットでは、96.9%のF1スコアを獲得しました。
ソースコードはまもなくリリースされる。
関連論文リスト
- SGV3D:Towards Scenario Generalization for Vision-based Roadside 3D Object Detection [27.991404725024953]
現在の視覚に基づく道路側検出法は,ラベル付きシーンでは精度が高いが,新しいシーンでは性能が劣る。
これは、ロードサイドカメラが設置後も静止しているためであり、その結果、これらのロードサイドの背景とカメラのポーズにアルゴリズムが適合しているためである。
我々は,SGV3Dと呼ばれる,視覚に基づく道路側3次元物体検出のための革新的なシナリオ一般化フレームワークを提案する。
論文 参考訳(メタデータ) (2024-01-29T12:31:13Z) - LATR: 3D Lane Detection from Monocular Images with Transformer [42.34193673590758]
単眼画像からの3次元車線検出は、自動運転の基本的な課題である。
最近の進歩は、前面画像の特徴とカメラパラメータから構築された構造的な3Dサロゲートに依存している。
本稿では, 3D-aware front-view機能を用いた3次元車線検出システムであるLATRモデルを提案する。
論文 参考訳(メタデータ) (2023-08-08T21:08:42Z) - An Efficient Transformer for Simultaneous Learning of BEV and Lane
Representations in 3D Lane Detection [55.281369497158515]
3次元車線検出のための効率的な変圧器を提案する。
バニラ変圧器と異なり、我々のモデルは車線とBEVの表現を同時に学習するクロスアテンション機構を含んでいる。
本手法は,2次元および3次元の車線特徴を画像ビューとBEVの特徴にそれぞれ適用することにより,2次元および3次元車線予測を実現する。
論文 参考訳(メタデータ) (2023-06-08T04:18:31Z) - InfraDet3D: Multi-Modal 3D Object Detection based on Roadside
Infrastructure Camera and LiDAR Sensors [23.058209168505247]
InfraDet3Dは道路インフラストラクチャセンサーのためのマルチモーダル3Dオブジェクト検出器である。
初期核融合により2つのLiDARを融合し、さらに単眼カメラからの検知を組み込んでロバスト性を高め、小さな物体を検出する。
知覚フレームワークは、ミュンヘンのA9テストストレッチ(A9 Test Stretch)の一部である現実世界の交差点に展開されている。
論文 参考訳(メタデータ) (2023-04-29T17:59:55Z) - Online Lane Graph Extraction from Onboard Video [133.68032636906133]
オンボードカメラからの映像ストリームを、周囲のレーングラフのオンライン抽出に使用しています。
入力が1つの画像ではなくビデオを使うことは、異なるタイムステップからの情報を組み合わせることのメリットと課題の両方をもたらす。
提案手法の1つのモデルでは、1つを含む任意の数の画像を処理し、正確なレーングラフを生成することができる。
論文 参考訳(メタデータ) (2023-04-03T12:36:39Z) - CRN: Camera Radar Net for Accurate, Robust, Efficient 3D Perception [20.824179713013734]
カメラレーダ融合フレームワークであるカメラレーダネット(CRN)を提案する。
CRNは、様々なタスクに対して意味的にリッチで空間的に正確な鳥眼視(BEV)特徴マップを生成する。
リアルタイム設定のCRNは20FPSで動作し、nuScenes上のLiDAR検出器に匹敵する性能を実現している。
論文 参考訳(メタデータ) (2023-04-03T00:47:37Z) - 3D Data Augmentation for Driving Scenes on Camera [50.41413053812315]
本稿では,Drive-3DAugと呼ばれる3次元データ拡張手法を提案する。
まずNeural Radiance Field(NeRF)を用いて,背景および前景の3次元モデルの再構成を行う。
そして、予め定義された背景の有効領域に適応した位置と向きの3Dオブジェクトを配置することにより、拡張駆動シーンを得ることができる。
論文 参考訳(メタデータ) (2023-03-18T05:51:05Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - BEVFusion: Multi-Task Multi-Sensor Fusion with Unified Bird's-Eye View Representation [105.96557764248846]
本稿では,汎用マルチタスクマルチセンサ融合フレームワークであるBEVFusionを紹介する。
共有鳥眼ビュー表示空間におけるマルチモーダル特徴を統一する。
3Dオブジェクト検出では1.3%高いmAPとNDS、BEVマップのセグメンテーションでは13.6%高いmIoU、コストは1.9倍である。
論文 参考訳(メタデータ) (2022-05-26T17:59:35Z) - PersFormer: 3D Lane Detection via Perspective Transformer and the
OpenLane Benchmark [109.03773439461615]
PersFormerは、新しいトランスフォーマーベースの空間特徴変換モジュールを備えた、エンドツーエンドのモノクル3Dレーン検出器である。
高品質なアノテーションとシナリオの多様性を備えたOpenLaneと呼ばれる,最初の大規模な3Dレーンデータセットの1つをリリースしました。
論文 参考訳(メタデータ) (2022-03-21T16:12:53Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。