論文の概要: Mixer-based lidar lane detection network and dataset for urban roads
- arxiv url: http://arxiv.org/abs/2110.11048v1
- Date: Thu, 21 Oct 2021 10:46:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-22 16:30:07.484778
- Title: Mixer-based lidar lane detection network and dataset for urban roads
- Title(参考訳): ミキサーベースlidarレーン検出ネットワークおよび都市道路用データセット
- Authors: Donghee Paek, Seung-Hyun Kong and Kevin Tirta Wijaya
- Abstract要約: 様々な道路条件下での車線検出は自動運転にとって重要な機能である。
我々はLine Mixer Network(LMN)を提案し、Lidarポイントクラウドから局所的な特徴を抽出し、グローバルな特徴を認識し、レーン線を検出する。
さらに,様々な都市道路条件下で最大6車線を有するライダー,Kレーンに対して,世界初となる大都市レーンデータセットを提供する。
- 参考スコア(独自算出の注目度): 3.034959213363017
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate lane detection under various road conditions is a critical function
for autonomous driving. Generally, when detected lane lines from a front camera
image are projected into a birds-eye view (BEV) for motion planning, the
resulting lane lines are often distorted. And convolutional neural network
(CNN)-based feature extractors often lose resolution when increasing the
receptive field to detect global features such as lane lines. However, Lidar
point cloud has little image distortion in the BEV-projection. Since lane lines
are thin and stretch over entire BEV image while occupying only a small
portion, lane lines should be detected as a global feature with high
resolution. In this paper, we propose Lane Mixer Network (LMN) that extracts
local features from Lidar point cloud, recognizes global features, and detects
lane lines using a BEV encoder, a Mixer-based global feature extractor, and a
detection head, respectively. In addition, we provide a world-first large urban
lane dataset for Lidar, K-Lane, which has maximum 6 lanes under various urban
road conditions. We demonstrate that the proposed LMN achieves the
state-of-the-art performance, an F1 score of 91.67%, with K-Lane. The K-Lane,
LMN training code, pre-trained models, and total dataset development platform
are available at github.
- Abstract(参考訳): 様々な道路条件下での正確な車線検出は、自動運転にとって重要な機能である。
一般的に、前方カメラ画像から検出された車線線を鳥眼ビュー(BEV)に投影して運動計画を行うと、その結果の車線線が歪むことが多い。
また、畳み込みニューラルネットワーク(CNN)ベースの特徴抽出器は、レーン線などのグローバルな特徴を検出するために受容野を増大させると、しばしば分解能を失う。
しかし、ライダー点雲は、BEV投影における画像歪みが少ない。
レーンラインはBEV画像全体に細く伸びるが、一部しか占めていないため、高解像度のグローバルな特徴としてレーンラインを検出すべきである。
本稿では,ライダーポイントクラウドから局所的な特徴を抽出し,グローバルな特徴を認識し,BEVエンコーダ,Mixerベースのグローバル特徴抽出器,検出ヘッドを用いてレーン線を検出するLane Mixer Network(LMN)を提案する。
さらに,様々な都市道路条件下で最大6車線を有するライダー,Kレーンに対して,世界初となる大都市レーンデータセットを提供する。
提案するLMNは,K-Laneを用いたF1スコア91.67%の最先端性能を実現する。
K-Lane、LMNトレーニングコード、事前トレーニングされたモデル、データセット開発プラットフォームはgithubで利用可能だ。
関連論文リスト
- OpenLKA: an open dataset of lane keeping assist from market autonomous vehicles [23.083443555590065]
レーンキーピング・アシスト(LKA)は近年の自動車の標準機能となっている。
LKAシステムの運用特性と安全性能は未調査のままである。
フロリダ州タンパの大手自動車メーカーからLKAシステムを広範囲にテストした。
論文 参考訳(メタデータ) (2025-01-06T04:46:10Z) - TrafficLoc: Localizing Traffic Surveillance Cameras in 3D Scenes [49.43995864524434]
我々は,交通監視カメラを協調的な認識で位置決めする問題に取り組む。
我々は,新しいニューラルネットワークであるTrafficLocを導入し,交通カメラを3次元参照マップ内にローカライズする。
実験の結果,我々のTrafficLocは,最先端のイメージ・ツー・ポイント・クラウド登録方式よりも位置決め精度が向上していることがわかった。
論文 参考訳(メタデータ) (2024-12-13T17:42:53Z) - Monocular Lane Detection Based on Deep Learning: A Survey [51.19079381823076]
車線検出は自律運転認識システムにおいて重要な役割を果たす。
ディープラーニングアルゴリズムが普及するにつれて、それらに基づく単眼車線検出法は優れた性能を示した。
本稿では, 成熟度の高い2次元車線検出手法と開発途上国の3次元車線検出技術の両方を網羅して, 既存手法の概要を概説する。
論文 参考訳(メタデータ) (2024-11-25T12:09:43Z) - LanEvil: Benchmarking the Robustness of Lane Detection to Environmental Illusions [61.87108000328186]
レーン検出(LD)は自律走行システムにおいて不可欠な要素であり、適応型クルーズ制御や自動車線センターなどの基本的な機能を提供している。
既存のLDベンチマークは主に、環境錯覚に対するLDモデルの堅牢性を無視し、一般的なケースを評価することに焦点を当てている。
本稿では、LDに対する環境錯覚による潜在的な脅威について検討し、LanEvilの最初の総合ベンチマークを確立する。
論文 参考訳(メタデータ) (2024-06-03T02:12:27Z) - LDTR: Transformer-based Lane Detection with Anchor-chain Representation [11.184960972042406]
限定的あるいは非視覚的な車線検出シナリオは、自動走行において依然として困難で不可欠である。
これらの問題に対処するためのトランスモデルであるLDTRを提案する。
実験により、LDTRはよく知られたデータセット上で最先端の性能を達成することが示された。
論文 参考訳(メタデータ) (2024-03-21T12:29:26Z) - LaneSegNet: Map Learning with Lane Segment Perception for Autonomous
Driving [60.55208681215818]
道路構造の完全な表現を得るために,レーンセグメントを生成する最初のエンドツーエンドマッピングネットワークであるLaneSegNetを紹介した。
提案アルゴリズムは2つの重要な修正点を特徴としている。1つは、長距離特徴空間内の重要な領域の詳細をキャプチャするレーンアテンションモジュールである。
OpenLane-V2データセットでは、LaneSegNetは3つのタスクにまたがって大幅に向上している。
論文 参考訳(メタデータ) (2023-12-26T16:22:10Z) - Prior Based Online Lane Graph Extraction from Single Onboard Camera
Image [133.68032636906133]
単眼カメラ画像からレーングラフをオンラインに推定する。
前者は、トランスフォーマーベースのWasserstein Autoencoderを通じてデータセットから抽出される。
オートエンコーダは、最初のレーングラフ推定を強化するために使用される。
論文 参考訳(メタデータ) (2023-07-25T08:58:26Z) - Vision-Based Robust Lane Detection and Tracking under Different
Challenging Environmental Conditions [8.312192184427762]
レーンマーキング検出は、どちらも先進運転支援システムの基本である。
本稿では,3つの重要な技術を用いた頑健な車線検出・追跡手法を提案する。
実験の結果、平均検出率は97.55%であり、平均処理時間は22.33msec/frameであることがわかった。
論文 参考訳(メタデータ) (2022-10-19T01:25:21Z) - Row-wise LiDAR Lane Detection Network with Lane Correlation Refinement [1.6832237384792461]
行ワイズ検出手法を用いた2段LiDARレーン検出ネットワークを提案する。
第1段ネットワークは、グローバルな特徴相関器バックボーンと行ワイド検出ヘッドを介してレーン提案を生成する。
提案したネットワークは、GFLOPを30%削減したF1スコアで最先端のネットワークを推進している。
論文 参考訳(メタデータ) (2022-10-17T04:47:08Z) - A Keypoint-based Global Association Network for Lane Detection [47.93323407661912]
レーン検出は、レーンラインの複雑なトポロジー形状を予測し、異なる種類のレーンを同時に区別する必要がある、困難なタスクである。
新しい視点からレーン検出問題を定式化するためのグローバルアソシエーションネットワーク(GANet)を提案する。
F1スコアはCULaneが79.63%、Tusimpleデータセットが97.71%、高いFPSが97.71%である。
論文 参考訳(メタデータ) (2022-04-15T05:24:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。