論文の概要: K-Lane: Lidar Lane Dataset and Benchmark for Urban Roads and Highways
- arxiv url: http://arxiv.org/abs/2110.11048v3
- Date: Tue, 7 Nov 2023 17:06:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-08 20:19:18.981400
- Title: K-Lane: Lidar Lane Dataset and Benchmark for Urban Roads and Highways
- Title(参考訳): Kレーン:都市道路と高速道路のライダーレーンデータセットとベンチマーク
- Authors: Donghee Paek, Seung-Hyun Kong and Kevin Tirta Wijaya
- Abstract要約: 世界で初めて、かつ最大の都市道路であるKAIST-Laneを導入し、Lidarのハイウェイレーンデータセットについて紹介する。
LLDN-GFCは点雲上の線線の空間的特性を利用しており、点雲の地上面全体に沿って細く、薄く、伸びている。
実験結果から、LDDN-GFCはKレーンでF1-スコア82.1%の最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 9.705678194028895
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Lane detection is a critical function for autonomous driving. With the recent
development of deep learning and the publication of camera lane datasets and
benchmarks, camera lane detection networks (CLDNs) have been remarkably
developed. Unfortunately, CLDNs rely on camera images which are often distorted
near the vanishing line and prone to poor lighting condition. This is in
contrast with Lidar lane detection networks (LLDNs), which can directly extract
the lane lines on the bird's eye view (BEV) for motion planning and operate
robustly under various lighting conditions. However, LLDNs have not been
actively studied, mostly due to the absence of large public lidar lane
datasets. In this paper, we introduce KAIST-Lane (K-Lane), the world's first
and the largest public urban road and highway lane dataset for Lidar. K-Lane
has more than 15K frames and contains annotations of up to six lanes under
various road and traffic conditions, e.g., occluded roads of multiple occlusion
levels, roads at day and night times, merging (converging and diverging) and
curved lanes. We also provide baseline networks we term Lidar lane detection
networks utilizing global feature correlator (LLDN-GFC). LLDN-GFC exploits the
spatial characteristics of lane lines on the point cloud, which are sparse,
thin, and stretched along the entire ground plane of the point cloud. From
experimental results, LLDN-GFC achieves the state-of-the-art performance with
an F1- score of 82.1%, on the K-Lane. Moreover, LLDN-GFC shows strong
performance under various lighting conditions, which is unlike CLDNs, and also
robust even in the case of severe occlusions, unlike LLDNs using the
conventional CNN. The K-Lane, LLDN-GFC training code, pre-trained models, and
complete development kits including evaluation, visualization and annotation
tools are available at https://github.com/kaist-avelab/k-lane.
- Abstract(参考訳): レーン検出は自動運転にとって重要な機能である。
近年のディープラーニングの発展とカメラレーンデータセットとベンチマークの公開により、カメラレーン検出ネットワーク(CLDN)は著しく発展してきた。
残念なことにcldnsは、消失線付近で歪められ、照明条件の悪いカメライメージに依存している。
これは、Lidar lane Detection Network (LLDNs) とは対照的に、鳥の目視(BEV)の線を直接抽出して、様々な照明条件下で頑健に動作することができる。
しかし、LDDNは、大きな公共のライダーレーンデータセットがないため、活発に研究されていない。
本稿では,世界初で最大の都市道路であるKAIST-Lane(K-Lane)について紹介する。
Kレーンには15K以上のフレームがあり、様々な道路や交通条件下で6車線の注釈が含まれており、例えば、複数の閉塞レベルの道路、昼夜の道路、合流(収束と分岐)、湾曲した車線がある。
また,グローバル特徴相関器(LLDN-GFC)を用いたLidarレーン検出ネットワークと呼ぶベースラインネットワークも提供する。
LLDN-GFCは点雲上の線線の空間的特性を利用しており、点雲の地上面全体に沿って細く、薄く、伸びている。
実験結果から、LDDN-GFCはKレーンでF1-スコア82.1%の最先端のパフォーマンスを達成する。
さらに, LLDN-GFCは, 従来のCNNを用いたLDNとは異なり, CLDNと異なり, 強閉塞しても頑健な照明条件下での強い性能を示す。
K-Lane、LLDN-GFCトレーニングコード、事前訓練されたモデル、評価、視覚化、アノテーションツールを含む完全な開発キットはhttps://github.com/kaist-avelab/k-laneで入手できる。
関連論文リスト
- OpenLKA: an open dataset of lane keeping assist from market autonomous vehicles [23.083443555590065]
レーンキーピング・アシスト(LKA)は近年の自動車の標準機能となっている。
LKAシステムの運用特性と安全性能は未調査のままである。
フロリダ州タンパの大手自動車メーカーからLKAシステムを広範囲にテストした。
論文 参考訳(メタデータ) (2025-01-06T04:46:10Z) - TrafficLoc: Localizing Traffic Surveillance Cameras in 3D Scenes [49.43995864524434]
我々は,交通監視カメラを協調的な認識で位置決めする問題に取り組む。
我々は,新しいニューラルネットワークであるTrafficLocを導入し,交通カメラを3次元参照マップ内にローカライズする。
実験の結果,我々のTrafficLocは,最先端のイメージ・ツー・ポイント・クラウド登録方式よりも位置決め精度が向上していることがわかった。
論文 参考訳(メタデータ) (2024-12-13T17:42:53Z) - Monocular Lane Detection Based on Deep Learning: A Survey [51.19079381823076]
車線検出は自律運転認識システムにおいて重要な役割を果たす。
ディープラーニングアルゴリズムが普及するにつれて、それらに基づく単眼車線検出法は優れた性能を示した。
本稿では, 成熟度の高い2次元車線検出手法と開発途上国の3次元車線検出技術の両方を網羅して, 既存手法の概要を概説する。
論文 参考訳(メタデータ) (2024-11-25T12:09:43Z) - LanEvil: Benchmarking the Robustness of Lane Detection to Environmental Illusions [61.87108000328186]
レーン検出(LD)は自律走行システムにおいて不可欠な要素であり、適応型クルーズ制御や自動車線センターなどの基本的な機能を提供している。
既存のLDベンチマークは主に、環境錯覚に対するLDモデルの堅牢性を無視し、一般的なケースを評価することに焦点を当てている。
本稿では、LDに対する環境錯覚による潜在的な脅威について検討し、LanEvilの最初の総合ベンチマークを確立する。
論文 参考訳(メタデータ) (2024-06-03T02:12:27Z) - LDTR: Transformer-based Lane Detection with Anchor-chain Representation [11.184960972042406]
限定的あるいは非視覚的な車線検出シナリオは、自動走行において依然として困難で不可欠である。
これらの問題に対処するためのトランスモデルであるLDTRを提案する。
実験により、LDTRはよく知られたデータセット上で最先端の性能を達成することが示された。
論文 参考訳(メタデータ) (2024-03-21T12:29:26Z) - LaneSegNet: Map Learning with Lane Segment Perception for Autonomous
Driving [60.55208681215818]
道路構造の完全な表現を得るために,レーンセグメントを生成する最初のエンドツーエンドマッピングネットワークであるLaneSegNetを紹介した。
提案アルゴリズムは2つの重要な修正点を特徴としている。1つは、長距離特徴空間内の重要な領域の詳細をキャプチャするレーンアテンションモジュールである。
OpenLane-V2データセットでは、LaneSegNetは3つのタスクにまたがって大幅に向上している。
論文 参考訳(メタデータ) (2023-12-26T16:22:10Z) - Prior Based Online Lane Graph Extraction from Single Onboard Camera
Image [133.68032636906133]
単眼カメラ画像からレーングラフをオンラインに推定する。
前者は、トランスフォーマーベースのWasserstein Autoencoderを通じてデータセットから抽出される。
オートエンコーダは、最初のレーングラフ推定を強化するために使用される。
論文 参考訳(メタデータ) (2023-07-25T08:58:26Z) - Vision-Based Robust Lane Detection and Tracking under Different
Challenging Environmental Conditions [8.312192184427762]
レーンマーキング検出は、どちらも先進運転支援システムの基本である。
本稿では,3つの重要な技術を用いた頑健な車線検出・追跡手法を提案する。
実験の結果、平均検出率は97.55%であり、平均処理時間は22.33msec/frameであることがわかった。
論文 参考訳(メタデータ) (2022-10-19T01:25:21Z) - Row-wise LiDAR Lane Detection Network with Lane Correlation Refinement [1.6832237384792461]
行ワイズ検出手法を用いた2段LiDARレーン検出ネットワークを提案する。
第1段ネットワークは、グローバルな特徴相関器バックボーンと行ワイド検出ヘッドを介してレーン提案を生成する。
提案したネットワークは、GFLOPを30%削減したF1スコアで最先端のネットワークを推進している。
論文 参考訳(メタデータ) (2022-10-17T04:47:08Z) - A Keypoint-based Global Association Network for Lane Detection [47.93323407661912]
レーン検出は、レーンラインの複雑なトポロジー形状を予測し、異なる種類のレーンを同時に区別する必要がある、困難なタスクである。
新しい視点からレーン検出問題を定式化するためのグローバルアソシエーションネットワーク(GANet)を提案する。
F1スコアはCULaneが79.63%、Tusimpleデータセットが97.71%、高いFPSが97.71%である。
論文 参考訳(メタデータ) (2022-04-15T05:24:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。