論文の概要: K-Lane: Lidar Lane Dataset and Benchmark for Urban Roads and Highways
- arxiv url: http://arxiv.org/abs/2110.11048v3
- Date: Tue, 7 Nov 2023 17:06:32 GMT
- ステータス: 処理完了
- システム内更新日: 2023-11-08 20:19:18.981400
- Title: K-Lane: Lidar Lane Dataset and Benchmark for Urban Roads and Highways
- Title(参考訳): Kレーン:都市道路と高速道路のライダーレーンデータセットとベンチマーク
- Authors: Donghee Paek, Seung-Hyun Kong and Kevin Tirta Wijaya
- Abstract要約: 世界で初めて、かつ最大の都市道路であるKAIST-Laneを導入し、Lidarのハイウェイレーンデータセットについて紹介する。
LLDN-GFCは点雲上の線線の空間的特性を利用しており、点雲の地上面全体に沿って細く、薄く、伸びている。
実験結果から、LDDN-GFCはKレーンでF1-スコア82.1%の最先端のパフォーマンスを達成する。
- 参考スコア(独自算出の注目度): 9.705678194028895
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Lane detection is a critical function for autonomous driving. With the recent
development of deep learning and the publication of camera lane datasets and
benchmarks, camera lane detection networks (CLDNs) have been remarkably
developed. Unfortunately, CLDNs rely on camera images which are often distorted
near the vanishing line and prone to poor lighting condition. This is in
contrast with Lidar lane detection networks (LLDNs), which can directly extract
the lane lines on the bird's eye view (BEV) for motion planning and operate
robustly under various lighting conditions. However, LLDNs have not been
actively studied, mostly due to the absence of large public lidar lane
datasets. In this paper, we introduce KAIST-Lane (K-Lane), the world's first
and the largest public urban road and highway lane dataset for Lidar. K-Lane
has more than 15K frames and contains annotations of up to six lanes under
various road and traffic conditions, e.g., occluded roads of multiple occlusion
levels, roads at day and night times, merging (converging and diverging) and
curved lanes. We also provide baseline networks we term Lidar lane detection
networks utilizing global feature correlator (LLDN-GFC). LLDN-GFC exploits the
spatial characteristics of lane lines on the point cloud, which are sparse,
thin, and stretched along the entire ground plane of the point cloud. From
experimental results, LLDN-GFC achieves the state-of-the-art performance with
an F1- score of 82.1%, on the K-Lane. Moreover, LLDN-GFC shows strong
performance under various lighting conditions, which is unlike CLDNs, and also
robust even in the case of severe occlusions, unlike LLDNs using the
conventional CNN. The K-Lane, LLDN-GFC training code, pre-trained models, and
complete development kits including evaluation, visualization and annotation
tools are available at https://github.com/kaist-avelab/k-lane.
- Abstract(参考訳): レーン検出は自動運転にとって重要な機能である。
近年のディープラーニングの発展とカメラレーンデータセットとベンチマークの公開により、カメラレーン検出ネットワーク(CLDN)は著しく発展してきた。
残念なことにcldnsは、消失線付近で歪められ、照明条件の悪いカメライメージに依存している。
これは、Lidar lane Detection Network (LLDNs) とは対照的に、鳥の目視(BEV)の線を直接抽出して、様々な照明条件下で頑健に動作することができる。
しかし、LDDNは、大きな公共のライダーレーンデータセットがないため、活発に研究されていない。
本稿では,世界初で最大の都市道路であるKAIST-Lane(K-Lane)について紹介する。
Kレーンには15K以上のフレームがあり、様々な道路や交通条件下で6車線の注釈が含まれており、例えば、複数の閉塞レベルの道路、昼夜の道路、合流(収束と分岐)、湾曲した車線がある。
また,グローバル特徴相関器(LLDN-GFC)を用いたLidarレーン検出ネットワークと呼ぶベースラインネットワークも提供する。
LLDN-GFCは点雲上の線線の空間的特性を利用しており、点雲の地上面全体に沿って細く、薄く、伸びている。
実験結果から、LDDN-GFCはKレーンでF1-スコア82.1%の最先端のパフォーマンスを達成する。
さらに, LLDN-GFCは, 従来のCNNを用いたLDNとは異なり, CLDNと異なり, 強閉塞しても頑健な照明条件下での強い性能を示す。
K-Lane、LLDN-GFCトレーニングコード、事前訓練されたモデル、評価、視覚化、アノテーションツールを含む完全な開発キットはhttps://github.com/kaist-avelab/k-laneで入手できる。
関連論文リスト
- Monocular Lane Detection Based on Deep Learning: A Survey [51.19079381823076]
車線検出は自律運転認識システムにおいて重要な役割を果たす。
ディープラーニングアルゴリズムが普及するにつれて、ディープラーニングに基づく単眼車線検出手法が優れた性能を示した。
本稿では, 成熟度の高い2次元車線検出手法と開発途上国の3次元車線検出技術の両方を網羅して, 既存手法の概要を概説する。
論文 参考訳(メタデータ) (2024-11-25T12:09:43Z) - LanEvil: Benchmarking the Robustness of Lane Detection to Environmental Illusions [61.87108000328186]
レーン検出(LD)は自律走行システムにおいて不可欠な要素であり、適応型クルーズ制御や自動車線センターなどの基本的な機能を提供している。
既存のLDベンチマークは主に、環境錯覚に対するLDモデルの堅牢性を無視し、一般的なケースを評価することに焦点を当てている。
本稿では、LDに対する環境錯覚による潜在的な脅威について検討し、LanEvilの最初の総合ベンチマークを確立する。
論文 参考訳(メタデータ) (2024-06-03T02:12:27Z) - LDTR: Transformer-based Lane Detection with Anchor-chain Representation [11.184960972042406]
限定的あるいは非視覚的な車線検出シナリオは、自動走行において依然として困難で不可欠である。
これらの問題に対処するためのトランスモデルであるLDTRを提案する。
実験により、LDTRはよく知られたデータセット上で最先端の性能を達成することが示された。
論文 参考訳(メタデータ) (2024-03-21T12:29:26Z) - LaneSegNet: Map Learning with Lane Segment Perception for Autonomous
Driving [60.55208681215818]
道路構造の完全な表現を得るために,レーンセグメントを生成する最初のエンドツーエンドマッピングネットワークであるLaneSegNetを紹介した。
提案アルゴリズムは2つの重要な修正点を特徴としている。1つは、長距離特徴空間内の重要な領域の詳細をキャプチャするレーンアテンションモジュールである。
OpenLane-V2データセットでは、LaneSegNetは3つのタスクにまたがって大幅に向上している。
論文 参考訳(メタデータ) (2023-12-26T16:22:10Z) - Prior Based Online Lane Graph Extraction from Single Onboard Camera
Image [133.68032636906133]
単眼カメラ画像からレーングラフをオンラインに推定する。
前者は、トランスフォーマーベースのWasserstein Autoencoderを通じてデータセットから抽出される。
オートエンコーダは、最初のレーングラフ推定を強化するために使用される。
論文 参考訳(メタデータ) (2023-07-25T08:58:26Z) - DenseLight: Efficient Control for Large-scale Traffic Signals with Dense
Feedback [109.84667902348498]
交通信号制御(TSC)は、道路網における車両の平均走行時間を短縮することを目的としている。
従来のTSC手法は、深い強化学習を利用して制御ポリシーを探索する。
DenseLightは、不偏報酬関数を用いてポリシーの有効性をフィードバックする新しいRTLベースのTSC手法である。
論文 参考訳(メタデータ) (2023-06-13T05:58:57Z) - Vision-Based Robust Lane Detection and Tracking under Different
Challenging Environmental Conditions [8.312192184427762]
レーンマーキング検出は、どちらも先進運転支援システムの基本である。
本稿では,3つの重要な技術を用いた頑健な車線検出・追跡手法を提案する。
実験の結果、平均検出率は97.55%であり、平均処理時間は22.33msec/frameであることがわかった。
論文 参考訳(メタデータ) (2022-10-19T01:25:21Z) - Row-wise LiDAR Lane Detection Network with Lane Correlation Refinement [1.6832237384792461]
行ワイズ検出手法を用いた2段LiDARレーン検出ネットワークを提案する。
第1段ネットワークは、グローバルな特徴相関器バックボーンと行ワイド検出ヘッドを介してレーン提案を生成する。
提案したネットワークは、GFLOPを30%削減したF1スコアで最先端のネットワークを推進している。
論文 参考訳(メタデータ) (2022-10-17T04:47:08Z) - A Keypoint-based Global Association Network for Lane Detection [47.93323407661912]
レーン検出は、レーンラインの複雑なトポロジー形状を予測し、異なる種類のレーンを同時に区別する必要がある、困難なタスクである。
新しい視点からレーン検出問題を定式化するためのグローバルアソシエーションネットワーク(GANet)を提案する。
F1スコアはCULaneが79.63%、Tusimpleデータセットが97.71%、高いFPSが97.71%である。
論文 参考訳(メタデータ) (2022-04-15T05:24:04Z) - Lane Detection Model Based on Spatio-Temporal Network With Double
Convolutional Gated Recurrent Units [11.968518335236787]
レーン検出は今後しばらくは未解決の問題として残るだろう。
二重円錐 Gated Recurrent Units (ConvGRUs) を用いた時空間ネットワークは、困難なシーンにおける車線検出に対処することを提案した。
我々のモデルは最先端の車線検出モデルより優れている。
論文 参考訳(メタデータ) (2020-08-10T06:50:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。