論文の概要: Mixer-based lidar lane detection network and dataset for urban roads
- arxiv url: http://arxiv.org/abs/2110.11048v1
- Date: Thu, 21 Oct 2021 10:46:50 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-22 16:30:07.484778
- Title: Mixer-based lidar lane detection network and dataset for urban roads
- Title(参考訳): ミキサーベースlidarレーン検出ネットワークおよび都市道路用データセット
- Authors: Donghee Paek, Seung-Hyun Kong and Kevin Tirta Wijaya
- Abstract要約: 様々な道路条件下での車線検出は自動運転にとって重要な機能である。
我々はLine Mixer Network(LMN)を提案し、Lidarポイントクラウドから局所的な特徴を抽出し、グローバルな特徴を認識し、レーン線を検出する。
さらに,様々な都市道路条件下で最大6車線を有するライダー,Kレーンに対して,世界初となる大都市レーンデータセットを提供する。
- 参考スコア(独自算出の注目度): 3.034959213363017
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurate lane detection under various road conditions is a critical function
for autonomous driving. Generally, when detected lane lines from a front camera
image are projected into a birds-eye view (BEV) for motion planning, the
resulting lane lines are often distorted. And convolutional neural network
(CNN)-based feature extractors often lose resolution when increasing the
receptive field to detect global features such as lane lines. However, Lidar
point cloud has little image distortion in the BEV-projection. Since lane lines
are thin and stretch over entire BEV image while occupying only a small
portion, lane lines should be detected as a global feature with high
resolution. In this paper, we propose Lane Mixer Network (LMN) that extracts
local features from Lidar point cloud, recognizes global features, and detects
lane lines using a BEV encoder, a Mixer-based global feature extractor, and a
detection head, respectively. In addition, we provide a world-first large urban
lane dataset for Lidar, K-Lane, which has maximum 6 lanes under various urban
road conditions. We demonstrate that the proposed LMN achieves the
state-of-the-art performance, an F1 score of 91.67%, with K-Lane. The K-Lane,
LMN training code, pre-trained models, and total dataset development platform
are available at github.
- Abstract(参考訳): 様々な道路条件下での正確な車線検出は、自動運転にとって重要な機能である。
一般的に、前方カメラ画像から検出された車線線を鳥眼ビュー(BEV)に投影して運動計画を行うと、その結果の車線線が歪むことが多い。
また、畳み込みニューラルネットワーク(CNN)ベースの特徴抽出器は、レーン線などのグローバルな特徴を検出するために受容野を増大させると、しばしば分解能を失う。
しかし、ライダー点雲は、BEV投影における画像歪みが少ない。
レーンラインはBEV画像全体に細く伸びるが、一部しか占めていないため、高解像度のグローバルな特徴としてレーンラインを検出すべきである。
本稿では,ライダーポイントクラウドから局所的な特徴を抽出し,グローバルな特徴を認識し,BEVエンコーダ,Mixerベースのグローバル特徴抽出器,検出ヘッドを用いてレーン線を検出するLane Mixer Network(LMN)を提案する。
さらに,様々な都市道路条件下で最大6車線を有するライダー,Kレーンに対して,世界初となる大都市レーンデータセットを提供する。
提案するLMNは,K-Laneを用いたF1スコア91.67%の最先端性能を実現する。
K-Lane、LMNトレーニングコード、事前トレーニングされたモデル、データセット開発プラットフォームはgithubで利用可能だ。
関連論文リスト
- LaneSegNet: Map Learning with Lane Segment Perception for Autonomous
Driving [60.55208681215818]
道路構造の完全な表現を得るために,レーンセグメントを生成する最初のエンドツーエンドマッピングネットワークであるLaneSegNetを紹介した。
提案アルゴリズムは2つの重要な修正点を特徴としている。1つは、長距離特徴空間内の重要な領域の詳細をキャプチャするレーンアテンションモジュールである。
OpenLane-V2データセットでは、LaneSegNetは3つのタスクにまたがって大幅に向上している。
論文 参考訳(メタデータ) (2023-12-26T16:22:10Z) - Contrastive Learning for Lane Detection via Cross-Similarity [0.5735035463793009]
レーンマーキングは以前の形状が強いが、視認性は容易に損なわれる。
視界の低さによる自然の変化に耐えられる車線検出アプローチを訓練するには、大量のデータが必要である。
クロスシミラリティ(CLLD)による車線検出のためのコントラスト学習(Contrastive Learning for Lane Detection)は,自己教師あり学習手法である。
論文 参考訳(メタデータ) (2023-08-16T09:16:05Z) - Prior Based Online Lane Graph Extraction from Single Onboard Camera
Image [133.68032636906133]
単眼カメラ画像からレーングラフをオンラインに推定する。
前者は、トランスフォーマーベースのWasserstein Autoencoderを通じてデータセットから抽出される。
オートエンコーダは、最初のレーングラフ推定を強化するために使用される。
論文 参考訳(メタデータ) (2023-07-25T08:58:26Z) - Going Beyond Linear Mode Connectivity: The Layerwise Linear Feature
Connectivity [62.11981948274508]
LLFCの超越についての研究は,特徴学習の視点を取り入れることでLCCの理解を深める。
LLFCの総合的な実証的証拠として,2つの訓練ネットワークがLCCを満たす場合,ほぼすべての層でLLFCを満足することを示す。
論文 参考訳(メタデータ) (2023-07-17T07:16:28Z) - DenseLight: Efficient Control for Large-scale Traffic Signals with Dense
Feedback [109.84667902348498]
交通信号制御(TSC)は、道路網における車両の平均走行時間を短縮することを目的としている。
従来のTSC手法は、深い強化学習を利用して制御ポリシーを探索する。
DenseLightは、不偏報酬関数を用いてポリシーの有効性をフィードバックする新しいRTLベースのTSC手法である。
論文 参考訳(メタデータ) (2023-06-13T05:58:57Z) - Vision-Based Robust Lane Detection and Tracking under Different
Challenging Environmental Conditions [8.312192184427762]
レーンマーキング検出は、どちらも先進運転支援システムの基本である。
本稿では,3つの重要な技術を用いた頑健な車線検出・追跡手法を提案する。
実験の結果、平均検出率は97.55%であり、平均処理時間は22.33msec/frameであることがわかった。
論文 参考訳(メタデータ) (2022-10-19T01:25:21Z) - Row-wise LiDAR Lane Detection Network with Lane Correlation Refinement [1.6832237384792461]
行ワイズ検出手法を用いた2段LiDARレーン検出ネットワークを提案する。
第1段ネットワークは、グローバルな特徴相関器バックボーンと行ワイド検出ヘッドを介してレーン提案を生成する。
提案したネットワークは、GFLOPを30%削減したF1スコアで最先端のネットワークを推進している。
論文 参考訳(メタデータ) (2022-10-17T04:47:08Z) - A Keypoint-based Global Association Network for Lane Detection [47.93323407661912]
レーン検出は、レーンラインの複雑なトポロジー形状を予測し、異なる種類のレーンを同時に区別する必要がある、困難なタスクである。
新しい視点からレーン検出問題を定式化するためのグローバルアソシエーションネットワーク(GANet)を提案する。
F1スコアはCULaneが79.63%、Tusimpleデータセットが97.71%、高いFPSが97.71%である。
論文 参考訳(メタデータ) (2022-04-15T05:24:04Z) - PersFormer: 3D Lane Detection via Perspective Transformer and the
OpenLane Benchmark [109.03773439461615]
PersFormerは、新しいトランスフォーマーベースの空間特徴変換モジュールを備えた、エンドツーエンドのモノクル3Dレーン検出器である。
高品質なアノテーションとシナリオの多様性を備えたOpenLaneと呼ばれる,最初の大規模な3Dレーンデータセットの1つをリリースしました。
論文 参考訳(メタデータ) (2022-03-21T16:12:53Z) - Lane Detection Model Based on Spatio-Temporal Network With Double
Convolutional Gated Recurrent Units [11.968518335236787]
レーン検出は今後しばらくは未解決の問題として残るだろう。
二重円錐 Gated Recurrent Units (ConvGRUs) を用いた時空間ネットワークは、困難なシーンにおける車線検出に対処することを提案した。
我々のモデルは最先端の車線検出モデルより優れている。
論文 参考訳(メタデータ) (2020-08-10T06:50:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。