論文の概要: CLRNet: Cross Layer Refinement Network for Lane Detection
- arxiv url: http://arxiv.org/abs/2203.10350v1
- Date: Sat, 19 Mar 2022 16:11:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-22 16:55:19.582405
- Title: CLRNet: Cross Layer Refinement Network for Lane Detection
- Title(参考訳): CLRNet:レーン検出のためのクロスレイヤリファインメントネットワーク
- Authors: Tu Zheng, Yifei Huang, Yang Liu, Wenjian Tang, Zheng Yang, Deng Cai,
Xiaofei He
- Abstract要約: レーン検出における高レベル特徴と低レベル特徴の両面をフル活用することを目的としたCross Layer Refinement Network(CLRNet)を提案する。
CLRNetはまず、ハイレベルなセマンティック機能を備えたレーンを検出し、低レベルな機能に基づいて改善を行う。
新たなネットワーク設計に加えて,Line IoU損失(Line IoU損失)を導入し,車線全体を単位として局所化精度を向上させる。
- 参考スコア(独自算出の注目度): 36.10035201796672
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Lane is critical in the vision navigation system of the intelligent vehicle.
Naturally, lane is a traffic sign with high-level semantics, whereas it owns
the specific local pattern which needs detailed low-level features to localize
accurately. Using different feature levels is of great importance for accurate
lane detection, but it is still under-explored. In this work, we present Cross
Layer Refinement Network (CLRNet) aiming at fully utilizing both high-level and
low-level features in lane detection. In particular, it first detects lanes
with high-level semantic features then performs refinement based on low-level
features. In this way, we can exploit more contextual information to detect
lanes while leveraging local detailed lane features to improve localization
accuracy. We present ROIGather to gather global context, which further enhances
the feature representation of lanes. In addition to our novel network design,
we introduce Line IoU loss which regresses the lane line as a whole unit to
improve the localization accuracy. Experiments demonstrate that the proposed
method greatly outperforms the state-of-the-art lane detection approaches.
- Abstract(参考訳): レーンはインテリジェントな車両の視覚ナビゲーションシステムにおいて重要である。
レーンは当然、高レベルのセマンティクスを持つトラフィックサインであるが、正確にローレベルの詳細な特徴を必要とする特定のローカルパターンを所有している。
正確なレーン検出には、異なる機能レベルを使用することが非常に重要であるが、まだ検討中である。
本稿では,レーン検出におけるハイレベルと低レベル両方の機能を十分に活用することを目的とした,クロスレイヤリファインメントネットワーク(clrnet)を提案する。
特に、まずハイレベルなセマンティックな特徴を持つレーンを検出し、低レベルな特徴に基づいて改善を行う。
このようにして、局所的な詳細な車線特徴を活用して、より文脈的な情報を利用して車線を検知し、ローカライズ精度を向上させることができる。
我々はroigatherを用いてグローバルコンテキストを収集し,レーンの特徴表現をさらに強化する。
新たなネットワーク設計に加えて,Line IoU損失(Line IoU損失)を導入し,車線全体を単位として局所化精度を向上させる。
実験により,提案手法が最先端の車線検出手法を大きく上回ることを示した。
関連論文リスト
- Monocular Lane Detection Based on Deep Learning: A Survey [51.19079381823076]
車線検出は自律運転認識システムにおいて重要な役割を果たす。
ディープラーニングアルゴリズムが普及するにつれて、ディープラーニングに基づく単眼車線検出手法が優れた性能を示した。
本稿では, 成熟度の高い2次元車線検出手法と開発途上国の3次元車線検出技術の両方を網羅して, 既存手法の概要を概説する。
論文 参考訳(メタデータ) (2024-11-25T12:09:43Z) - Sketch and Refine: Towards Fast and Accurate Lane Detection [69.63287721343907]
レーン検出は、現実世界のシナリオの複雑さのため、困難なタスクである。
提案ベースであれキーポイントベースであれ,既存のアプローチでは,車線を効果的かつ効率的に表現することができない。
本稿では,キーポイント法と提案法の両方のメリットを活かした"Sketch-and-Refine"パラダイムを提案する。
実験の結果、我々のSRLaneは高速(278 FPS)で走ることができ、F1スコアは78.9%であることがわかった。
論文 参考訳(メタデータ) (2024-01-26T09:28:14Z) - HoughLaneNet: Lane Detection with Deep Hough Transform and Dynamic
Convolution [8.97991745734826]
レーンは狭く、断片化され、しばしば交通量が多いために、検出の困難を生じさせる。
画像中のすべての車線特徴をHoughパラメータ空間に組み合わせた階層的Deep Hough Transform (DHT) 手法を提案する。
提案するネットワーク構造は,重閉塞あるいは摩耗された車線画像の検出性能の向上を実証する。
論文 参考訳(メタデータ) (2023-07-07T10:08:29Z) - BSNet: Lane Detection via Draw B-spline Curves Nearby [21.40607319558899]
曲線に基づく車線検出手法を,車線表現のグローバル性と局所性の観点から再検討する。
我々は,グローバルな特徴とローカルな特徴の獲得を確実にするために,シンプルで効率的なネットワークBSNetを設計する。
提案手法は,Tusimple,CULane,LLAMASデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2023-01-17T14:25:40Z) - RCLane: Relay Chain Prediction for Lane Detection [76.62424079494285]
本稿では,リレーチェーン予測に基づく車線検出手法を提案する。
当社の戦略では,TuSimple,CULane,CurveLanes,LLAMASの4つの主要なベンチマーク上で,最先端の新たなベンチマークを確立することが可能です。
論文 参考訳(メタデータ) (2022-07-19T16:48:39Z) - Lane Detection with Versatile AtrousFormer and Local Semantic Guidance [92.83267435275802]
車線検出は自動運転における中核機能の一つである。
既存のほとんどの手法はCNNベースの手法に頼っている。
本稿では,この問題を解決するためにAtrous Transformer (AtrousFormer)を提案する。
論文 参考訳(メタデータ) (2022-03-08T13:25:35Z) - Global Context-Aware Progressive Aggregation Network for Salient Object
Detection [117.943116761278]
我々は,低レベルな外観特徴,高レベルな意味特徴,グローバルな文脈特徴を統合化するための新しいネットワークGCPANetを提案する。
提案手法は, 定量的かつ定性的に, 最先端の手法よりも優れていることを示す。
論文 参考訳(メタデータ) (2020-03-02T04:26:10Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。