論文の概要: Structure Guided Lane Detection
- arxiv url: http://arxiv.org/abs/2105.05403v1
- Date: Wed, 12 May 2021 02:35:00 GMT
- ステータス: 処理完了
- システム内更新日: 2021-05-13 23:12:57.548004
- Title: Structure Guided Lane Detection
- Title(参考訳): 構造案内車線検出
- Authors: Jinming Su, Chao Chen, Ke Zhang, Junfeng Luo, Xiaoming Wei and Xiaolin
Wei
- Abstract要約: レーン検出は、ディープニューラルネットワークと自動運転の急速な開発で大きな進歩を遂げた。
レーンの特徴付け、シーンとレーンの構造的関係のモデル化、レーンのより多くの属性(例と型)のサポートなど、主に3つの問題がある。
本稿では,これらの問題を解決するための新しい構造誘導フレームワークを提案する。
- 参考スコア(独自算出の注目度): 9.198190304197107
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Recently, lane detection has made great progress with the rapid development
of deep neural networks and autonomous driving. However, there exist three
mainly problems including characterizing lanes, modeling the structural
relationship between scenes and lanes, and supporting more attributes (e.g.,
instance and type) of lanes. In this paper, we propose a novel structure guided
framework to solve these problems simultaneously. In the framework, we first
introduce a new lane representation to characterize each instance. Then a
topdown vanishing point guided anchoring mechanism is proposed to produce
intensive anchors, which efficiently capture various lanes. Next, multi-level
structural constraints are used to improve the perception of lanes. In the
process, pixel-level perception with binary segmentation is introduced to
promote features around anchors and restore lane details from bottom up, a
lane-level relation is put forward to model structures (i.e., parallel) around
lanes, and an image-level attention is used to adaptively attend different
regions of the image from the perspective of scenes. With the help of
structural guidance, anchors are effectively classified and regressed to obtain
precise locations and shapes. Extensive experiments on public benchmark
datasets show that the proposed approach outperforms state-of-the-art methods
with 117 FPS on a single GPU.
- Abstract(参考訳): 近年、車線検出はディープニューラルネットワークと自律運転の急速な発展で大きな進歩を遂げている。
しかし、レーンの特徴付け、シーンとレーンの構造的関係のモデル化、レーンのより多くの属性(例と型)のサポートなど、主に3つの問題が存在する。
本稿では,これらの問題を解決するための新しい構造誘導フレームワークを提案する。
フレームワークではまず,各インスタンスを特徴付ける新しいレーン表現を導入する。
そして、様々なレーンを効率的に捕捉する集中アンカーを生成するために、トップダウン消滅点誘導アンカー機構を提案する。
次に、レーンの知覚を改善するために多層構造制約を用いる。
この過程では、アンカー周辺の特徴と車線詳細の復元をボトムアップから促進するためにバイナリセグメンテーションによる画素レベルの知覚を導入し、レーン周辺のモデル構造(すなわち並列)にレーンレベルの関係を前進させ、シーンの観点から画像の異なる領域に適応的に注目する。
構造誘導の助けを借りて、アンカーは効果的に分類され、正確な位置と形状を得るために後退する。
公開ベンチマークデータセットに関する広範な実験は、提案手法が1つのgpu上で117fpsで最先端のメソッドを上回ることを示している。
関連論文リスト
- Monocular Lane Detection Based on Deep Learning: A Survey [51.19079381823076]
車線検出は自律運転認識システムにおいて重要な役割を果たす。
ディープラーニングアルゴリズムが普及するにつれて、ディープラーニングに基づく単眼車線検出手法が優れた性能を示した。
本稿では, 成熟度の高い2次元車線検出手法と開発途上国の3次元車線検出技術の両方を網羅して, 既存手法の概要を概説する。
論文 参考訳(メタデータ) (2024-11-25T12:09:43Z) - LaneTCA: Enhancing Video Lane Detection with Temporal Context Aggregation [87.71768494466959]
LaneTCAは個々のビデオフレームをブリッジし、時間的コンテキストを効果的に集約する方法を探る。
本研究では,長期的・短期的文脈を抽象化するアキュマティブアテンションモジュールと隣接アテンションモジュールを開発する。
2つのモジュールは、トランスフォーマーアーキテクチャに基づいて慎重に設計されている。
論文 参考訳(メタデータ) (2024-08-25T14:46:29Z) - Sketch and Refine: Towards Fast and Accurate Lane Detection [69.63287721343907]
レーン検出は、現実世界のシナリオの複雑さのため、困難なタスクである。
提案ベースであれキーポイントベースであれ,既存のアプローチでは,車線を効果的かつ効率的に表現することができない。
本稿では,キーポイント法と提案法の両方のメリットを活かした"Sketch-and-Refine"パラダイムを提案する。
実験の結果、我々のSRLaneは高速(278 FPS)で走ることができ、F1スコアは78.9%であることがわかった。
論文 参考訳(メタデータ) (2024-01-26T09:28:14Z) - HoughLaneNet: Lane Detection with Deep Hough Transform and Dynamic
Convolution [8.97991745734826]
レーンは狭く、断片化され、しばしば交通量が多いために、検出の困難を生じさせる。
画像中のすべての車線特徴をHoughパラメータ空間に組み合わせた階層的Deep Hough Transform (DHT) 手法を提案する。
提案するネットワーク構造は,重閉塞あるいは摩耗された車線画像の検出性能の向上を実証する。
論文 参考訳(メタデータ) (2023-07-07T10:08:29Z) - Online Lane Graph Extraction from Onboard Video [133.68032636906133]
オンボードカメラからの映像ストリームを、周囲のレーングラフのオンライン抽出に使用しています。
入力が1つの画像ではなくビデオを使うことは、異なるタイムステップからの情報を組み合わせることのメリットと課題の両方をもたらす。
提案手法の1つのモデルでは、1つを含む任意の数の画像を処理し、正確なレーングラフを生成することができる。
論文 参考訳(メタデータ) (2023-04-03T12:36:39Z) - RCLane: Relay Chain Prediction for Lane Detection [76.62424079494285]
本稿では,リレーチェーン予測に基づく車線検出手法を提案する。
当社の戦略では,TuSimple,CULane,CurveLanes,LLAMASの4つの主要なベンチマーク上で,最先端の新たなベンチマークを確立することが可能です。
論文 参考訳(メタデータ) (2022-07-19T16:48:39Z) - Laneformer: Object-aware Row-Column Transformers for Lane Detection [96.62919884511287]
Laneformerは、自動運転における車線検出に適したトランスフォーマーベースのアーキテクチャである。
様々な視覚タスクにおけるトランスフォーマーエンコーダ・デコーダアーキテクチャの最近の進歩に触発されて、我々は新しいエンドツーエンドのLaneformerアーキテクチャの設計を進める。
論文 参考訳(メタデータ) (2022-03-18T10:14:35Z) - End-to-end Lane Shape Prediction with Transformers [13.103463647059634]
車線検出は、車両の車線離脱警告と適応クルーズ制御に広く用いられている。
レーン形状モデルのパラメータを直接出力するエンドツーエンド手法を提案する。
提案手法はTuSimpleベンチマークで検証され,最も軽量なモデルサイズと高速な速度で最先端の精度を示す。
論文 参考訳(メタデータ) (2020-11-09T07:42:55Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。