論文の概要: Lane Detection Model Based on Spatio-Temporal Network With Double
Convolutional Gated Recurrent Units
- arxiv url: http://arxiv.org/abs/2008.03922v2
- Date: Sat, 27 Feb 2021 11:59:41 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-31 22:55:56.799693
- Title: Lane Detection Model Based on Spatio-Temporal Network With Double
Convolutional Gated Recurrent Units
- Title(参考訳): 二重畳み込み同期ユニットを用いた時空間ネットワークに基づく車線検出モデル
- Authors: Jiyong Zhang, Tao Deng, Fei Yan and Wenbo Liu
- Abstract要約: レーン検出は今後しばらくは未解決の問題として残るだろう。
二重円錐 Gated Recurrent Units (ConvGRUs) を用いた時空間ネットワークは、困難なシーンにおける車線検出に対処することを提案した。
我々のモデルは最先端の車線検出モデルより優れている。
- 参考スコア(独自算出の注目度): 11.968518335236787
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Lane detection is one of the indispensable and key elements of self-driving
environmental perception. Many lane detection models have been proposed,
solving lane detection under challenging conditions, including intersection
merging and splitting, curves, boundaries, occlusions and combinations of scene
types. Nevertheless, lane detection will remain an open problem for some time
to come. The ability to cope well with those challenging scenes impacts greatly
the applications of lane detection on advanced driver assistance systems
(ADASs). In this paper, a spatio-temporal network with double Convolutional
Gated Recurrent Units (ConvGRUs) is proposed to address lane detection in
challenging scenes. Both of ConvGRUs have the same structures, but different
locations and functions in our network. One is used to extract the information
of the most likely low-level features of lane markings. The extracted features
are input into the next layer of the end-to-end network after concatenating
them with the outputs of some blocks. The other one takes some continuous
frames as its input to process the spatio-temporal driving information.
Extensive experiments on the large-scale TuSimple lane marking challenge
dataset and Unsupervised LLAMAS dataset demonstrate that the proposed model can
effectively detect lanes in the challenging driving scenes. Our model can
outperform the state-of-the-art lane detection models.
- Abstract(参考訳): レーン検出は、自動運転環境認識において不可欠かつ重要な要素の1つである。
多くのレーン検出モデルが提案されており、交差点のマージと分割、曲線、境界、閉塞、シーンタイプの組み合わせなど、困難な条件下でレーン検出を解く。
それでも、レーン検出は今後しばらくの間、オープンな問題であり続けるだろう。
これらの難題にうまく対処する能力は、高度な運転支援システム(ADAS)における車線検出の応用に大きな影響を及ぼす。
本稿では,二重畳み込みGated Recurrent Units (ConvGRUs) を用いた時空間ネットワークを提案する。
ConvGRUはどちらも同じ構造ですが、ネットワーク内の場所や機能が異なるのです。
1つは、レーンマーキングの最も低レベルな特徴の情報を抽出するために使用される。
抽出された特徴は、いくつかのブロックの出力と結合した後、エンドツーエンドネットワークの次の層に入力される。
もう一方は連続フレームを入力として、時空間駆動情報を処理する。
大規模TuSimpleレーンマーキングチャレンジデータセットとUnsupervised LLAMASデータセットの大規模な実験により、提案モデルが困難運転シーンのレーンを効果的に検出できることが実証された。
我々のモデルは最先端の車線検出モデルより優れている。
関連論文リスト
- Monocular Lane Detection Based on Deep Learning: A Survey [51.19079381823076]
車線検出は自律運転認識システムにおいて重要な役割を果たす。
ディープラーニングアルゴリズムが普及するにつれて、ディープラーニングに基づく単眼車線検出手法が優れた性能を示した。
本稿では, 成熟度の高い2次元車線検出手法と開発途上国の3次元車線検出技術の両方を網羅して, 既存手法の概要を概説する。
論文 参考訳(メタデータ) (2024-11-25T12:09:43Z) - Attention-based U-Net Method for Autonomous Lane Detection [0.5461938536945723]
本研究では,ディープラーニングに基づく2つのレーン認識手法を提案する。
最初の方法はFPN(Feature Pyramid Network)モデルを用いており、道路車線検出の精度は87.59%である。
注意層をU-Netモデルに組み込んだ第2の手法はセマンティックセグメンテーションタスクの性能を大幅に向上させる。
論文 参考訳(メタデータ) (2024-11-16T22:20:11Z) - OpenLane-V2: A Topology Reasoning Benchmark for Unified 3D HD Mapping [84.65114565766596]
交通シーン構造を考慮したトポロジ推論のための最初のデータセットであるOpenLane-V2を提案する。
OpenLane-V2は2000のアノテートされた道路シーンで構成され、交通要素と車線との関係を記述している。
様々な最先端手法を評価し,OpenLane-V2の定量的,定性的な結果を示し,交通現場におけるトポロジ推論の今後の道筋を示す。
論文 参考訳(メタデータ) (2023-04-20T16:31:22Z) - Graph-based Topology Reasoning for Driving Scenes [102.35885039110057]
TopoNetは、従来の知覚タスクを超えてトラフィック知識を抽象化できる最初のエンドツーエンドフレームワークである。
TopoNetを,難解なシーン理解ベンチマークOpenLane-V2で評価した。
論文 参考訳(メタデータ) (2023-04-11T15:23:29Z) - Blind-Spot Collision Detection System for Commercial Vehicles Using
Multi Deep CNN Architecture [0.17499351967216337]
高レベル特徴記述子に基づく2つの畳み込みニューラルネットワーク(CNN)は、重車両の盲点衝突を検出するために提案される。
盲点車両検出のための高次特徴抽出のための2つの事前学習ネットワークを統合するために,融合手法を提案する。
機能の融合により、より高速なR-CNNの性能が大幅に向上し、既存の最先端手法よりも優れていた。
論文 参考訳(メタデータ) (2022-08-17T11:10:37Z) - RCLane: Relay Chain Prediction for Lane Detection [76.62424079494285]
本稿では,リレーチェーン予測に基づく車線検出手法を提案する。
当社の戦略では,TuSimple,CULane,CurveLanes,LLAMASの4つの主要なベンチマーク上で,最先端の新たなベンチマークを確立することが可能です。
論文 参考訳(メタデータ) (2022-07-19T16:48:39Z) - Laneformer: Object-aware Row-Column Transformers for Lane Detection [96.62919884511287]
Laneformerは、自動運転における車線検出に適したトランスフォーマーベースのアーキテクチャである。
様々な視覚タスクにおけるトランスフォーマーエンコーダ・デコーダアーキテクチャの最近の進歩に触発されて、我々は新しいエンドツーエンドのLaneformerアーキテクチャの設計を進める。
論文 参考訳(メタデータ) (2022-03-18T10:14:35Z) - Lane Detection with Versatile AtrousFormer and Local Semantic Guidance [92.83267435275802]
車線検出は自動運転における中核機能の一つである。
既存のほとんどの手法はCNNベースの手法に頼っている。
本稿では,この問題を解決するためにAtrous Transformer (AtrousFormer)を提案する。
論文 参考訳(メタデータ) (2022-03-08T13:25:35Z) - Lane detection in complex scenes based on end-to-end neural network [10.955885950313103]
レーン検出は、無人運転における導出可能な領域の分割を解決するための鍵となる問題である。
様々な複雑なシーンにおける車線検出のためのエンド・ツー・エンドネットワークを提案する。
我々のネットワークはCULaneデータベース上でテストされ、IOU閾値0.5のF1測定値は71.9%に達する。
論文 参考訳(メタデータ) (2020-10-26T08:46:35Z) - Heatmap-based Vanishing Point boosts Lane Detection [3.8170259685864165]
高速車線検出のためのマルチタスク・フュージョン・ネットワークアーキテクチャを提案する。
提案した融合戦略は、公開CULaneデータセットを用いて検証された。
実験結果から,本手法の車線検出精度は,最先端(SOTA)法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2020-07-30T17:17:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。