論文の概要: Lane Detection with Versatile AtrousFormer and Local Semantic Guidance
- arxiv url: http://arxiv.org/abs/2203.04067v1
- Date: Tue, 8 Mar 2022 13:25:35 GMT
- ステータス: 処理完了
- システム内更新日: 2022-03-09 13:50:39.806996
- Title: Lane Detection with Versatile AtrousFormer and Local Semantic Guidance
- Title(参考訳): Versatile AtrousFormerによる車線検出と局所意味誘導
- Authors: Jiaxing Yang, Lihe Zhang, Huchuan Lu
- Abstract要約: 車線検出は自動運転における中核機能の一つである。
既存のほとんどの手法はCNNベースの手法に頼っている。
本稿では,この問題を解決するためにAtrous Transformer (AtrousFormer)を提案する。
- 参考スコア(独自算出の注目度): 92.83267435275802
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Lane detection is one of the core functions in autonomous driving and has
aroused widespread attention recently. The networks to segment lane instances,
especially with bad appearance, must be able to explore lane distribution
properties. Most existing methods tend to resort to CNN-based techniques. A few
have a try on incorporating the recent adorable, the seq2seq Transformer
\cite{transformer}. However, their innate drawbacks of weak global information
collection ability and exorbitant computation overhead prohibit a wide range of
the further applications. In this work, we propose Atrous Transformer
(AtrousFormer) to solve the problem. Its variant local AtrousFormer is
interleaved into feature extractor to enhance extraction. Their collecting
information first by rows and then by columns in a dedicated manner finally
equips our network with stronger information gleaning ability and better
computation efficiency. To further improve the performance, we also propose a
local semantic guided decoder to delineate the identities and shapes of lanes
more accurately, in which the predicted Gaussian map of the starting point of
each lane serves to guide the process. Extensive results on three challenging
benchmarks (CULane, TuSimple, and BDD100K) show that our network performs
favorably against the state of the arts.
- Abstract(参考訳): レーン検出は自動運転における中核機能の一つであり、近年広く注目を集めている。
レーンインスタンスをセグメント化するネットワークは、特に外観が悪い場合には、レーンの分布特性を探索できなければならない。
既存のほとんどの手法はCNNベースの手法に頼っている。
最近の愛らしいseq2seq Transformer \cite{transformer}を組み込む試みもいくつかある。
しかし、グローバルな情報収集能力の弱点と外乱計算のオーバーヘッドにより、より広範囲の応用が禁止されている。
本研究では,この問題を解決するためにAtrous Transformer (AtrousFormer)を提案する。
その変異型ローカルアトルフォーマーは、抽出を促進するために特徴抽出器にインターリーブされる。
まず行単位で情報を収集し、次にカラムによって専用の方法で情報を収集し、最終的により強力な情報収集能力とより良い計算効率をネットワークに供給します。
さらに,さらに性能を向上させるために,各レーンの開始点のガウス写像が処理の導出に役立ち,レーンの識別性と形状をより正確に示す局所意味的導出デコーダを提案する。
3つの挑戦的なベンチマーク(culane、tusimple、bdd100k)に関する広範な結果は、私たちのネットワークが最先端の芸術に対して好成績を示している。
関連論文リスト
- Monocular Lane Detection Based on Deep Learning: A Survey [51.19079381823076]
車線検出は自律運転認識システムにおいて重要な役割を果たす。
ディープラーニングアルゴリズムが普及するにつれて、ディープラーニングに基づく単眼車線検出手法が優れた性能を示した。
本稿では, 成熟度の高い2次元車線検出手法と開発途上国の3次元車線検出技術の両方を網羅して, 既存手法の概要を概説する。
論文 参考訳(メタデータ) (2024-11-25T12:09:43Z) - Sketch and Refine: Towards Fast and Accurate Lane Detection [69.63287721343907]
レーン検出は、現実世界のシナリオの複雑さのため、困難なタスクである。
提案ベースであれキーポイントベースであれ,既存のアプローチでは,車線を効果的かつ効率的に表現することができない。
本稿では,キーポイント法と提案法の両方のメリットを活かした"Sketch-and-Refine"パラダイムを提案する。
実験の結果、我々のSRLaneは高速(278 FPS)で走ることができ、F1スコアは78.9%であることがわかった。
論文 参考訳(メタデータ) (2024-01-26T09:28:14Z) - HoughLaneNet: Lane Detection with Deep Hough Transform and Dynamic
Convolution [8.97991745734826]
レーンは狭く、断片化され、しばしば交通量が多いために、検出の困難を生じさせる。
画像中のすべての車線特徴をHoughパラメータ空間に組み合わせた階層的Deep Hough Transform (DHT) 手法を提案する。
提案するネットワーク構造は,重閉塞あるいは摩耗された車線画像の検出性能の向上を実証する。
論文 参考訳(メタデータ) (2023-07-07T10:08:29Z) - BSNet: Lane Detection via Draw B-spline Curves Nearby [21.40607319558899]
曲線に基づく車線検出手法を,車線表現のグローバル性と局所性の観点から再検討する。
我々は,グローバルな特徴とローカルな特徴の獲得を確実にするために,シンプルで効率的なネットワークBSNetを設計する。
提案手法は,Tusimple,CULane,LLAMASデータセット上での最先端性能を実現する。
論文 参考訳(メタデータ) (2023-01-17T14:25:40Z) - RCLane: Relay Chain Prediction for Lane Detection [76.62424079494285]
本稿では,リレーチェーン予測に基づく車線検出手法を提案する。
当社の戦略では,TuSimple,CULane,CurveLanes,LLAMASの4つの主要なベンチマーク上で,最先端の新たなベンチマークを確立することが可能です。
論文 参考訳(メタデータ) (2022-07-19T16:48:39Z) - Laneformer: Object-aware Row-Column Transformers for Lane Detection [96.62919884511287]
Laneformerは、自動運転における車線検出に適したトランスフォーマーベースのアーキテクチャである。
様々な視覚タスクにおけるトランスフォーマーエンコーダ・デコーダアーキテクチャの最近の進歩に触発されて、我々は新しいエンドツーエンドのLaneformerアーキテクチャの設計を進める。
論文 参考訳(メタデータ) (2022-03-18T10:14:35Z) - End-to-end Lane Shape Prediction with Transformers [13.103463647059634]
車線検出は、車両の車線離脱警告と適応クルーズ制御に広く用いられている。
レーン形状モデルのパラメータを直接出力するエンドツーエンド手法を提案する。
提案手法はTuSimpleベンチマークで検証され,最も軽量なモデルサイズと高速な速度で最先端の精度を示す。
論文 参考訳(メタデータ) (2020-11-09T07:42:55Z) - RESA: Recurrent Feature-Shift Aggregator for Lane Detection [32.246537653680484]
通常のCNNを用いた予備的特徴抽出の後,車線特徴量を高めるために,Recurrent Feature-Shift Aggregator (RESA) という新しいモジュールを提案する。
RESAは、スライスされた特徴写像を集約することで、外観の弱い難解なシナリオでレーンを正確に予測することができる。
提案手法は,2つの人気のある車線検出ベンチマーク(CULaneとTusimple)の最先端結果を実現する。
論文 参考訳(メタデータ) (2020-08-31T16:37:30Z) - Anchor-free Small-scale Multispectral Pedestrian Detection [88.7497134369344]
適応型単一段アンカーフリーベースアーキテクチャにおける2つのモードの効果的かつ効率的な多重スペクトル融合法を提案する。
我々は,直接的境界ボックス予測ではなく,対象の中心と規模に基づく歩行者表現の学習を目指す。
その結果,小型歩行者の検出における本手法の有効性が示唆された。
論文 参考訳(メタデータ) (2020-08-19T13:13:01Z) - Lane Detection Model Based on Spatio-Temporal Network With Double
Convolutional Gated Recurrent Units [11.968518335236787]
レーン検出は今後しばらくは未解決の問題として残るだろう。
二重円錐 Gated Recurrent Units (ConvGRUs) を用いた時空間ネットワークは、困難なシーンにおける車線検出に対処することを提案した。
我々のモデルは最先端の車線検出モデルより優れている。
論文 参考訳(メタデータ) (2020-08-10T06:50:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。