論文の概要: RESA: Recurrent Feature-Shift Aggregator for Lane Detection
- arxiv url: http://arxiv.org/abs/2008.13719v2
- Date: Thu, 25 Mar 2021 17:14:56 GMT
- ステータス: 処理完了
- システム内更新日: 2022-10-23 07:19:35.714050
- Title: RESA: Recurrent Feature-Shift Aggregator for Lane Detection
- Title(参考訳): RESA: レーン検出のための繰り返し特徴シフトアグリゲータ
- Authors: Tu Zheng, Hao Fang, Yi Zhang, Wenjian Tang, Zheng Yang, Haifeng Liu,
Deng Cai
- Abstract要約: 通常のCNNを用いた予備的特徴抽出の後,車線特徴量を高めるために,Recurrent Feature-Shift Aggregator (RESA) という新しいモジュールを提案する。
RESAは、スライスされた特徴写像を集約することで、外観の弱い難解なシナリオでレーンを正確に予測することができる。
提案手法は,2つの人気のある車線検出ベンチマーク(CULaneとTusimple)の最先端結果を実現する。
- 参考スコア(独自算出の注目度): 32.246537653680484
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Lane detection is one of the most important tasks in self-driving. Due to
various complex scenarios (e.g., severe occlusion, ambiguous lanes, etc.) and
the sparse supervisory signals inherent in lane annotations, lane detection
task is still challenging. Thus, it is difficult for the ordinary convolutional
neural network (CNN) to train in general scenes to catch subtle lane feature
from the raw image. In this paper, we present a novel module named REcurrent
Feature-Shift Aggregator (RESA) to enrich lane feature after preliminary
feature extraction with an ordinary CNN. RESA takes advantage of strong shape
priors of lanes and captures spatial relationships of pixels across rows and
columns. It shifts sliced feature map recurrently in vertical and horizontal
directions and enables each pixel to gather global information. RESA can
conjecture lanes accurately in challenging scenarios with weak appearance clues
by aggregating sliced feature map. Moreover, we propose a Bilateral Up-Sampling
Decoder that combines coarse-grained and fine-detailed features in the
up-sampling stage. It can recover the low-resolution feature map into
pixel-wise prediction meticulously. Our method achieves state-of-the-art
results on two popular lane detection benchmarks (CULane and Tusimple). Code
has been made available at: https://github.com/ZJULearning/resa.
- Abstract(参考訳): レーン検出は、自動運転における最も重要なタスクの1つだ。
様々な複雑なシナリオ(例えば、重篤な閉塞、曖昧な車線など)と車線アノテーションに固有の疎い監視信号のため、車線検出タスクは依然として困難である。
したがって、通常の畳み込みニューラルネットワーク(cnn)は、生画像から微妙なレーン特徴を捉えるために、一般的なシーンでトレーニングすることが困難である。
本稿では,通常のCNNで予備的特徴抽出を行った後,車線特徴量を高めるためのRecurrent Feature-Shift Aggregator (RESA) というモジュールを提案する。
RESAはレーンの強い形状を生かし、行や列間のピクセルの空間的関係を捉えている。
スライスされた特徴マップを垂直方向と水平方向に繰り返しシフトし、各ピクセルがグローバル情報を収集できるようにする。
RESAは、スライスされた特徴写像を集約することで、外観の弱い難解なシナリオでレーンを正確に予測することができる。
さらに,上り段の粗粒度と細粒度を組み合わせた2つの上りデコーダを提案する。
解像度の低い特徴マップをピクセルワイズ予測に慎重に復元することができる。
この手法は2つの人気のあるレーン検出ベンチマーク(culaneとtusimple)で最先端の結果を得る。
コードはhttps://github.com/ZJULearning/resa.comで公開されている。
関連論文リスト
- Deep Homography Estimation for Visual Place Recognition [49.235432979736395]
本稿では,変換器を用いたディープホモグラフィー推定(DHE)ネットワークを提案する。
バックボーンネットワークによって抽出された濃密な特徴写像を入力とし、高速で学習可能な幾何的検証のためにホモグラフィーに適合する。
ベンチマークデータセットを用いた実験により,本手法はいくつかの最先端手法より優れていることが示された。
論文 参考訳(メタデータ) (2024-02-25T13:22:17Z) - Sketch and Refine: Towards Fast and Accurate Lane Detection [69.63287721343907]
レーン検出は、現実世界のシナリオの複雑さのため、困難なタスクである。
提案ベースであれキーポイントベースであれ,既存のアプローチでは,車線を効果的かつ効率的に表現することができない。
本稿では,キーポイント法と提案法の両方のメリットを活かした"Sketch-and-Refine"パラダイムを提案する。
実験の結果、我々のSRLaneは高速(278 FPS)で走ることができ、F1スコアは78.9%であることがわかった。
論文 参考訳(メタデータ) (2024-01-26T09:28:14Z) - RCLane: Relay Chain Prediction for Lane Detection [76.62424079494285]
本稿では,リレーチェーン予測に基づく車線検出手法を提案する。
当社の戦略では,TuSimple,CULane,CurveLanes,LLAMASの4つの主要なベンチマーク上で,最先端の新たなベンチマークを確立することが可能です。
論文 参考訳(メタデータ) (2022-07-19T16:48:39Z) - Ultra Fast Deep Lane Detection with Hybrid Anchor Driven Ordinal
Classification [13.735482211178931]
本稿では,超高速を実現するための新しい,シンプルで効果的な定式化法と,挑戦シナリオの課題を提案する。
具体的には,大域的特徴を用いたアンカー駆動型順序分類問題として,車線検出のプロセスを扱う。
提案手法は,速度と精度の両面で最先端の性能を実現することができる。
論文 参考訳(メタデータ) (2022-06-15T08:53:02Z) - Lane detection with Position Embedding [14.720302401952157]
通常のCNNを用いた予備的特徴抽出後の車線特徴量向上のための新しいモジュールを提案する。
空間的特徴を高めるため,RESAに基づく位置埋め込み手法を提案する。
実験の結果、この手法はTusimpleデータセット上で96.93%の精度を達成した。
論文 参考訳(メタデータ) (2022-03-23T09:48:59Z) - PersFormer: 3D Lane Detection via Perspective Transformer and the
OpenLane Benchmark [109.03773439461615]
PersFormerは、新しいトランスフォーマーベースの空間特徴変換モジュールを備えた、エンドツーエンドのモノクル3Dレーン検出器である。
高品質なアノテーションとシナリオの多様性を備えたOpenLaneと呼ばれる,最初の大規模な3Dレーンデータセットの1つをリリースしました。
論文 参考訳(メタデータ) (2022-03-21T16:12:53Z) - Lane Detection with Versatile AtrousFormer and Local Semantic Guidance [92.83267435275802]
車線検出は自動運転における中核機能の一つである。
既存のほとんどの手法はCNNベースの手法に頼っている。
本稿では,この問題を解決するためにAtrous Transformer (AtrousFormer)を提案する。
論文 参考訳(メタデータ) (2022-03-08T13:25:35Z) - Heatmap-based Vanishing Point boosts Lane Detection [3.8170259685864165]
高速車線検出のためのマルチタスク・フュージョン・ネットワークアーキテクチャを提案する。
提案した融合戦略は、公開CULaneデータセットを用いて検証された。
実験結果から,本手法の車線検出精度は,最先端(SOTA)法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2020-07-30T17:17:00Z) - Multiview Detection with Feature Perspective Transformation [59.34619548026885]
本稿では,新しいマルチビュー検出システムMVDetを提案する。
我々は,平面上に特徴写像を投影することで,多視点情報を集約するアンカーフリーアプローチを採っている。
私たちのモデル全体がエンドツーエンドで学習可能で、標準のWildtrackデータセットで88.2%のMODAを実現しています。
論文 参考訳(メタデータ) (2020-07-14T17:58:30Z) - LR-CNN: Local-aware Region CNN for Vehicle Detection in Aerial Imagery [43.91170581467171]
最先端の物体検出手法は、大規模な空中画像において、任意の向きの密集した小さなターゲットを検出するのに困難である。
本稿では,航空画像における車両検出のための新しい2段階アプローチとして,地域認識型地域畳み込みニューラルネットワーク(LR-CNN)を提案する。
論文 参考訳(メタデータ) (2020-05-28T19:57:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。