論文の概要: Ultra Fast Deep Lane Detection with Hybrid Anchor Driven Ordinal
Classification
- arxiv url: http://arxiv.org/abs/2206.07389v1
- Date: Wed, 15 Jun 2022 08:53:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-06-16 14:14:02.674166
- Title: Ultra Fast Deep Lane Detection with Hybrid Anchor Driven Ordinal
Classification
- Title(参考訳): ハイブリッドアンカー駆動順序分類による超高速深部レーン検出
- Authors: Zequn Qin, Pengyi Zhang, Xi Li
- Abstract要約: 本稿では,超高速を実現するための新しい,シンプルで効果的な定式化法と,挑戦シナリオの課題を提案する。
具体的には,大域的特徴を用いたアンカー駆動型順序分類問題として,車線検出のプロセスを扱う。
提案手法は,速度と精度の両面で最先端の性能を実現することができる。
- 参考スコア(独自算出の注目度): 13.735482211178931
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern methods mainly regard lane detection as a problem of pixel-wise
segmentation, which is struggling to address the problems of efficiency and
challenging scenarios like severe occlusions and extreme lighting conditions.
Inspired by human perception, the recognition of lanes under severe occlusions
and extreme lighting conditions is mainly based on contextual and global
information. Motivated by this observation, we propose a novel, simple, yet
effective formulation aiming at ultra fast speed and the problem of challenging
scenarios. Specifically, we treat the process of lane detection as an
anchor-driven ordinal classification problem using global features. First, we
represent lanes with sparse coordinates on a series of hybrid (row and column)
anchors. With the help of the anchor-driven representation, we then reformulate
the lane detection task as an ordinal classification problem to get the
coordinates of lanes. Our method could significantly reduce the computational
cost with the anchor-driven representation. Using the large receptive field
property of the ordinal classification formulation, we could also handle
challenging scenarios. Extensive experiments on four lane detection datasets
show that our method could achieve state-of-the-art performance in terms of
both speed and accuracy. A lightweight version could even achieve 300+ frames
per second(FPS). Our code is at
https://github.com/cfzd/Ultra-Fast-Lane-Detection-v2.
- Abstract(参考訳): 現代の方法では、車線検出をピクセルワイドセグメンテーションの問題と見なしており、これは効率と厳しい閉塞や極端な照明条件のような挑戦的なシナリオの解決に苦慮している。
人間の知覚に触発されて、厳しい閉塞と極端な照明条件下での車線認識は主に文脈情報とグローバル情報に基づいている。
この観察に動機づけられ,超高速と挑戦的シナリオの問題を目的とした,新しい,単純かつ効果的な定式化を提案する。
具体的には,レーン検出の過程を,グローバル特徴量を用いたアンカー型順序分類問題として扱う。
まず、一連のハイブリッド(ロウとカラム)アンカー上にスパース座標を持つレーンを表す。
アンカー駆動型表現の助けを借りて、レーン検出タスクを順序分類問題として再編成し、レーンの座標を得る。
提案手法は,アンカー駆動表現による計算コストを大幅に削減できる。
順序分類定式化の大きな受容場特性を用いることで、難解なシナリオにも対処できる。
4車線検出データセットを広範囲に実験した結果,本手法は速度と精度の両面で最先端の性能を実現することができた。
軽量版では300フレーム/秒(fps)以上を達成することもできる。
私たちのコードはhttps://github.com/cfzd/Ultra-Fast-Lane-Detection-v2にあります。
関連論文リスト
- Homography Guided Temporal Fusion for Road Line and Marking Segmentation [73.47092021519245]
道路線やマーキングは、移動車両、影、グレアの存在下でしばしば閉鎖される。
本稿では,映像フレームを補足的に利用するHomography Guided Fusion (HomoFusion) モジュールを提案する。
カメラ固有のデータと地上平面の仮定をクロスフレーム対応に利用することにより,高速・高精度性能が向上した軽量ネットワークの実現が期待できることを示す。
論文 参考訳(メタデータ) (2024-04-11T10:26:40Z) - Sketch and Refine: Towards Fast and Accurate Lane Detection [69.63287721343907]
レーン検出は、現実世界のシナリオの複雑さのため、困難なタスクである。
提案ベースであれキーポイントベースであれ,既存のアプローチでは,車線を効果的かつ効率的に表現することができない。
本稿では,キーポイント法と提案法の両方のメリットを活かした"Sketch-and-Refine"パラダイムを提案する。
実験の結果、我々のSRLaneは高速(278 FPS)で走ることができ、F1スコアは78.9%であることがわかった。
論文 参考訳(メタデータ) (2024-01-26T09:28:14Z) - Correlating sparse sensing for large-scale traffic speed estimation: A
Laplacian-enhanced low-rank tensor kriging approach [76.45949280328838]
本稿では,Laplacian enhanced Low-rank tensor (LETC) フレームワークを提案する。
次に,提案したモデルをネットワークワイド・クリグにスケールアップするために,複数の有効な数値手法を用いて効率的な解アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-10-21T07:25:57Z) - Lane Detection with Versatile AtrousFormer and Local Semantic Guidance [92.83267435275802]
車線検出は自動運転における中核機能の一つである。
既存のほとんどの手法はCNNベースの手法に頼っている。
本稿では,この問題を解決するためにAtrous Transformer (AtrousFormer)を提案する。
論文 参考訳(メタデータ) (2022-03-08T13:25:35Z) - Anchor-Free Person Search [127.88668724345195]
パーソンサーチ(person search)は、クエリーの人物を同時にローカライズし、特定することを目的としている。
既存の作品の多くはfaster-rcnnのような2段検出器を採用しており、精度は高いが計算オーバーヘッドは高い。
この課題に効率的に取り組む最初のアンカーフリーフレームワークであるFeature-Aligned Person Search Network(AlignPS)を紹介します。
論文 参考訳(メタデータ) (2021-03-22T07:04:29Z) - RESA: Recurrent Feature-Shift Aggregator for Lane Detection [32.246537653680484]
通常のCNNを用いた予備的特徴抽出の後,車線特徴量を高めるために,Recurrent Feature-Shift Aggregator (RESA) という新しいモジュールを提案する。
RESAは、スライスされた特徴写像を集約することで、外観の弱い難解なシナリオでレーンを正確に予測することができる。
提案手法は,2つの人気のある車線検出ベンチマーク(CULaneとTusimple)の最先端結果を実現する。
論文 参考訳(メタデータ) (2020-08-31T16:37:30Z) - Lane Detection Model Based on Spatio-Temporal Network With Double
Convolutional Gated Recurrent Units [11.968518335236787]
レーン検出は今後しばらくは未解決の問題として残るだろう。
二重円錐 Gated Recurrent Units (ConvGRUs) を用いた時空間ネットワークは、困難なシーンにおける車線検出に対処することを提案した。
我々のモデルは最先端の車線検出モデルより優れている。
論文 参考訳(メタデータ) (2020-08-10T06:50:48Z) - CurveLane-NAS: Unifying Lane-Sensitive Architecture Search and Adaptive
Point Blending [102.98909328368481]
CurveLane-NASは、レーンに敏感なアーキテクチャ検索フレームワークである。
長距離コヒーレントと正確な短距離曲線情報の両方をキャプチャする。
点ブレンディングによる曲線線予測において、アーキテクチャ探索と後処理の両方を統一する。
論文 参考訳(メタデータ) (2020-07-23T17:23:26Z) - Ultra Fast Structure-aware Deep Lane Detection [15.738757958826998]
極めて高速かつ挑戦的なシナリオを対象とした,新しい,シンプルで効果的な定式化を提案する。
路面検出の過程を,グローバルな特徴を用いた行選択問題として扱う。
提案手法は,速度と精度の両面で最先端の性能を実現することができる。
論文 参考訳(メタデータ) (2020-04-24T13:58:49Z) - Map-Enhanced Ego-Lane Detection in the Missing Feature Scenarios [26.016292792373815]
本稿では,検出アルゴリズムの性能向上に優れた,デジタル地図に含まれる事前知識を活用する。
このようにして、路面形状と実車線の位置誤差を除去するためには、少数の車線特徴しか必要としない。
実験の結果,提案手法は様々なシナリオに適用可能であり,20Hzの周波数でリアルタイムに動作可能であることがわかった。
論文 参考訳(メタデータ) (2020-04-02T16:06:48Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。