論文の概要: Ultra Fast Structure-aware Deep Lane Detection
- arxiv url: http://arxiv.org/abs/2004.11757v4
- Date: Wed, 5 Aug 2020 02:59:50 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-10 03:51:15.562909
- Title: Ultra Fast Structure-aware Deep Lane Detection
- Title(参考訳): 超高速構造アウェアディープレーン検出
- Authors: Zequn Qin, Huanyu Wang, and Xi Li
- Abstract要約: 極めて高速かつ挑戦的なシナリオを対象とした,新しい,シンプルで効果的な定式化を提案する。
路面検出の過程を,グローバルな特徴を用いた行選択問題として扱う。
提案手法は,速度と精度の両面で最先端の性能を実現することができる。
- 参考スコア(独自算出の注目度): 15.738757958826998
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Modern methods mainly regard lane detection as a problem of pixel-wise
segmentation, which is struggling to address the problem of challenging
scenarios and speed. Inspired by human perception, the recognition of lanes
under severe occlusion and extreme lighting conditions is mainly based on
contextual and global information. Motivated by this observation, we propose a
novel, simple, yet effective formulation aiming at extremely fast speed and
challenging scenarios. Specifically, we treat the process of lane detection as
a row-based selecting problem using global features. With the help of row-based
selecting, our formulation could significantly reduce the computational cost.
Using a large receptive field on global features, we could also handle the
challenging scenarios. Moreover, based on the formulation, we also propose a
structural loss to explicitly model the structure of lanes. Extensive
experiments on two lane detection benchmark datasets show that our method could
achieve the state-of-the-art performance in terms of both speed and accuracy. A
light-weight version could even achieve 300+ frames per second with the same
resolution, which is at least 4x faster than previous state-of-the-art methods.
Our code will be made publicly available.
- Abstract(参考訳): 現代の手法は、主にレーン検出をピクセルワイドセグメンテーションの問題と見なしており、これは挑戦的なシナリオとスピードの問題に対処するのに苦労している。
人間の知覚に触発されて、激しい閉塞と極端な照明条件下での車線認識は、主に文脈的およびグローバルな情報に基づいている。
この観察に動機づけられ,超高速かつ難解なシナリオを想定した,新しい,単純かつ効果的な定式化を提案する。
具体的には,レーン検出の過程をグローバル特徴量を用いた行選択問題として扱う。
行ベースの選択の助けを借りれば,計算コストを大幅に削減できる。
グローバルな機能に対する大きな受容領域を使用することで、困難なシナリオも処理できます。
さらに, この定式化に基づいて, レーンの構造を明示的にモデル化する構造損失も提案する。
2つの車線検出ベンチマークデータセットの大規模な実験により,本手法は速度と精度の両面で最先端の性能を達成できることが判明した。
軽量版は、同じ解像度で毎秒300フレーム以上を達成でき、従来の最先端の方法よりも少なくとも4倍高速である。
私たちのコードは公開されます。
関連論文リスト
- Sketch and Refine: Towards Fast and Accurate Lane Detection [69.63287721343907]
レーン検出は、現実世界のシナリオの複雑さのため、困難なタスクである。
提案ベースであれキーポイントベースであれ,既存のアプローチでは,車線を効果的かつ効率的に表現することができない。
本稿では,キーポイント法と提案法の両方のメリットを活かした"Sketch-and-Refine"パラダイムを提案する。
実験の結果、我々のSRLaneは高速(278 FPS)で走ることができ、F1スコアは78.9%であることがわかった。
論文 参考訳(メタデータ) (2024-01-26T09:28:14Z) - Global Context Aggregation Network for Lightweight Saliency Detection of
Surface Defects [70.48554424894728]
我々は,エンコーダ・デコーダ構造上の表面欠陥を簡易に検出するためのGCANet(Global Context Aggregation Network)を開発した。
まず、軽量バックボーンの上部層に新しいトランスフォーマーエンコーダを導入し、DSA(Depth-wise Self-Attention)モジュールを通じてグローバルなコンテキスト情報をキャプチャする。
3つの公開欠陥データセットの実験結果から,提案したネットワークは,他の17の最先端手法と比較して,精度と実行効率のトレードオフを良好に達成できることが示された。
論文 参考訳(メタデータ) (2023-09-22T06:19:11Z) - Factorized Inverse Path Tracing for Efficient and Accurate
Material-Lighting Estimation [97.0195314255101]
逆経路追跡は計算に高価であり、反射と放出の間に曖昧さが存在する。
当社のFactized Inverse Path Tracing (FIPT) は, ファクタリング光輸送の定式化によってこれらの課題に対処する。
提案アルゴリズムは, 従来よりも高精度な材料と照明の最適化を実現し, あいまいさの解消に有効である。
論文 参考訳(メタデータ) (2023-04-12T07:46:05Z) - Ultra Fast Deep Lane Detection with Hybrid Anchor Driven Ordinal
Classification [13.735482211178931]
本稿では,超高速を実現するための新しい,シンプルで効果的な定式化法と,挑戦シナリオの課題を提案する。
具体的には,大域的特徴を用いたアンカー駆動型順序分類問題として,車線検出のプロセスを扱う。
提案手法は,速度と精度の両面で最先端の性能を実現することができる。
論文 参考訳(メタデータ) (2022-06-15T08:53:02Z) - SwiftLane: Towards Fast and Efficient Lane Detection [0.8972186395640678]
我々は、軽量でエンドツーエンドのディープラーニングベースのフレームワークであるSwiftLaneと、高速かつ効率的なレーン検出のための行単位の分類定式化を提案する。
提案手法は1秒あたり411フレームの推論速度を実現し,CULaneベンチマークデータセットの精度で比較結果を実現した。
論文 参考訳(メタデータ) (2021-10-22T13:35:05Z) - Learning to Estimate Hidden Motions with Global Motion Aggregation [71.12650817490318]
閉塞は、局所的な証拠に依存する光学フローアルゴリズムに重大な課題をもたらす。
最初の画像でピクセル間の長距離依存性を見つけるために,グローバルモーションアグリゲーションモジュールを導入する。
遮蔽領域における光流量推定が非遮蔽領域における性能を損なうことなく大幅に改善できることを実証した。
論文 参考訳(メタデータ) (2021-04-06T10:32:03Z) - Robust Lane Detection via Expanded Self Attention [3.616997653625528]
レーン検出のための拡張自己注意モジュール(ESA)を提案する。
提案手法は,画像の垂直方向および水平方向に沿ったレーンの信頼度を予測する。
CULaneとBDD100Kの最先端のパフォーマンスとTuSimpleデータセットの明確な改善を実現します。
論文 参考訳(メタデータ) (2021-02-14T00:29:55Z) - Unsupervised Feature Learning for Event Data: Direct vs Inverse Problem
Formulation [53.850686395708905]
イベントベースのカメラは、ピクセルごとの明るさ変化の非同期ストリームを記録する。
本稿では,イベントデータからの表現学習のための単一層アーキテクチャに焦点を当てる。
我々は,最先端手法と比較して,認識精度が最大9%向上したことを示す。
論文 参考訳(メタデータ) (2020-09-23T10:40:03Z) - Map-Enhanced Ego-Lane Detection in the Missing Feature Scenarios [26.016292792373815]
本稿では,検出アルゴリズムの性能向上に優れた,デジタル地図に含まれる事前知識を活用する。
このようにして、路面形状と実車線の位置誤差を除去するためには、少数の車線特徴しか必要としない。
実験の結果,提案手法は様々なシナリオに適用可能であり,20Hzの周波数でリアルタイムに動作可能であることがわかった。
論文 参考訳(メタデータ) (2020-04-02T16:06:48Z) - The Simulator: Understanding Adaptive Sampling in the
Moderate-Confidence Regime [52.38455827779212]
エミュレータと呼ばれる適応サンプリングを解析するための新しい手法を提案する。
適切なログファクタを組み込んだトップk問題の最初のインスタンスベースの下位境界を証明します。
我々の新しい分析は、後者の問題に対するこの種の最初のエミュレータであるベストアームとトップkの識別に、シンプルでほぼ最適であることを示した。
論文 参考訳(メタデータ) (2017-02-16T23:42:02Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。