論文の概要: Recursive Video Lane Detection
- arxiv url: http://arxiv.org/abs/2308.11106v1
- Date: Tue, 22 Aug 2023 01:02:15 GMT
- ステータス: 処理完了
- システム内更新日: 2023-08-23 19:38:41.215987
- Title: Recursive Video Lane Detection
- Title(参考訳): 再帰的ビデオレーン検出
- Authors: Dongkwon Jin, Dahyun Kim, Chang-Su Kim
- Abstract要約: 再帰型ビデオレーン検出器(RVLD)はビデオ中の道路レーンを検出する新しいアルゴリズムである。
我々は,現在のフレームにおける車線検出のために,以前のフレームの情報を利用するPLDを開発した。
RVLDはビデオレーンデータセット上で既存の検出器よりも優れていることを示す実験結果を得た。
- 参考スコア(独自算出の注目度): 26.562908741552764
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: A novel algorithm to detect road lanes in videos, called recursive video lane
detector (RVLD), is proposed in this paper, which propagates the state of a
current frame recursively to the next frame. RVLD consists of an intra-frame
lane detector (ILD) and a predictive lane detector (PLD). First, we design ILD
to localize lanes in a still frame. Second, we develop PLD to exploit the
information of the previous frame for lane detection in a current frame. To
this end, we estimate a motion field and warp the previous output to the
current frame. Using the warped information, we refine the feature map of the
current frame to detect lanes more reliably. Experimental results show that
RVLD outperforms existing detectors on video lane datasets. Our codes are
available at https://github.com/dongkwonjin/RVLD.
- Abstract(参考訳): 本稿では,映像中の路面線を検出する新しい手法であるrecursive video lane detector (RVLD)を提案し,現行のフレームを次のフレームに再帰的に伝播させる。
RVLDはフレーム内レーン検出器(ILD)と予測レーン検出器(PLD)から構成される。
まず、車線を静止フレームでローカライズするIDDを設計する。
第2に,現行フレームにおける車線検出に先行フレームの情報を利用するPLDを開発する。
この目的のために、運動場を推定し、前の出力を現在のフレームにワープする。
歪んだ情報を用いて、現在のフレームの特徴マップを洗練し、車線をより確実に検出する。
実験の結果,RVLDはビデオレーンデータセット上で既存の検出器よりも優れていた。
私たちのコードはhttps://github.com/dongkwonjin/rvldで利用可能です。
関連論文リスト
- Monocular Lane Detection Based on Deep Learning: A Survey [51.19079381823076]
車線検出は自律運転認識システムにおいて重要な役割を果たす。
ディープラーニングアルゴリズムが普及するにつれて、ディープラーニングに基づく単眼車線検出手法が優れた性能を示した。
本稿では, 成熟度の高い2次元車線検出手法と開発途上国の3次元車線検出技術の両方を網羅して, 既存手法の概要を概説する。
論文 参考訳(メタデータ) (2024-11-25T12:09:43Z) - LaneTCA: Enhancing Video Lane Detection with Temporal Context Aggregation [87.71768494466959]
LaneTCAは個々のビデオフレームをブリッジし、時間的コンテキストを効果的に集約する方法を探る。
本研究では,長期的・短期的文脈を抽象化するアキュマティブアテンションモジュールと隣接アテンションモジュールを開発する。
2つのモジュールは、トランスフォーマーアーキテクチャに基づいて慎重に設計されている。
論文 参考訳(メタデータ) (2024-08-25T14:46:29Z) - OMR: Occlusion-Aware Memory-Based Refinement for Video Lane Detection [19.781869063637387]
本稿では,ビデオレーン検出のための新しいアルゴリズムを提案する。
まず、現在のフレームの特徴マップを抽出し、レーンを含む障害物に対する潜時マスクを検出する。
そこで我々は,OMR(Occlusion-aware memory-based refinement)モジュールを開発した。
実験の結果,提案アルゴリズムはビデオレーンデータセット上で既存の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-08-14T12:05:07Z) - Decoupling the Curve Modeling and Pavement Regression for Lane Detection [67.22629246312283]
曲線に基づく車線表現は多くの車線検出法で一般的な手法である。
本稿では,曲線モデルと地上高さ回帰という2つの部分に分解することで,車線検出タスクに対する新しいアプローチを提案する。
論文 参考訳(メタデータ) (2023-09-19T11:24:14Z) - Multi Lane Detection [12.684545950979187]
車線検出は自動運転の基本モジュールである。
私たちの仕事はCNNのバックボーンDLA-34とAffinity Fieldsをベースにしています。
より効率的な車線検出アルゴリズムを実現するための新しい復号法について検討する。
論文 参考訳(メタデータ) (2022-12-22T08:20:08Z) - RCLane: Relay Chain Prediction for Lane Detection [76.62424079494285]
本稿では,リレーチェーン予測に基づく車線検出手法を提案する。
当社の戦略では,TuSimple,CULane,CurveLanes,LLAMASの4つの主要なベンチマーク上で,最先端の新たなベンチマークを確立することが可能です。
論文 参考訳(メタデータ) (2022-07-19T16:48:39Z) - PersFormer: 3D Lane Detection via Perspective Transformer and the
OpenLane Benchmark [109.03773439461615]
PersFormerは、新しいトランスフォーマーベースの空間特徴変換モジュールを備えた、エンドツーエンドのモノクル3Dレーン検出器である。
高品質なアノテーションとシナリオの多様性を備えたOpenLaneと呼ばれる,最初の大規模な3Dレーンデータセットの1つをリリースしました。
論文 参考訳(メタデータ) (2022-03-21T16:12:53Z) - LDNet: End-to-End Lane Marking Detection Approach Using a Dynamic Vision
Sensor [0.0]
本稿では,イベントカメラを用いたレーンマーキング検出の新たな応用について検討する。
符号化された特徴の空間分解能は、密度の高密度な空間ピラミッドプールブロックによって保持される。
提案手法の有効性をDVSデータセットを用いて評価した。
論文 参考訳(メタデータ) (2020-09-17T02:15:41Z) - Road Curb Detection and Localization with Monocular Forward-view Vehicle
Camera [74.45649274085447]
魚眼レンズを装着した校正単眼カメラを用いて3Dパラメータを推定するロバストな手法を提案する。
我々のアプローチでは、車両が90%以上の精度で、リアルタイムで距離を抑えることができる。
論文 参考訳(メタデータ) (2020-02-28T00:24:18Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。