論文の概要: Homography Guided Temporal Fusion for Road Line and Marking Segmentation
- arxiv url: http://arxiv.org/abs/2404.07626v1
- Date: Thu, 11 Apr 2024 10:26:40 GMT
- ステータス: 処理完了
- システム内更新日: 2024-04-12 14:19:15.592362
- Title: Homography Guided Temporal Fusion for Road Line and Marking Segmentation
- Title(参考訳): 道路線とマーキングセグメンテーションのための時間核融合法
- Authors: Shan Wang, Chuong Nguyen, Jiawei Liu, Kaihao Zhang, Wenhan Luo, Yanhao Zhang, Sundaram Muthu, Fahira Afzal Maken, Hongdong Li,
- Abstract要約: 道路線やマーキングは、移動車両、影、グレアの存在下でしばしば閉鎖される。
本稿では,映像フレームを補足的に利用するHomography Guided Fusion (HomoFusion) モジュールを提案する。
カメラ固有のデータと地上平面の仮定をクロスフレーム対応に利用することにより,高速・高精度性能が向上した軽量ネットワークの実現が期待できることを示す。
- 参考スコア(独自算出の注目度): 73.47092021519245
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: Reliable segmentation of road lines and markings is critical to autonomous driving. Our work is motivated by the observations that road lines and markings are (1) frequently occluded in the presence of moving vehicles, shadow, and glare and (2) highly structured with low intra-class shape variance and overall high appearance consistency. To solve these issues, we propose a Homography Guided Fusion (HomoFusion) module to exploit temporally-adjacent video frames for complementary cues facilitating the correct classification of the partially occluded road lines or markings. To reduce computational complexity, a novel surface normal estimator is proposed to establish spatial correspondences between the sampled frames, allowing the HomoFusion module to perform a pixel-to-pixel attention mechanism in updating the representation of the occluded road lines or markings. Experiments on ApolloScape, a large-scale lane mark segmentation dataset, and ApolloScape Night with artificial simulated night-time road conditions, demonstrate that our method outperforms other existing SOTA lane mark segmentation models with less than 9\% of their parameters and computational complexity. We show that exploiting available camera intrinsic data and ground plane assumption for cross-frame correspondence can lead to a light-weight network with significantly improved performances in speed and accuracy. We also prove the versatility of our HomoFusion approach by applying it to the problem of water puddle segmentation and achieving SOTA performance.
- Abstract(参考訳): 道路線とマーキングの信頼性の高いセグメンテーションは、自動運転に不可欠である。
本研究は,(1)移動車両,影,グレアの存在下,(2)車内形状のばらつきが低く,全体の外観の整合性が高い,という観察結果から動機づけられた。
これらの課題を解決するために,部分閉塞道路線やマーキングの正確な分類を容易にするために,時間的に隣接したビデオフレームを利用するHomography Guided Fusion (HomoFusion) モジュールを提案する。
計算複雑性を低減するために,サンプルフレーム間の空間的対応性を確立するために,新しい表面正規分布推定器を提案し,隠蔽された道路線やマーキングの表現を更新する際に,ホモフュージョンモジュールが画素間アテンション機構を実行できるようにした。
大規模なレーンマークセグメンテーションデータセットであるApolloScapeと、人工夜間道路条件を用いたApolloScape Nightの実験により、本手法は既存のSOTAレーンマークセグメンテーションモデルよりも9倍未満のパラメータと計算複雑性で優れていることを示した。
カメラ固有のデータと地上平面の仮定をクロスフレーム対応に利用することにより,高速・高精度性能を向上した軽量ネットワークの実現が期待できることを示す。
また,水たまりセグメンテーション問題に適用し,SOTA性能を実現することで,ホモフュージョン法の有効性を実証する。
関連論文リスト
- Leveraging Road Area Semantic Segmentation with Auxiliary Steering Task [0.0]
ステアリングホイール角情報を利用して道路領域のセマンティックセグメンテーションを改善するCNNに基づく手法を提案する。
本稿では,自律運転のための2つの挑戦的データセットに対する提案手法の有効性を示す。
論文 参考訳(メタデータ) (2022-12-19T13:25:09Z) - Monocular BEV Perception of Road Scenes via Front-to-Top View Projection [57.19891435386843]
本稿では,鳥の目視で道路配置と車両占有率によって形成された局所地図を再構築する新しい枠組みを提案する。
我々のモデルは1つのGPU上で25FPSで動作し、リアルタイムパノラマHDマップの再構築に有効である。
論文 参考訳(メタデータ) (2022-11-15T13:52:41Z) - Correlating sparse sensing for large-scale traffic speed estimation: A
Laplacian-enhanced low-rank tensor kriging approach [76.45949280328838]
本稿では,Laplacian enhanced Low-rank tensor (LETC) フレームワークを提案する。
次に,提案したモデルをネットワークワイド・クリグにスケールアップするために,複数の有効な数値手法を用いて効率的な解アルゴリズムを設計する。
論文 参考訳(メタデータ) (2022-10-21T07:25:57Z) - Extrinsic Camera Calibration with Semantic Segmentation [60.330549990863624]
本稿では,セグメンテーション情報を利用してパラメータ推定を自動化する,外部カメラキャリブレーション手法を提案する。
われわれのアプローチは、カメラのポーズの粗い初期測定と、車両に搭載されたライダーセンサーによる構築に依存している。
シミュレーションおよび実世界のデータを用いて,キャリブレーション結果の低誤差測定を行う。
論文 参考訳(メタデータ) (2022-08-08T07:25:03Z) - Unsupervised Foggy Scene Understanding via Self Spatial-Temporal Label
Diffusion [51.11295961195151]
運転シーンの霧画像列の特徴を利用して、自信ある擬似ラベルを密度化する。
局所的な空間的類似性と逐次画像データの隣接時間対応の2つの発見に基づいて,新たなターゲット・ドメイン駆動擬似ラベル拡散方式を提案する。
本手法は,2つの天然霧のデータセット上で51.92%,53.84%の平均交叉結合(mIoU)を達成するのに有効である。
論文 参考訳(メタデータ) (2022-06-10T05:16:50Z) - Cross-Camera Trajectories Help Person Retrieval in a Camera Network [124.65912458467643]
既存の手法では、純粋な視覚的マッチングや時間的制約を考慮することが多いが、カメラネットワークの空間情報は無視する。
本稿では,時間的情報と空間的情報を統合したクロスカメラ生成に基づく歩行者検索フレームワークを提案する。
本手法の有効性を検証するため,最初のカメラ横断歩行者軌跡データセットを構築した。
論文 参考訳(メタデータ) (2022-04-27T13:10:48Z) - A Hybrid Spatial-temporal Deep Learning Architecture for Lane Detection [1.653688760901944]
本研究では,ハイブリッド型空間時空間シーケンス対1深層学習アーキテクチャを提案する。
提案モデルでは、挑戦的な運転シーンを効果的に処理し、最先端の手法よりも大きなマージンで性能を向上することができる。
論文 参考訳(メタデータ) (2021-10-05T15:47:45Z) - Multi-Model Learning for Real-Time Automotive Semantic Foggy Scene
Understanding via Domain Adaptation [17.530091734327296]
本研究では,霧の多い気象条件にロバストな自動車意味理解手法を提案する。
提案手法では,RGB色,深度,輝度の画像を密接な接続性を持つ異なるエンコーダに組み込む。
我々のモデルは、モデル全体の複雑さのごく一部で、現代のアプローチに匹敵する性能を達成する。
論文 参考訳(メタデータ) (2020-12-09T21:04:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。