論文の概要: A Hybrid Spatial-temporal Deep Learning Architecture for Lane Detection
- arxiv url: http://arxiv.org/abs/2110.04079v2
- Date: Thu, 14 Oct 2021 02:10:56 GMT
- ステータス: 処理完了
- システム内更新日: 2021-10-17 15:04:49.191354
- Title: A Hybrid Spatial-temporal Deep Learning Architecture for Lane Detection
- Title(参考訳): レーン検出のためのハイブリッド時空間深層学習アーキテクチャ
- Authors: Yongqi Dong, Sandeep Patil, Bart van Arem, Haneen Farah
- Abstract要約: 本研究では,ハイブリッド型空間時空間シーケンス対1深層学習アーキテクチャを提案する。
提案モデルでは、挑戦的な運転シーンを効果的に処理し、最先端の手法よりも大きなマージンで性能を向上することができる。
- 参考スコア(独自算出の注目度): 1.653688760901944
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Reliable and accurate lane detection is of vital importance for the safe
performance of Lane Keeping Assistance and Lane Departure Warning systems.
However, under certain challenging peculiar circumstances, it is difficult to
get satisfactory performance in accurately detecting the lanes from one single
image which is often the case in current literature. Since lane markings are
continuous lines, the lanes that are difficult to be accurately detected in the
single current image can potentially be better deduced if information from
previous frames is incorporated. This study proposes a novel hybrid
spatial-temporal sequence-to-one deep learning architecture making full use of
the spatial-temporal information in multiple continuous image frames to detect
lane markings in the very last current frame. Specifically, the hybrid model
integrates the single image feature extraction module with the spatial
convolutional neural network (SCNN) embedded for excavating spatial features
and relationships in one single image, the spatial-temporal feature integration
module with spatial-temporal recurrent neural network (ST-RNN), which can
capture the spatial-temporal correlations and time dependencies among image
sequences, and the encoder-decoder structure, which makes this image
segmentation problem work in an end-to-end supervised learning format.
Extensive experiments reveal that the proposed model can effectively handle
challenging driving scenes and outperforms available state-of-the-art methods
with a large margin.
- Abstract(参考訳): 信頼性と正確な車線検出は、車線維持支援システムと車線分割警報システムの安全性能にとって極めて重要である。
しかし、特定の困難な特異な状況下では、現在の文献でよく見られる1枚の画像から正確に車線を検出できるような十分な性能を得ることは困難である。
レーンマーキングは連続線であるため、前のフレームからの情報が組み込まれた場合、単一の電流画像で正確に検出できないレーンをより正確に推定することができる。
本研究は,複数の連続画像フレームにおける空間時空間情報をフル活用して,最後の電流フレームにおけるレーンマーキングを検出するハイブリッド時空間シーケンス対1深層学習アーキテクチャを提案する。
Specifically, the hybrid model integrates the single image feature extraction module with the spatial convolutional neural network (SCNN) embedded for excavating spatial features and relationships in one single image, the spatial-temporal feature integration module with spatial-temporal recurrent neural network (ST-RNN), which can capture the spatial-temporal correlations and time dependencies among image sequences, and the encoder-decoder structure, which makes this image segmentation problem work in an end-to-end supervised learning format.
大規模な実験により,提案モデルでは,挑戦的な走行シーンを効果的に処理し,最先端の手法よりも広いマージンで性能を向上できることがわかった。
関連論文リスト
- LaneTCA: Enhancing Video Lane Detection with Temporal Context Aggregation [87.71768494466959]
LaneTCAは個々のビデオフレームをブリッジし、時間的コンテキストを効果的に集約する方法を探る。
本研究では,長期的・短期的文脈を抽象化するアキュマティブアテンションモジュールと隣接アテンションモジュールを開発する。
2つのモジュールは、トランスフォーマーアーキテクチャに基づいて慎重に設計されている。
論文 参考訳(メタデータ) (2024-08-25T14:46:29Z) - Linear Attention is Enough in Spatial-Temporal Forecasting [0.0]
本稿では,道路ネットワークにおけるノードを独立した時空間トークンとして扱うことを提案する。
次に、それらをバニラ変換器に入力して、複雑な時空間パターンを学習します。
我々のコードは、手頃な計算コストで最先端の性能を達成する。
論文 参考訳(メタデータ) (2024-08-17T10:06:50Z) - TASeg: Temporal Aggregation Network for LiDAR Semantic Segmentation [80.13343299606146]
そこで本稿では, 時系列LiDARアグリゲーション・蒸留(TLAD)アルゴリズムを提案する。
時間画像のフル活用を目的として,カメラFOVを大幅に拡張できるTIAFモジュールを設計した。
また,静的移動スイッチ拡張(SMSA)アルゴリズムを開発し,時間的情報を利用してオブジェクトの動作状態を自由に切り替える。
論文 参考訳(メタデータ) (2024-07-13T03:00:16Z) - Homography Guided Temporal Fusion for Road Line and Marking Segmentation [73.47092021519245]
道路線やマーキングは、移動車両、影、グレアの存在下でしばしば閉鎖される。
本稿では,映像フレームを補足的に利用するHomography Guided Fusion (HomoFusion) モジュールを提案する。
カメラ固有のデータと地上平面の仮定をクロスフレーム対応に利用することにより,高速・高精度性能が向上した軽量ネットワークの実現が期待できることを示す。
論文 参考訳(メタデータ) (2024-04-11T10:26:40Z) - Temporal Embeddings: Scalable Self-Supervised Temporal Representation
Learning from Spatiotemporal Data for Multimodal Computer Vision [1.4127889233510498]
移動活動時系列に基づいて景観を階層化する新しい手法を提案する。
ピクセルワイズ埋め込みは、タスクベースのマルチモーダルモデリングに使用できるイメージライクなチャネルに変換される。
論文 参考訳(メタデータ) (2023-10-16T02:53:29Z) - Spatio-Temporal Recurrent Networks for Event-Based Optical Flow
Estimation [47.984368369734995]
本稿では,イベントベース光フロー推定のためのニューラルネットアーキテクチャを提案する。
このネットワークは、Multi-Vehicle Stereo Event Cameraデータセット上で、セルフ教師付き学習でエンドツーエンドにトレーニングされている。
既存の最先端の手法を大きなマージンで上回る結果が得られた。
論文 参考訳(メタデータ) (2021-09-10T13:37:37Z) - Spatial-Temporal Fusion Graph Neural Networks for Traffic Flow
Forecasting [35.072979313851235]
交通流の空間的-時間的データ予測は複雑な空間的依存性と道路間の時間的パターンの動的傾向のために難しい課題である。
既存のフレームワークは通常、与えられた空間隣接グラフと、空間的および時間的相関をモデル化する洗練されたメカニズムを利用する。
本稿では,交通流予測のための空間時間融合グラフニューラルネットワーク(STFGNN)を提案する。
論文 参考訳(メタデータ) (2020-12-15T14:03:17Z) - DS-Net: Dynamic Spatiotemporal Network for Video Salient Object
Detection [78.04869214450963]
時間情報と空間情報のより効果的な融合のための新しい動的時空間ネットワーク(DSNet)を提案する。
提案手法は最先端アルゴリズムよりも優れた性能が得られることを示す。
論文 参考訳(メタデータ) (2020-12-09T06:42:30Z) - Unsupervised Monocular Depth Learning with Integrated Intrinsics and
Spatio-Temporal Constraints [61.46323213702369]
本研究は,大規模深度マップとエゴモーションを予測可能な教師なし学習フレームワークを提案する。
本結果は,KITTI運転データセットの複数シーケンスにおける現在の最先端技術と比較して,高い性能を示す。
論文 参考訳(メタデータ) (2020-11-02T22:26:58Z) - Fast Video Salient Object Detection via Spatiotemporal Knowledge
Distillation [20.196945571479002]
本稿では,映像の有能な物体検出に適した軽量ネットワークを提案する。
具体的には,空間的特徴を洗練させるために,サリエンシガイダンスの埋め込み構造と空間知識蒸留を組み合わせた。
時間的側面において,ネットワークが頑健な時間的特徴を学習することのできる時間的知識蒸留戦略を提案する。
論文 参考訳(メタデータ) (2020-10-20T04:48:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。