論文の概要: HoughLaneNet: Lane Detection with Deep Hough Transform and Dynamic
Convolution
- arxiv url: http://arxiv.org/abs/2307.03494v1
- Date: Fri, 7 Jul 2023 10:08:29 GMT
- ステータス: 処理完了
- システム内更新日: 2023-07-10 12:48:36.282322
- Title: HoughLaneNet: Lane Detection with Deep Hough Transform and Dynamic
Convolution
- Title(参考訳): HoughLaneNet: ディープハフ変換と動的畳み込みによるレーン検出
- Authors: Jia-Qi Zhang, Hao-Bin Duan, Jun-Long Chen, Ariel Shamir and Miao Wang
- Abstract要約: レーンは狭く、断片化され、しばしば交通量が多いために、検出の困難を生じさせる。
画像中のすべての車線特徴をHoughパラメータ空間に組み合わせた階層的Deep Hough Transform (DHT) 手法を提案する。
提案するネットワーク構造は,重閉塞あるいは摩耗された車線画像の検出性能の向上を実証する。
- 参考スコア(独自算出の注目度): 8.97991745734826
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: The task of lane detection has garnered considerable attention in the field
of autonomous driving due to its complexity. Lanes can present difficulties for
detection, as they can be narrow, fragmented, and often obscured by heavy
traffic. However, it has been observed that the lanes have a geometrical
structure that resembles a straight line, leading to improved lane detection
results when utilizing this characteristic. To address this challenge, we
propose a hierarchical Deep Hough Transform (DHT) approach that combines all
lane features in an image into the Hough parameter space. Additionally, we
refine the point selection method and incorporate a Dynamic Convolution Module
to effectively differentiate between lanes in the original image. Our network
architecture comprises a backbone network, either a ResNet or Pyramid Vision
Transformer, a Feature Pyramid Network as the neck to extract multi-scale
features, and a hierarchical DHT-based feature aggregation head to accurately
segment each lane. By utilizing the lane features in the Hough parameter space,
the network learns dynamic convolution kernel parameters corresponding to each
lane, allowing the Dynamic Convolution Module to effectively differentiate
between lane features. Subsequently, the lane features are fed into the feature
decoder, which predicts the final position of the lane. Our proposed network
structure demonstrates improved performance in detecting heavily occluded or
worn lane images, as evidenced by our extensive experimental results, which
show that our method outperforms or is on par with state-of-the-art techniques.
- Abstract(参考訳): レーン検出のタスクは、その複雑さのために自動運転の分野でかなりの注目を集めている。
レーンは狭く、断片化され、しばしば交通量が多いために、検出の困難を生じさせる。
しかし, 車線は直線に類似した幾何学的構造を有しており, この特性を利用する場合の車線検出結果の改善が期待できる。
この課題に対処するために,画像中のすべてのレーン特徴をハフパラメータ空間に結合する階層的ディープハフ変換(dht)手法を提案する。
さらに,点選択法を洗練し,動的畳み込みモジュールを組み込んで,原画像のレーン間を効果的に区別する。
我々のネットワークアーキテクチャは、バックボーンネットワーク(ResNetまたはMaraamid Vision Transformer)と、マルチスケールの特徴を抽出する特徴ピラミッドネットワーク(Feature Pyramid Network)と、各レーンを正確に区切る階層的なDHTベースの特徴集約ヘッド(Feature aggregate head)から構成される。
Houghパラメータ空間のレーン特徴を利用することで、ネットワークは各レーンに対応する動的畳み込みカーネルパラメータを学習し、動的畳み込みモジュールが効果的にレーン特徴を区別できるようにする。
その後、レーン機能は機能デコーダに供給され、レーンの最終位置を予測する。
提案するネットワーク構造は,本手法が最先端技術と同等あるいは同等であることを示す大規模な実験結果によって実証されたように,重閉塞あるいは摩耗された車線画像の検出性能の向上を示す。
関連論文リスト
- Monocular Lane Detection Based on Deep Learning: A Survey [51.19079381823076]
車線検出は自律運転認識システムにおいて重要な役割を果たす。
ディープラーニングアルゴリズムが普及するにつれて、ディープラーニングに基づく単眼車線検出手法が優れた性能を示した。
本稿では, 成熟度の高い2次元車線検出手法と開発途上国の3次元車線検出技術の両方を網羅して, 既存手法の概要を概説する。
論文 参考訳(メタデータ) (2024-11-25T12:09:43Z) - ENet-21: An Optimized light CNN Structure for Lane Detection [1.4542411354617986]
本研究では,車線検出問題に対する最適構造について検討する。
現代の車両の運転支援機能には有望なソリューションを提供する。
TuSimpleデータセットの実験は提案手法の有効性を支持する。
論文 参考訳(メタデータ) (2024-03-28T19:07:26Z) - RCLane: Relay Chain Prediction for Lane Detection [76.62424079494285]
本稿では,リレーチェーン予測に基づく車線検出手法を提案する。
当社の戦略では,TuSimple,CULane,CurveLanes,LLAMASの4つの主要なベンチマーク上で,最先端の新たなベンチマークを確立することが可能です。
論文 参考訳(メタデータ) (2022-07-19T16:48:39Z) - Laneformer: Object-aware Row-Column Transformers for Lane Detection [96.62919884511287]
Laneformerは、自動運転における車線検出に適したトランスフォーマーベースのアーキテクチャである。
様々な視覚タスクにおけるトランスフォーマーエンコーダ・デコーダアーキテクチャの最近の進歩に触発されて、我々は新しいエンドツーエンドのLaneformerアーキテクチャの設計を進める。
論文 参考訳(メタデータ) (2022-03-18T10:14:35Z) - Lane Detection with Versatile AtrousFormer and Local Semantic Guidance [92.83267435275802]
車線検出は自動運転における中核機能の一つである。
既存のほとんどの手法はCNNベースの手法に頼っている。
本稿では,この問題を解決するためにAtrous Transformer (AtrousFormer)を提案する。
論文 参考訳(メタデータ) (2022-03-08T13:25:35Z) - MFGNet: Dynamic Modality-Aware Filter Generation for RGB-T Tracking [72.65494220685525]
可視データと熱データ間のメッセージ通信を促進するために,新しい動的モダリティ対応フィルタ生成モジュール(MFGNet)を提案する。
我々は、2つの独立ネットワークを持つ動的モダリティ対応フィルタを生成し、その可視フィルタとサーマルフィルタをそれぞれ、対応する入力特徴写像上で動的畳み込み演算を行う。
重閉塞,高速移動,外見による問題に対処するため,新たな方向認識型目標誘導型アテンション機構を活用することで,共同で局所的・グローバル検索を行うことを提案する。
論文 参考訳(メタデータ) (2021-07-22T03:10:51Z) - End-to-end Lane Shape Prediction with Transformers [13.103463647059634]
車線検出は、車両の車線離脱警告と適応クルーズ制御に広く用いられている。
レーン形状モデルのパラメータを直接出力するエンドツーエンド手法を提案する。
提案手法はTuSimpleベンチマークで検証され,最も軽量なモデルサイズと高速な速度で最先端の精度を示す。
論文 参考訳(メタデータ) (2020-11-09T07:42:55Z) - Lane Detection Model Based on Spatio-Temporal Network With Double
Convolutional Gated Recurrent Units [11.968518335236787]
レーン検出は今後しばらくは未解決の問題として残るだろう。
二重円錐 Gated Recurrent Units (ConvGRUs) を用いた時空間ネットワークは、困難なシーンにおける車線検出に対処することを提案した。
我々のモデルは最先端の車線検出モデルより優れている。
論文 参考訳(メタデータ) (2020-08-10T06:50:48Z) - Heatmap-based Vanishing Point boosts Lane Detection [3.8170259685864165]
高速車線検出のためのマルチタスク・フュージョン・ネットワークアーキテクチャを提案する。
提案した融合戦略は、公開CULaneデータセットを用いて検証された。
実験結果から,本手法の車線検出精度は,最先端(SOTA)法よりも優れていたことが示唆された。
論文 参考訳(メタデータ) (2020-07-30T17:17:00Z) - CurveLane-NAS: Unifying Lane-Sensitive Architecture Search and Adaptive
Point Blending [102.98909328368481]
CurveLane-NASは、レーンに敏感なアーキテクチャ検索フレームワークである。
長距離コヒーレントと正確な短距離曲線情報の両方をキャプチャする。
点ブレンディングによる曲線線予測において、アーキテクチャ探索と後処理の両方を統一する。
論文 参考訳(メタデータ) (2020-07-23T17:23:26Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。