論文の概要: HG-Lane: High-Fidelity Generation of Lane Scenes under Adverse Weather and Lighting Conditions without Re-annotation
- arxiv url: http://arxiv.org/abs/2603.10128v1
- Date: Tue, 10 Mar 2026 18:04:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-12 16:22:32.644402
- Title: HG-Lane: High-Fidelity Generation of Lane Scenes under Adverse Weather and Lighting Conditions without Re-annotation
- Title(参考訳): HG-Lane: 逆気象条件下でのレーンシーンの高忠実度生成と再注釈のない照明条件
- Authors: Daichao Zhao, Qiupu Chen, Feng He, Xin Ning, Qiankun Li,
- Abstract要約: 悪天候および照明条件下でのレーンシーンの高忠実度生成フレームワークであるHG-Laneを提案する。
実験により,本手法は既存の車線検出ネットワークの性能を継続的に,かつ著しく向上させることを示した。
- 参考スコア(独自算出の注目度): 11.667208452607959
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Lane detection is a crucial task in autonomous driving, as it helps ensure the safe operation of vehicles. However, existing datasets such as CULane and TuSimple contain relatively limited data under extreme weather conditions, including rain, snow, and fog. As a result, detection models trained on these datasets often become unreliable in such environments, which may lead to serious safety-critical failures on the road. To address this issue, we propose HG-Lane, a High-fidelity Generation framework for Lane Scenes under adverse weather and lighting conditions without requiring re-annotation. Based on this framework, we further construct a benchmark that includes adverse weather and lighting scenarios, containing 30,000 images. Experimental results demonstrate that our method consistently and significantly improves the performance of existing lane detection networks. For example, using the state-of-the-art CLRNet, the overall mF1 score on our benchmark increases by 20.87 percent. The F1@50 score for the overall, normal, snow, rain, fog, night, and dusk categories increases by 19.75 percent, 8.63 percent, 38.8 percent, 14.96 percent, 26.84 percent, 21.5 percent, and 12.04 percent, respectively. The code and dataset are available at: https://github.com/zdc233/HG-Lane.
- Abstract(参考訳): 車線検出は自動運転車にとって重要な課題であり、車両の安全な運転を確実にするのに役立つ。
しかし、CULane や TuSimple のような既存のデータセットは、雨、雪、霧などの極端な気象条件下では比較的限られたデータを含んでいる。
その結果、これらのデータセットでトレーニングされた検出モデルは、そのような環境では信頼性が低くなり、道路上で深刻な安全クリティカルな障害が発生する可能性がある。
この問題に対処するため,HG-Laneを提案する。HG-Laneは悪天候および照明条件下でのレーンシーンのための高忠実度生成フレームワークであり,再アノテーションを必要としない。
この枠組みに基づいて,3万枚の画像を含む悪天候と照明シナリオを含むベンチマークを構築した。
実験により,本手法は既存の車線検出ネットワークの性能を継続的に,かつ著しく向上させることを示した。
例えば、最先端のCLRNetを使用することで、ベンチマーク全体のmF1スコアが20.87パーセント向上します。
全体、通常、雪、雨、霧、夜、夕暮れのF1@50スコアは19.75パーセント、8.63パーセント、38.8%、14.96パーセント、26.84パーセント、21.5パーセント、12.04パーセント上昇している。
コードとデータセットは、https://github.com/zdc233/HG-Lane.orgで公開されている。
関連論文リスト
- A Robust Real-Time Lane Detection Method with Fog-Enhanced Feature Fusion for Foggy Conditions [21.119783561403093]
実世界の霧のシナリオで捉えたFogyLaneデータセットを導入し、FogyCULaneとFogyTusimpleという2つの追加データセットを合成する。
我々は,Global Feature Fusion Module (GFFM) を組み込んで,霧画像のグローバルな関係を捉えることにより,車線検出のためのロバストなFog-Enhanced Networkを提案する。
F1スコアはFogyLaneで95.04、FogyCULaneで79.85、FogyTusimpleで96.95である。
論文 参考訳(メタデータ) (2025-04-08T15:13:01Z) - LanEvil: Benchmarking the Robustness of Lane Detection to Environmental Illusions [61.87108000328186]
レーン検出(LD)は自律走行システムにおいて不可欠な要素であり、適応型クルーズ制御や自動車線センターなどの基本的な機能を提供している。
既存のLDベンチマークは主に、環境錯覚に対するLDモデルの堅牢性を無視し、一般的なケースを評価することに焦点を当てている。
本稿では、LDに対する環境錯覚による潜在的な脅威について検討し、LanEvilの最初の総合ベンチマークを確立する。
論文 参考訳(メタデータ) (2024-06-03T02:12:27Z) - NiteDR: Nighttime Image De-Raining with Cross-View Sensor Cooperative Learning for Dynamic Driving Scenes [49.92839157944134]
夜間の運転シーンでは、不十分で不均一な照明が暗闇の中でシーンを遮蔽し、画質と可視性が低下する。
雨天時の運転シーンに適した画像デライニング・フレームワークを開発した。
雨の人工物を取り除き、風景表現を豊かにし、有用な情報を復元することを目的としている。
論文 参考訳(メタデータ) (2024-02-28T09:02:33Z) - Lidar Light Scattering Augmentation (LISA): Physics-based Simulation of
Adverse Weather Conditions for 3D Object Detection [60.89616629421904]
ライダーベースの物体検出器は、自動運転車のような自律ナビゲーションシステムにおいて、3D知覚パイプラインの重要な部分である。
降雨、雪、霧などの悪天候に敏感で、信号-雑音比(SNR)と信号-背景比(SBR)が低下している。
論文 参考訳(メタデータ) (2021-07-14T21:10:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。