論文の概要: Data Augmentation Strategies for Robust Lane Marking Detection
- arxiv url: http://arxiv.org/abs/2511.18668v1
- Date: Mon, 24 Nov 2025 00:47:27 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:24.958828
- Title: Data Augmentation Strategies for Robust Lane Marking Detection
- Title(参考訳): ロバストレーンマーキング検出のためのデータ拡張戦略
- Authors: Flora Lian, Dinh Quang Huynh, Hector Penades, J. Stephany Berrio Perez, Mao Shan, Stewart Worrall,
- Abstract要約: 本稿では、車線監視に使用されるサイドマウントカメラの領域シフトの課題について、生成型AIベースのデータ拡張パイプラインを導入することで解決する。
このアプローチは、幾何学的視点変換、AI駆動の塗装、車体オーバーレイを組み合わせて、デプロイメント固有の視点をシミュレートする。
強化されたデータをトレーニングすることで、両方のモデルはシャドーを含むさまざまな条件に対する堅牢性を改善する。
- 参考スコア(独自算出の注目度): 5.140388424678906
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Robust lane detection is essential for advanced driver assistance and autonomous driving, yet models trained on public datasets such as CULane often fail to generalise across different camera viewpoints. This paper addresses the challenge of domain shift for side-mounted cameras used in lane-wheel monitoring by introducing a generative AI-based data enhancement pipeline. The approach combines geometric perspective transformation, AI-driven inpainting, and vehicle body overlays to simulate deployment-specific viewpoints while preserving lane continuity. We evaluated the effectiveness of the proposed augmentation in two state-of-the-art models, SCNN and UFLDv2. With the augmented data trained, both models show improved robustness to different conditions, including shadows. The experimental results demonstrate gains in precision, recall, and F1 score compared to the pre-trained model. By bridging the gap between widely available datasets and deployment-specific scenarios, our method provides a scalable and practical framework to improve the reliability of lane detection in a pilot deployment scenario.
- Abstract(参考訳): ロバストレーン検出は、高度なドライバーアシストと自律運転には不可欠だが、CULaneのようなパブリックデータセットでトレーニングされたモデルは、さまざまなカメラ視点で一般化できないことが多い。
本稿では、車線監視に使用されるサイドマウントカメラの領域シフトの課題について、生成型AIベースのデータ拡張パイプラインを導入することで解決する。
このアプローチは、幾何学的視点変換、AI駆動の塗装、車体オーバーレイを組み合わせて、車線連続性を維持しながら、デプロイメント固有の視点をシミュレートする。
SCNNとUFLDv2の2種類の最先端モデルにおいて,提案手法の有効性を検討した。
強化されたデータをトレーニングすることで、両方のモデルはシャドーを含むさまざまな条件に対する堅牢性を改善する。
実験の結果,事前学習モデルと比較すると,精度,リコール,F1スコアが向上した。
広く利用可能なデータセットとデプロイメント固有のシナリオのギャップを埋めることで、パイロットデプロイメントシナリオにおけるレーン検出の信頼性を向上させるためのスケーラブルで実用的なフレームワークを提供する。
関連論文リスト
- Cross-View Cross-Modal Unsupervised Domain Adaptation for Driver Monitoring System [11.688427092651914]
ドライバーの気晴らしは依然として道路交通事故の主要な原因であり、世界中で毎年数千人の死者を出している。
深層学習に基づく運転行動認識手法は,このような注意散逸を検出する上で有望であるが,現実の展開におけるその有効性は2つの重要な課題によって妨げられている。
本稿では,この課題をリアルタイム運転監視データと協調的に解決する,2段階のクロスビュー・クロスモーダルなドメイン適応フレームワークを提案する。
論文 参考訳(メタデータ) (2025-11-15T13:04:35Z) - Scaling Up Occupancy-centric Driving Scene Generation: Dataset and Method [54.461213497603154]
作業中心の手法は、最近、フレームとモダリティをまたいだ一貫した条件付けを提供することで、最先端の結果を得た。
Nuplan-Occは、広く使われているNuplanベンチマークから構築された、これまでで最大の占有率データセットである。
高品質な占有、多視点ビデオ、LiDAR点雲を共同で合成する統合フレームワークを開発した。
論文 参考訳(メタデータ) (2025-10-27T03:52:45Z) - Extrapolated Urban View Synthesis Benchmark [53.657271730352214]
光シミュレーターは視覚中心型自動運転車(AV)の訓練と評価に不可欠である
中心となるのはノベルビュー合成(英語版)(NVS)であり、これはAVの広範かつ連続的なポーズ分布に対応するために、様々な目に見えない視点を生成する能力である。
近年の3次元ガウス・スプラッティングのような放射場の発展は、リアルタイムなリアルタイムレンダリングを実現し、大規模ドライビングシーンのモデリングに広く利用されている。
自動運転車と都市ロボットシミュレーション技術の進歩を支援するために、データを公開します。
論文 参考訳(メタデータ) (2024-12-06T18:41:39Z) - Cross-Camera Distracted Driver Classification through Feature Disentanglement and Contrastive Learning [13.613407983544427]
ドライバ行動監視ネットワーク(DBMNet)は軽量のバックボーンに依存しており、カメラのビュー情報を破棄するためにアンタングルモジュールを統合する。
DBMNetは、既存のアプローチと比較して、Top-1の精度が7%向上している。
論文 参考訳(メタデータ) (2024-11-20T10:27:12Z) - LOID: Lane Occlusion Inpainting and Detection for Enhanced Autonomous Driving Systems [0.0]
本研究では,難易度の高い環境下での車線検出を向上するための2つの革新的なアプローチを提案する。
最初のアプローチであるAug-Segmentは、CULanesのトレーニングデータセットを増強することで、従来のレーン検出モデルを改善する。
第2のアプローチであるLOID Lane Occlusion Inpainting and Detectionは、塗装モデルを用いて、閉鎖された地域の道路環境を再構築する。
論文 参考訳(メタデータ) (2024-08-17T06:55:40Z) - FENet: Focusing Enhanced Network for Lane Detection [0.0]
この研究は、Focusing Smpling、Partial Field of View Evaluation、Enhanced FPN Architecture、Directional IoU Lossで拡張されたネットワークのパイオニアである。
実験では、均一なアプローチとは異なり、重要な遠隔の細部を強調しながら、集中サンプリング戦略を実証した。
今後の方向性には、道路上のデータ収集や、補完的な2つのフレームワークの統合などが含まれる。
論文 参考訳(メタデータ) (2023-12-28T17:52:09Z) - Leveraging Driver Field-of-View for Multimodal Ego-Trajectory Prediction [69.29802752614677]
RouteFormerは、GPSデータ、環境コンテキスト、運転者の視野を組み合わせた新しいエゴ軌道予測ネットワークである。
データ不足に対処し、多様性を高めるために、同期運転場と視線データに富んだ都市運転シナリオのデータセットであるGEMを導入する。
論文 参考訳(メタデータ) (2023-12-13T23:06:30Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - Vision-Cloud Data Fusion for ADAS: A Lane Change Prediction Case Study [38.65843674620544]
我々は,カメラ画像とDigital Twin情報をクラウドから統合して,インテリジェントな車両のより良い意思決定を支援する,新しいビジョンクラウドデータ融合手法を導入する。
提案手法の有効性を示すために,車線変化予測のケーススタディを行った。
論文 参考訳(メタデータ) (2021-12-07T23:42:21Z) - Divide-and-Conquer for Lane-Aware Diverse Trajectory Prediction [71.97877759413272]
軌道予測は、自動運転車が行動を計画し実行するための安全クリティカルなツールです。
近年の手法は,WTAやベスト・オブ・マニーといったマルチコース学習の目標を用いて,強力なパフォーマンスを実現している。
我々の研究は、軌道予測、学習出力、そして運転知識を使って制約を課すことによるより良い予測における2つの重要な課題に対処する。
論文 参考訳(メタデータ) (2021-04-16T17:58:56Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。