論文の概要: RS2V-L: Vehicle-Mounted LiDAR Data Generation from Roadside Sensor Observations
- arxiv url: http://arxiv.org/abs/2503.07085v2
- Date: Wed, 12 Mar 2025 14:32:28 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-03-13 12:14:23.446373
- Title: RS2V-L: Vehicle-Mounted LiDAR Data Generation from Roadside Sensor Observations
- Title(参考訳): RS2V-L:道路センサ観測による車載LiDARデータ生成
- Authors: Ruidan Xing, Runyi Huang, Qing Xu, Lei He,
- Abstract要約: RS2V-Lは道路センサ観測から車載LiDARデータを再構成・合成するための新しいフレームワークである。
我々の知る限りでは、道路沿いのセンサー入力から車載LiDARデータを再構築する最初のアプローチである。
- 参考スコア(独自算出の注目度): 4.219537240663029
- License:
- Abstract: End-to-end autonomous driving solutions, which process multi-modal sensory data to directly generate refined control commands, have become a dominant paradigm in autonomous driving research. However, these approaches predominantly depend on single-vehicle data collection for model training and optimization, resulting in significant challenges such as high data acquisition and annotation costs, the scarcity of critical driving scenarios, and fragmented datasets that impede model generalization. To mitigate these limitations, we introduce RS2V-L, a novel framework for reconstructing and synthesizing vehicle-mounted LiDAR data from roadside sensor observations. Specifically, our method transforms roadside LiDAR point clouds into the vehicle-mounted LiDAR coordinate system by leveraging the target vehicle's relative pose. Subsequently, high-fidelity vehicle-mounted LiDAR data is synthesized through virtual LiDAR modeling, point cloud classification, and resampling techniques. To the best of our knowledge, this is the first approach to reconstruct vehicle-mounted LiDAR data from roadside sensor inputs. Extensive experimental evaluations demonstrate that incorporating the generated data into model training-complementing the KITTI dataset-enhances 3D object detection accuracy by over \text{30\%} while improving the efficiency of end-to-end autonomous driving data generation by more than an order of magnitude. These findings strongly validate the effectiveness of the proposed method and underscore its potential in reducing dependence on costly vehicle-mounted data collection while improving the robustness of autonomous driving models.
- Abstract(参考訳): マルチモーダルセンサデータを処理して、洗練された制御コマンドを直接生成するエンドツーエンドの自律運転ソリューションは、自律運転研究において支配的なパラダイムとなっている。
しかし、これらのアプローチは主にモデルトレーニングと最適化のための単一車両のデータ収集に依存しており、結果として、高いデータ取得とアノテーションコスト、重要な駆動シナリオの不足、モデルの一般化を妨げる断片化されたデータセットといった大きな課題が生じる。
これらの制約を緩和するため,道路沿いのセンサ観測から車載LiDARデータを再構成・合成するための新しいフレームワークであるRS2V-Lを導入する。
具体的には,道路沿いのLiDAR点雲を車両搭載のLiDAR座標系に変換する。
その後、高忠実度車載LiDARデータを仮想LiDARモデリング、点雲分類、再サンプリング技術により合成する。
我々の知る限りでは、道路沿いのセンサー入力から車載LiDARデータを再構築する最初のアプローチである。
KITTIデータセットを付加した3次元物体検出精度をtext{30\%}以上でモデルトレーニングに組み込むことで、エンドツーエンドの自動運転データ生成の効率を1桁以上向上することを示した。
これらの結果は,提案手法の有効性を強く検証し,自動運転車のロバスト性を改善しつつ,コストのかかる車両搭載データ収集への依存を減らす可能性を強調した。
関連論文リスト
- Multi-Modal Data-Efficient 3D Scene Understanding for Autonomous Driving [58.16024314532443]
我々は、異なるLiDARスキャンからレーザービーム操作を統合するフレームワークであるLaserMix++を導入し、データ効率の学習を支援するためにLiDAR-カメラ対応を組み込んだ。
結果は、LaserMix++が完全に教師付き代替よりも優れており、5倍のアノテーションで同等の精度を実現していることを示している。
この大幅な進歩は、LiDARベースの3Dシーン理解システムにおける広範囲なラベル付きデータへの依存を減らすための半教師付きアプローチの可能性を示している。
論文 参考訳(メタデータ) (2024-05-08T17:59:53Z) - Unsupervised Domain Adaptation for Self-Driving from Past Traversal
Features [69.47588461101925]
本研究では,新しい運転環境に3次元物体検出器を適応させる手法を提案する。
提案手法は,空間的量子化履歴特徴を用いたLiDARに基づく検出モデルを強化する。
実世界のデータセットの実験では、大幅な改善が示されている。
論文 参考訳(メタデータ) (2023-09-21T15:00:31Z) - End-to-End Driving via Self-Supervised Imitation Learning Using Camera and LiDAR Data [6.849144123909844]
本論文は,E2E運転のための自己教師付き模倣学習(SSIL)として,最初の完全自己教師型学習フレームワークを提案する。
提案したSSILフレームワークは、コマンドデータを使用せずにE2E駆動ネットワークを学習できる。
3つの異なるベンチマークデータセットを用いた数値実験により,提案したSSILフレームワークは,教師付き学習と同等のE2E駆動精度を達成できることを示した。
論文 参考訳(メタデータ) (2023-08-28T06:17:15Z) - LiDAR View Synthesis for Robust Vehicle Navigation Without Expert Labels [50.40632021583213]
我々は、危険な位置で物理的に運転することなく、新しい視点からLiDAR点雲を合成することを提案する。
我々は、LiDARスキャンを入力とし、将来の軌跡を出力として予測するディープラーニングモデルを訓練する。
次に、この予測軌道にウェイポイントコントローラを適用して、エゴ車両のスロットルおよびステアリングラベルを決定する。
論文 参考訳(メタデータ) (2023-08-02T20:46:43Z) - Benchmarking the Robustness of LiDAR-Camera Fusion for 3D Object
Detection [58.81316192862618]
自律運転における3D知覚のための2つの重要なセンサーは、カメラとLiDARである。
これら2つのモダリティを融合させることで、3次元知覚モデルの性能を大幅に向上させることができる。
我々は、最先端の核融合法を初めてベンチマークした。
論文 参考訳(メタデータ) (2022-05-30T09:35:37Z) - Efficient and Robust LiDAR-Based End-to-End Navigation [132.52661670308606]
我々は,LiDARをベースとした効率的なエンドツーエンドナビゲーションフレームワークを提案する。
本稿では,スパース畳み込みカーネル最適化とハードウェア対応モデル設計に基づくFast-LiDARNetを提案する。
次に,単一の前方通過のみから予測の不確かさを直接推定するハイブリッド・エビデンシャル・フュージョンを提案する。
論文 参考訳(メタデータ) (2021-05-20T17:52:37Z) - Physics-Informed Deep Learning for Traffic State Estimation [3.779860024918729]
交通状態推定(TSE)は、部分的に観測されたデータを用いて道路セグメント上の交通変数(例えば密度)を再構築する。
本論文では,少量の観測データを用いて高品質なTSEを効率的に実行するための物理情報深層学習(PIDL)フレームワークについて紹介する。
論文 参考訳(メタデータ) (2021-01-17T03:28:32Z) - High-Precision Digital Traffic Recording with Multi-LiDAR Infrastructure
Sensor Setups [0.0]
融解したLiDAR点雲と単一LiDAR点雲との差について検討した。
抽出した軌道の評価は, 融合インフラストラクチャーアプローチが追跡結果を著しく増加させ, 数cm以内の精度に達することを示す。
論文 参考訳(メタデータ) (2020-06-22T10:57:52Z) - LIBRE: The Multiple 3D LiDAR Dataset [54.25307983677663]
We present LIBRE: LiDAR Benchmarking and Reference, a first-of-in-kind dataset with 10 different LiDAR sensor。
LIBREは、現在利用可能なLiDARを公平に比較するための手段を提供するために、研究コミュニティに貢献する。
また、既存の自動運転車やロボティクス関連のソフトウェアの改善も促進する。
論文 参考訳(メタデータ) (2020-03-13T06:17:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。