論文の概要: LiDAR-EVS: Enhance Extrapolated View Synthesis for 3D Gaussian Splatting with Pseudo-LiDAR Supervision
- arxiv url: http://arxiv.org/abs/2603.14763v1
- Date: Mon, 16 Mar 2026 02:52:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-17 16:19:36.012942
- Title: LiDAR-EVS: Enhance Extrapolated View Synthesis for 3D Gaussian Splatting with Pseudo-LiDAR Supervision
- Title(参考訳): LiDAR-EVS:擬似LiDARスーパービジョンを用いた3次元ガウス平滑化のための外挿ビュー合成
- Authors: Yiming Huang, Xin Kang, Sipeng Zhang, Hongliang Ren, Weihua Zhang, Junjie Lai,
- Abstract要約: 3D Gaussian Splatting (3DGS)は、自律運転シミュレーションにおけるリアルタイムLiDARとカメラ合成の強力な技術として登場した。
我々は、自律運転における堅牢な外見LiDARシミュレーションのための軽量フレームワークLiDAR-EVSを提案する。
- 参考スコア(独自算出の注目度): 19.629982915073697
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: 3D Gaussian Splatting (3DGS) has emerged as a powerful technique for real-time LiDAR and camera synthesis in autonomous driving simulation. However, simulating LiDAR with 3DGS remains challenging for extrapolated views beyond the training trajectory, as existing methods are typically trained on single-traversal sensor scans, suffer from severe overfitting and poor generalization to novel ego-vehicle paths. To enable reliable simulation of LiDAR along unseen driving trajectories without external multi-pass data, we present LiDAR-EVS, a lightweight framework for robust extrapolated-view LiDAR simulation in autonomous driving. Designed to be plug-and-play, LiDAR-EVS readily extends to diverse LiDAR sensors and neural rendering baselines with minimal modification. Our framework comprises two key components: (1) pseudo extrapolated-view point cloud supervision with multi-frame LiDAR fusion, view transformation, occlusion curling, and intensity adjustment; (2) spatially-constrained dropout regularization that promotes robustness to diverse trajectory variations encountered in real-world driving. Extensive experiments demonstrate that LiDAR-EVS achieves SOTA performance on extrapolated-view LiDAR synthesis across three datasets, making it a promising tool for data-driven simulation, closed-loop evaluation, and synthetic data generation in autonomous driving systems.
- Abstract(参考訳): 3D Gaussian Splatting (3DGS)は、自律運転シミュレーションにおけるリアルタイムLiDARとカメラ合成の強力な技術として登場した。
しかし、LiDARを3DGSでシミュレートすることは、訓練軌道を超えて外挿された視点では依然として困難であり、既存の手法は、通常は単方向のセンサースキャンで訓練されており、厳密なオーバーフィッティングと新しいエゴ車道への一般化に苦しむ。
外部のマルチパスデータを使わずに、LiDARの信頼性の高い運転軌道上でのシミュレーションを実現するために、自律運転における堅牢な外見LiDARシミュレーションのための軽量なフレームワークLiDAR-EVSを提案する。
プラグアンドプレイ用に設計されたLiDAR-EVSは、様々なLiDARセンサーやニューラルレンダリングベースラインに最小限の変更で容易に拡張できる。
本フレームワークは,(1)多フレームLiDAR融合,ビュートランスフォーメーション,オクルージョンカーリング,および強度調整による擬似外挿視点クラウド監視,(2)実環境走行で発生する多様な軌道変動に対するロバスト性を促進する空間制約付きドロップアウト正規化,の2つの重要な構成要素から構成される。
大規模な実験により、LiDAR-EVSは3つのデータセットにわたる外挿ビューLiDAR合成におけるSOTA性能を実現し、自律運転システムにおけるデータ駆動シミュレーション、クローズループ評価、合成データ生成のための有望なツールであることが示された。
関連論文リスト
- RS2AD: End-to-End Autonomous Driving Data Generation from Roadside Sensor Observations [4.219537240663029]
道路沿いのセンサ観測から車載LiDARデータを再構成・合成するための新しいフレームワークであるRS2ADを紹介する。
我々の知る限りでは、道路沿いのセンサー入力から車載LiDARデータを再構築する最初のアプローチである。
論文 参考訳(メタデータ) (2025-03-10T09:08:05Z) - LiDAR-GS:Real-time LiDAR Re-Simulation using Gaussian Splatting [53.58528891081709]
都市景観におけるLiDARスキャンをリアルタイムかつ高忠実に再現するLiDAR-GSを提案する。
この手法は,公開可能な大規模シーンデータセットのレンダリングフレームレートと品質の両面において,最先端の結果を達成する。
論文 参考訳(メタデータ) (2024-10-07T15:07:56Z) - Multi-Modal Data-Efficient 3D Scene Understanding for Autonomous Driving [58.16024314532443]
我々は、異なるLiDARスキャンからレーザービーム操作を統合するフレームワークであるLaserMix++を導入し、データ効率の学習を支援するためにLiDAR-カメラ対応を組み込んだ。
結果は、LaserMix++が完全に教師付き代替よりも優れており、5倍のアノテーションで同等の精度を実現していることを示している。
この大幅な進歩は、LiDARベースの3Dシーン理解システムにおける広範囲なラベル付きデータへの依存を減らすための半教師付きアプローチの可能性を示している。
論文 参考訳(メタデータ) (2024-05-08T17:59:53Z) - LIBRE: The Multiple 3D LiDAR Dataset [54.25307983677663]
We present LIBRE: LiDAR Benchmarking and Reference, a first-of-in-kind dataset with 10 different LiDAR sensor。
LIBREは、現在利用可能なLiDARを公平に比較するための手段を提供するために、研究コミュニティに貢献する。
また、既存の自動運転車やロボティクス関連のソフトウェアの改善も促進する。
論文 参考訳(メタデータ) (2020-03-13T06:17:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。