論文の概要: DrivingGaussian++: Towards Realistic Reconstruction and Editable Simulation for Surrounding Dynamic Driving Scenes
- arxiv url: http://arxiv.org/abs/2508.20965v1
- Date: Thu, 28 Aug 2025 16:22:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-29 18:12:02.506449
- Title: DrivingGaussian++: Towards Realistic Reconstruction and Editable Simulation for Surrounding Dynamic Driving Scenes
- Title(参考訳): DrivingGaussian++:動的運転シーンのリアルな再構築と編集可能なシミュレーションを目指して
- Authors: Yajiao Xiong, Xiaoyu Zhou, Yongtao Wan, Deqing Sun, Ming-Hsuan Yang,
- Abstract要約: DrivingGaussian++は、自律運転シーンをリアルに再構成し、制御可能な編集を行うための効率的なフレームワークである。
テクスチャ修正、天気予報、オブジェクト操作など、ダイナミックな運転シーンのためのトレーニング不要のコントロール可能な編集をサポートする。
提案手法は,動的物体の運動軌跡を自動的に生成し,最適化過程における現実性を高める。
- 参考スコア(独自算出の注目度): 49.23098808629567
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We present DrivingGaussian++, an efficient and effective framework for realistic reconstructing and controllable editing of surrounding dynamic autonomous driving scenes. DrivingGaussian++ models the static background using incremental 3D Gaussians and reconstructs moving objects with a composite dynamic Gaussian graph, ensuring accurate positions and occlusions. By integrating a LiDAR prior, it achieves detailed and consistent scene reconstruction, outperforming existing methods in dynamic scene reconstruction and photorealistic surround-view synthesis. DrivingGaussian++ supports training-free controllable editing for dynamic driving scenes, including texture modification, weather simulation, and object manipulation, leveraging multi-view images and depth priors. By integrating large language models (LLMs) and controllable editing, our method can automatically generate dynamic object motion trajectories and enhance their realism during the optimization process. DrivingGaussian++ demonstrates consistent and realistic editing results and generates dynamic multi-view driving scenarios, while significantly enhancing scene diversity. More results and code can be found at the project site: https://xiong-creator.github.io/DrivingGaussian_plus.github.io
- Abstract(参考訳): 本稿では,ダイナミックな自律走行シーンをリアルに再構成し,制御可能な編集を行うための,効率的かつ効率的なフレームワークであるDrivingGaussian++を提案する。
DrivingGaussian++は、インクリメンタルな3Dガウスアンを使用して静的な背景をモデル化し、複合動的ガウスグラフで動くオブジェクトを再構成し、正確な位置と閉塞を確保する。
LiDARを前もって統合することにより、細部と一貫したシーン再構成を実現し、動的シーン再構成やフォトリアリスティックなサラウンドビュー合成において、既存の手法よりも優れる。
DrivingGaussian++は、テクスチャ修正、天気シミュレーション、オブジェクト操作など、動的駆動シーンのトレーニング不要なコントロール可能な編集をサポートし、マルチビューイメージと奥行き前処理を活用する。
大規模言語モデル(LLM)と制御可能な編集を統合することで,動的物体の運動軌跡を自動的に生成し,最適化過程における現実性を高めることができる。
DrivingGaussian++は一貫性のあるリアルな編集結果を示し、動的なマルチビュー駆動シナリオを生成しながら、シーンの多様性を大幅に向上させる。
さらなる結果とコードは、プロジェクトのサイト(https://xiong-creator.github.io/DrivingGaussian_plus.github.io)で見ることができる。
関連論文リスト
- OG-Gaussian: Occupancy Based Street Gaussians for Autonomous Driving [12.47557991785691]
我々は,LiDAR点雲をサラウンドビューカメラ画像から生成されたOG(Occupancy Grids)に置き換える新しいアプローチであるOG-Gaussianを提案する。
提案手法は,OGのセマンティック情報を利用して静的道路背景から動的車両を分離し,これらのグリッドを2つの初期点雲に変換し,静的物体と動的物体の両方を再構成する。
Openデータセットの実験では、OG-Gaussianは復元品質とレンダリング速度の点で現在の最先端と同等であり、平均PSNRは35.13、レンダリング速度は143 FPSであることが示された。
論文 参考訳(メタデータ) (2025-02-20T04:00:47Z) - AutoSplat: Constrained Gaussian Splatting for Autonomous Driving Scene Reconstruction [17.600027937450342]
AutoSplatは、自動走行シーンの高度に現実的な再構築を実現するために、ガウシアンスプラッティングを使用したフレームワークである。
本手法は,車線変更を含む課題シナリオの多視点一貫したシミュレーションを可能にする。
論文 参考訳(メタデータ) (2024-07-02T18:36:50Z) - VDG: Vision-Only Dynamic Gaussian for Driving Simulation [112.6139608504842]
ポーズフリーな動的ガウス法(VDG)に自己教師付きVOを導入する。
VDGはRGB画像入力のみで動作可能で、ポーズフリーのダイナミックビュー合成法に比べて高速で広いシーンで動的シーンを構築することができる。
その結果,現状の動的ビュー合成法よりも優れた性能を示した。
論文 参考訳(メタデータ) (2024-06-26T09:29:21Z) - DrivingGaussian: Composite Gaussian Splatting for Surrounding Dynamic Autonomous Driving Scenes [57.12439406121721]
我々は動的自律走行シーンを囲む効率的かつ効果的なフレームワークであるDrivingGaussianを提案する。
動くオブジェクトを持つ複雑なシーンでは、まずシーン全体の静的な背景を逐次、段階的にモデル化します。
次に、複合動的ガウスグラフを利用して、複数の移動物体を処理する。
我々はさらに、ガウススプラッティングに先立ってLiDARを使用して、より詳細でシーンを再構築し、パノラマ一貫性を維持する。
論文 参考訳(メタデータ) (2023-12-13T06:30:51Z) - Dynamic 3D Gaussians: Tracking by Persistent Dynamic View Synthesis [58.5779956899918]
動的シーンビュー合成と6自由度(6-DOF)追跡のタスクを同時に処理する手法を提案する。
我々は、シーンを3Dガウスアンのコレクションとしてモデル化する最近の研究に触発された、分析バイシンセサイザーの枠組みに従う。
我々は,1人称視点合成,動的合成シーン合成,4次元映像編集など,我々の表現によって実現された多数のダウンストリームアプリケーションを紹介した。
論文 参考訳(メタデータ) (2023-08-18T17:59:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。