論文の概要: IDSplat: Instance-Decomposed 3D Gaussian Splatting for Driving Scenes
- arxiv url: http://arxiv.org/abs/2511.19235v1
- Date: Mon, 24 Nov 2025 15:48:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-25 18:34:25.282546
- Title: IDSplat: Instance-Decomposed 3D Gaussian Splatting for Driving Scenes
- Title(参考訳): IDSplat: インスタンス分割型3Dガウススプレイティング
- Authors: Carl Lindström, Mahan Rafidashti, Maryam Fatemi, Lars Hammarstrand, Martin R. Oswald, Lennart Svensson,
- Abstract要約: 動的駆動シーンの再構築は、センサ・リアリスティック・シミュレーションによる自律システム開発に不可欠である。
我々は,動的シーンを明示的なインスタンス分解と学習可能なモーショントラジェクトリで再構成する,自己教師型3次元ガウススティングフレームワークIDSplatを提案する。
本手法は, インスタンスレベルの分解を維持しつつ, 競合する再構成品質を実現し, 再トレーニングを伴わずに, 多様なシーケンスやビュー密度を一般化する。
- 参考スコア(独自算出の注目度): 25.939318593012484
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reconstructing dynamic driving scenes is essential for developing autonomous systems through sensor-realistic simulation. Although recent methods achieve high-fidelity reconstructions, they either rely on costly human annotations for object trajectories or use time-varying representations without explicit object-level decomposition, leading to intertwined static and dynamic elements that hinder scene separation. We present IDSplat, a self-supervised 3D Gaussian Splatting framework that reconstructs dynamic scenes with explicit instance decomposition and learnable motion trajectories, without requiring human annotations. Our key insight is to model dynamic objects as coherent instances undergoing rigid transformations, rather than unstructured time-varying primitives. For instance decomposition, we employ zero-shot, language-grounded video tracking anchored to 3D using lidar, and estimate consistent poses via feature correspondences. We introduce a coordinated-turn smoothing scheme to obtain temporally and physically consistent motion trajectories, mitigating pose misalignments and tracking failures, followed by joint optimization of object poses and Gaussian parameters. Experiments on the Waymo Open Dataset demonstrate that our method achieves competitive reconstruction quality while maintaining instance-level decomposition and generalizes across diverse sequences and view densities without retraining, making it practical for large-scale autonomous driving applications. Code will be released.
- Abstract(参考訳): 動的駆動シーンの再構築は、センサ・リアリスティック・シミュレーションによる自律システム開発に不可欠である。
近年の手法は高忠実度再構成を実現するが、それらはオブジェクトの軌跡に対する人為的なアノテーションに頼るか、明示的なオブジェクトレベルの分解を伴わずに時間変化の表現を使用するかのいずれかであり、シーン分離を妨げる静的要素と動的要素が絡み合うことになる。
我々は,動的シーンを明示的なインスタンス分解と学習可能な運動軌跡で再構築し,人間のアノテーションを必要とせずに,自己監督型3DガウススティングフレームワークであるIDSplatを提案する。
我々の重要な洞察は、動的オブジェクトを非構造化の時間変化プリミティブではなく、厳密な変換を行うコヒーレントなインスタンスとしてモデル化することである。
例えば,ライダーを用いて3Dに固定されたゼロショット音声追跡と特徴対応による一貫したポーズを推定する。
本研究では,時間的および物理的に一貫した運動軌跡の獲得,ポーズのずれの緩和,障害の追跡,続いてオブジェクトのポーズとガウスパラメータの協調最適化を行うコーディネートターン平滑化手法を提案する。
Waymo Open Datasetの実験では、インスタンスレベルの分解を維持しながら競合する再構築品質を実現し、再トレーニングをせずに多様なシーケンスやビュー密度を一般化し、大規模自動運転アプリケーションに実用的であることを示した。
コードはリリースされる。
関連論文リスト
- DIAL-GS: Dynamic Instance Aware Reconstruction for Label-free Street Scenes with 4D Gaussian Splatting [23.017838856573917]
ラベルのない街路シーンのための動的インスタンス認識再構築手法であるDIAL-GSを提案する。
まず、歪んだレンダリングと実際の観察との整合性を利用して、動的インスタンスを正確に識別する。
我々は、アイデンティティとダイナミクスが相互に強化され、整合性と整合性の両方が向上する相互機構を導入する。
論文 参考訳(メタデータ) (2025-11-10T02:18:40Z) - BézierGS: Dynamic Urban Scene Reconstruction with Bézier Curve Gaussian Splatting [3.376357029373187]
B'ezier curve splatting (B'ezierGS) は、学習可能な B'ezier curve を用いて動的対象の運動軌跡を表す。
B'ezierGSは動的および静的なシーンコンポーネントの再構築と新しいビュー合成において、最先端の代替よりも優れている。
論文 参考訳(メタデータ) (2025-06-27T10:30:16Z) - UnIRe: Unsupervised Instance Decomposition for Dynamic Urban Scene Reconstruction [36.00679909382783]
シーンを静的な背景と個々の動的インスタンスに分解する3D Splatting (3DGS)ベースのアプローチであるUnIReを提案する。
中心となる4Dスーパーポイントは、多フレームLiDAR点を4D空間にクラスタ化する新しい表現である。
実験により,本手法は動的シーン再構成において,高精度かつ柔軟なインスタンスレベルの編集を可能にしながら,既存の手法よりも優れた性能を示すことが示された。
論文 参考訳(メタデータ) (2025-04-01T13:15:58Z) - UrbanGS: Semantic-Guided Gaussian Splatting for Urban Scene Reconstruction [86.4386398262018]
UrbanGSは2Dセマンティックマップと既存の動的ガウスアプローチを使って静的オブジェクトとシーンを区別する。
動的オブジェクトに対して、学習可能な時間埋め込みを用いて時間情報を集約する。
提案手法は, 修復の質と効率性において, 最先端の手法より優れている。
論文 参考訳(メタデータ) (2024-12-04T16:59:49Z) - T-3DGS: Removing Transient Objects for 3D Scene Reconstruction [83.05271859398779]
映像シーケンスにおける過渡的オブジェクトは、3Dシーン再構成の品質を著しく低下させる可能性がある。
我々は,ガウススプラッティングを用いた3次元再構成において,過渡的障害を頑健に除去する新しいフレームワークT-3DGSを提案する。
論文 参考訳(メタデータ) (2024-11-29T07:45:24Z) - SMORE: Simultaneous Map and Object REconstruction [66.66729715211642]
本稿では,LiDARから大規模都市景観を動的に再現する手法を提案する。
我々は、世界が厳格に動く物体と背景に分解される動的なシーンの構成モデルを総合的に捉え、最適化する。
論文 参考訳(メタデータ) (2024-06-19T23:53:31Z) - DrivingGaussian: Composite Gaussian Splatting for Surrounding Dynamic Autonomous Driving Scenes [57.12439406121721]
我々は動的自律走行シーンを囲む効率的かつ効果的なフレームワークであるDrivingGaussianを提案する。
動くオブジェクトを持つ複雑なシーンでは、まずシーン全体の静的な背景を逐次、段階的にモデル化します。
次に、複合動的ガウスグラフを利用して、複数の移動物体を処理する。
我々はさらに、ガウススプラッティングに先立ってLiDARを使用して、より詳細でシーンを再構築し、パノラマ一貫性を維持する。
論文 参考訳(メタデータ) (2023-12-13T06:30:51Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。