論文の概要: ODE-GS: Latent ODEs for Dynamic Scene Extrapolation with 3D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2506.05480v1
- Date: Thu, 05 Jun 2025 18:02:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-09 17:28:43.184806
- Title: ODE-GS: Latent ODEs for Dynamic Scene Extrapolation with 3D Gaussian Splatting
- Title(参考訳): ODE-GS:3次元ガウススプレイティングを用いた動的シーン外挿のための潜在ODE
- Authors: Daniel Wang, Patrick Rim, Tian Tian, Alex Wong, Ganesh Sundaramoorthi,
- Abstract要約: ODE-GSは、動的3次元シーンを予測するために、3次元ガウス格子と潜時神経常微分方程式(ODE)を統一する新しい手法である。
以上の結果から, 連続潜時ダイナミクスは複雑な3次元シーンの予測に強力で実用的な方法であることが示された。
- 参考スコア(独自算出の注目度): 10.497667917243852
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present ODE-GS, a novel method that unifies 3D Gaussian Splatting with latent neural ordinary differential equations (ODEs) to forecast dynamic 3D scenes far beyond the time span seen during training. Existing neural rendering systems - whether NeRF- or 3DGS-based - embed time directly in a deformation network and therefore excel at interpolation but collapse when asked to predict the future, where timestamps are strictly out-of-distribution. ODE-GS eliminates this dependency: after learning a high-fidelity, time-conditioned deformation model for the training window, we freeze it and train a Transformer encoder that summarizes past Gaussian trajectories into a latent state whose continuous evolution is governed by a neural ODE. Numerical integration of this latent flow yields smooth, physically plausible Gaussian trajectories that can be queried at any future instant and rendered in real time. Coupled with a variational objective and a lightweight second-derivative regularizer, ODE-GS attains state-of-the-art extrapolation on D-NeRF and NVFI benchmarks, improving PSNR by up to 10 dB and halving perceptual error (LPIPS) relative to the strongest baselines. Our results demonstrate that continuous-time latent dynamics are a powerful, practical route to photorealistic prediction of complex 3D scenes.
- Abstract(参考訳): 本稿では,3次元ガウス散乱と潜在ニューラル常微分方程式(ODE)を結合した新しい手法ODE-GSを提案する。
既存のニューラルレンダリングシステム(NeRFベースか3DGSベースか)は、変形ネットワークに直接時間を埋め込むため、補間時に優れるが、未来を予測するように頼まれると崩壊する。
ODE-GSは、トレーニングウィンドウの高忠実で時間条件の変形モデルを学び、それを凍結し、過去のガウス軌道をニューラルネットワークで制御された潜在状態に要約するトランスフォーマーエンコーダを訓練する。
この潜水流の数値的な積分は滑らかで、物理的に可算なガウス軌道をもたらし、任意の未来の瞬間にクエリされ、リアルタイムでレンダリングされる。
D-NeRFとNVFIのベンチマークでは、変動目標と軽量な第2微分正規化器が組み合わされ、PSNRを最大10dB向上させ、最も高いベースラインに対して知覚誤差(LPIPS)を半減させる。
以上の結果から, 連続潜時ダイナミクスは複雑な3次元シーンの光現実的予測への強力な, 実践的な経路であることが示唆された。
関連論文リスト
- FreeTimeGS: Free Gaussian Primitives at Anytime and Anywhere for Dynamic Scene Reconstruction [64.30050475414947]
FreeTimeGSはガウスのプリミティブを任意の時間と位置で表示できる新しい4D表現である。
我々の表現は強い柔軟性を持ち、ダイナミックな3Dシーンをモデル化する能力を向上させる。
いくつかのデータセットに対する実験結果から,本手法のレンダリング品質は,最近の手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2025-06-05T17:59:57Z) - Robust Moment Identification for Nonlinear PDEs via a Neural ODE Approach [7.097168937001958]
ニューラルODEを用いたPDE-governedシステムから低次モーメントダイナミクスを学習するためのデータ駆動型フレームワークを提案する。
非線形シュリンガー方程式をアプリケーションプラットフォームとして利用し、クロージャが利用可能になったときのモーメントダイナミクスを正確に回復する。
論文 参考訳(メタデータ) (2025-06-05T17:03:42Z) - STDR: Spatio-Temporal Decoupling for Real-Time Dynamic Scene Rendering [15.873329633980015]
既存の3DGSに基づく動的再構成法は、しばしばtextbfSTDR(リアルタイムレンダリングのための空間結合デテンポラル)に悩まされる
実時間レンダリングのためのテキストbfSTDR (Spatio-coupling DeTemporal for Real-time rendering) を提案する。
論文 参考訳(メタデータ) (2025-05-28T14:26:41Z) - ParticleGS: Particle-Based Dynamics Modeling of 3D Gaussians for Prior-free Motion Extrapolation [9.59448024784555]
本稿では,粒子力学系に基づく新しい動的3次元ガウススプラッティングの事前自由運動外挿フレームワークを提案する。
観測されたフレーム列に単純に適合するのではなく、ガウス粒子力学系をより効果的にモデル化することを目的としている。
実験により,提案手法は再現作業における既存手法と同等のレンダリング品質を実現することを示した。
論文 参考訳(メタデータ) (2025-05-26T17:46:35Z) - EVolSplat: Efficient Volume-based Gaussian Splatting for Urban View Synthesis [61.1662426227688]
既存のNeRFおよび3DGSベースの手法は、フォトリアリスティックレンダリングを実現する上で有望な結果を示すが、スローでシーンごとの最適化が必要である。
本稿では,都市景観を対象とした効率的な3次元ガウススプレイティングモデルEVolSplatを紹介する。
論文 参考訳(メタデータ) (2025-03-26T02:47:27Z) - TT-Occ: Test-Time Compute for Self-Supervised Occupancy via Spatio-Temporal Gaussian Splatting [32.57885385644153]
自己監督型3D占有予測は、コストのかかる3Dアノテーションを必要とせずに、シーンの運転を理解するための有望なソリューションを提供する。
TT-Occと呼ばれる実用的で柔軟なテストタイム占有予測フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-11T14:37:39Z) - latentSplat: Autoencoding Variational Gaussians for Fast Generalizable 3D Reconstruction [48.86083272054711]
latentSplatは3D潜在空間における意味ガウスを予測し、軽量な生成型2Dアーキテクチャで切り落としてデコードする手法である。
latentSplatは、高速でスケーラブルで高解像度なデータでありながら、復元品質と一般化におけるこれまでの成果よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-03-24T20:48:36Z) - Equivariant Graph Neural Operator for Modeling 3D Dynamics [148.98826858078556]
我々は,次のステップの予測ではなく,ダイナミックスを直接トラジェクトリとしてモデル化するために,Equivariant Graph Neural Operator (EGNO)を提案する。
EGNOは3次元力学の時間的進化を明示的に学習し、時間とともに関数として力学を定式化し、それを近似するためにニューラル演算子を学習する。
粒子シミュレーション、人間のモーションキャプチャー、分子動力学を含む複数の領域における総合的な実験は、既存の手法と比較して、EGNOの極めて優れた性能を示す。
論文 参考訳(メタデータ) (2024-01-19T21:50:32Z) - Gaussian-Flow: 4D Reconstruction with Dynamic 3D Gaussian Particle [9.082693946898733]
高速な動的シーン再構成と,マルチビューおよびモノクロビデオからのリアルタイムレンダリングのための新しいポイントベースアプローチを提案する。
学習速度の遅さとレンダリング速度によって妨げられるNeRFベースのアプローチとは対照的に,我々はポイントベース3Dガウススプラッティング(3DGS)の最近の進歩を活用している。
提案手法は,フレームごとの3DGSモデリングと比較して,5倍のトレーニング速度を実現し,大幅な効率向上を実現している。
論文 参考訳(メタデータ) (2023-12-06T11:25:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。