論文の概要: ODE-GS: Latent ODEs for Dynamic Scene Extrapolation with 3D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2506.05480v3
- Date: Tue, 30 Sep 2025 17:38:55 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-01 14:44:59.77232
- Title: ODE-GS: Latent ODEs for Dynamic Scene Extrapolation with 3D Gaussian Splatting
- Title(参考訳): ODE-GS:3次元ガウススプレイティングを用いた動的シーン外挿のための潜在ODE
- Authors: Daniel Wang, Patrick Rim, Tian Tian, Dong Lao, Alex Wong, Ganesh Sundaramoorthi,
- Abstract要約: 3次元ガウススプラッティングと潜在ニューラル常微分方程式(ODE)を統合する新しいアプローチODE-GSを導入する。
提案手法はまず,観測ウィンドウ内で正確なガウス軌道を生成するモデルを学習し,その上でトランスフォーマーエンコーダを訓練して,過去の軌跡をニューラルODEを介して進化した潜時状態に集約する。
数値積分はスムーズで物理的に妥当な未来のガウス軌道を生成し、任意の未来のタイムスタンプでのレンダリングを可能にする。
- 参考スコア(独自算出の注目度): 13.520967762833408
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We introduce ODE-GS, a novel approach that integrates 3D Gaussian Splatting with latent neural ordinary differential equations (ODEs) to enable future extrapolation of dynamic 3D scenes. Unlike existing dynamic scene reconstruction methods, which rely on time-conditioned deformation networks and are limited to interpolation within a fixed time window, ODE-GS eliminates timestamp dependency by modeling Gaussian parameter trajectories as continuous-time latent dynamics. Our approach first learns an interpolation model to generate accurate Gaussian trajectories within the observed window, then trains a Transformer encoder to aggregate past trajectories into a latent state evolved via a neural ODE. Finally, numerical integration produces smooth, physically plausible future Gaussian trajectories, enabling rendering at arbitrary future timestamps. On the D-NeRF, NVFi, and HyperNeRF benchmarks, ODE-GS achieves state-of-the-art extrapolation performance, improving metrics by 19.8% compared to leading baselines, demonstrating its ability to accurately represent and predict 3D scene dynamics.
- Abstract(参考訳): 本稿では,3次元ガウススプラッティングと潜在ニューラル常微分方程式(ODE)を統合し,動的3次元シーンの将来の外挿を可能にする新しいアプローチODE-GSを紹介する。
時間条件の変形ネットワークに依存し、固定時間ウィンドウ内での補間に制限される既存の動的シーン再構成法とは異なり、ODE-GSはガウスパラメータ軌道を連続時間潜時ダイナミクスとしてモデル化することによりタイムスタンプ依存性を除去する。
提案手法はまず,観測ウィンドウ内で正確なガウス軌跡を生成するための補間モデルを学習し,その上でトランスフォーマーエンコーダを訓練して,過去の軌跡をニューラルODEを介して進化した潜時状態に集約する。
最後に、数値積分は滑らかで物理的に妥当な未来のガウス軌道を生成し、任意の将来のタイムスタンプでのレンダリングを可能にする。
D-NeRF、NVFi、HyperNeRFのベンチマークでは、ODE-GSは最先端のベースラインと比較して19.8%のメトリクス向上を実現し、3Dシーンのダイナミクスを正確に表現し予測する能力を示している。
関連論文リスト
- Pseudo Depth Meets Gaussian: A Feed-forward RGB SLAM Baseline [64.42938561167402]
本稿では,3次元ガウス型SLAMとフィードフォワードリカレント予測モジュールを組み合わせたオンライン3次元再構成手法を提案する。
このアプローチは、遅いテスト時間の最適化を高速なネットワーク推論に置き換え、トラッキング速度を大幅に改善する。
提案手法は,最先端のSplaTAMと同等の性能を示しながら,追跡時間を90%以上削減する。
論文 参考訳(メタデータ) (2025-08-06T16:16:58Z) - HoliGS: Holistic Gaussian Splatting for Embodied View Synthesis [59.25751939710903]
本稿では,長い単眼RGBビデオのエンボディドビュー合成に対処する,変形可能なガウススプラッティングフレームワークを提案する。
提案手法は,非可逆ガウス散乱変形ネットワークを利用して大規模動的環境を正確に再構築する。
その結果、現実のシナリオにおけるEVSの実用的でスケーラブルなソリューションが浮かび上がっています。
論文 参考訳(メタデータ) (2025-06-24T03:54:40Z) - Speedy Deformable 3D Gaussian Splatting: Fast Rendering and Compression of Dynamic Scenes [57.69608119350651]
動的シーンへの3次元ガウススティング(3DGS)の最近の拡張は、ニューラルネットワークを用いて各ガウスの時間変化変形を予測することによって、高品質な新規ビュー合成を実現する。
しかしながら、ガウス毎のニューラルネットワークを各フレームで実行することは、レンダリング速度を制限し、メモリと計算要求を増大させる、重大なボトルネックとなる。
動的3DGSおよび4DGS表現のレンダリング速度を2つの相補的手法により低減し,高速化する汎用パイプラインであるSpeedy Deformable 3D Gaussian Splatting(SpeeDe3DGS)を提案する。
論文 参考訳(メタデータ) (2025-06-09T16:30:48Z) - FreeTimeGS: Free Gaussian Primitives at Anytime and Anywhere for Dynamic Scene Reconstruction [64.30050475414947]
FreeTimeGSはガウスのプリミティブを任意の時間と位置で表示できる新しい4D表現である。
我々の表現は強い柔軟性を持ち、ダイナミックな3Dシーンをモデル化する能力を向上させる。
いくつかのデータセットに対する実験結果から,本手法のレンダリング品質は,最近の手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2025-06-05T17:59:57Z) - Robust Moment Identification for Nonlinear PDEs via a Neural ODE Approach [7.097168937001958]
ニューラルODEを用いたPDE-governedシステムから低次モーメントダイナミクスを学習するためのデータ駆動型フレームワークを提案する。
非線形シュリンガー方程式をアプリケーションプラットフォームとして利用し、クロージャが利用可能になったときのモーメントダイナミクスを正確に回復する。
論文 参考訳(メタデータ) (2025-06-05T17:03:42Z) - STDR: Spatio-Temporal Decoupling for Real-Time Dynamic Scene Rendering [15.873329633980015]
既存の3DGSに基づく動的再構成法は、しばしばtextbfSTDR(リアルタイムレンダリングのための空間結合デテンポラル)に悩まされる
実時間レンダリングのためのテキストbfSTDR (Spatio-coupling DeTemporal for Real-time rendering) を提案する。
論文 参考訳(メタデータ) (2025-05-28T14:26:41Z) - ParticleGS: Particle-Based Dynamics Modeling of 3D Gaussians for Prior-free Motion Extrapolation [9.59448024784555]
本稿では,粒子力学系に基づく新しい動的3次元ガウススプラッティングの事前自由運動外挿フレームワークを提案する。
観測されたフレーム列に単純に適合するのではなく、ガウス粒子力学系をより効果的にモデル化することを目的としている。
実験により,提案手法は再現作業における既存手法と同等のレンダリング品質を実現することを示した。
論文 参考訳(メタデータ) (2025-05-26T17:46:35Z) - EVolSplat: Efficient Volume-based Gaussian Splatting for Urban View Synthesis [61.1662426227688]
既存のNeRFおよび3DGSベースの手法は、フォトリアリスティックレンダリングを実現する上で有望な結果を示すが、スローでシーンごとの最適化が必要である。
本稿では,都市景観を対象とした効率的な3次元ガウススプレイティングモデルEVolSplatを紹介する。
論文 参考訳(メタデータ) (2025-03-26T02:47:27Z) - TT-Occ: Test-Time Compute for Self-Supervised Occupancy via Spatio-Temporal Gaussian Splatting [32.57885385644153]
自己監督型3D占有予測は、コストのかかる3Dアノテーションを必要とせずに、シーンの運転を理解するための有望なソリューションを提供する。
TT-Occと呼ばれる実用的で柔軟なテストタイム占有予測フレームワークを提案する。
論文 参考訳(メタデータ) (2025-03-11T14:37:39Z) - latentSplat: Autoencoding Variational Gaussians for Fast Generalizable 3D Reconstruction [48.86083272054711]
latentSplatは3D潜在空間における意味ガウスを予測し、軽量な生成型2Dアーキテクチャで切り落としてデコードする手法である。
latentSplatは、高速でスケーラブルで高解像度なデータでありながら、復元品質と一般化におけるこれまでの成果よりも優れていることを示す。
論文 参考訳(メタデータ) (2024-03-24T20:48:36Z) - Equivariant Graph Neural Operator for Modeling 3D Dynamics [148.98826858078556]
我々は,次のステップの予測ではなく,ダイナミックスを直接トラジェクトリとしてモデル化するために,Equivariant Graph Neural Operator (EGNO)を提案する。
EGNOは3次元力学の時間的進化を明示的に学習し、時間とともに関数として力学を定式化し、それを近似するためにニューラル演算子を学習する。
粒子シミュレーション、人間のモーションキャプチャー、分子動力学を含む複数の領域における総合的な実験は、既存の手法と比較して、EGNOの極めて優れた性能を示す。
論文 参考訳(メタデータ) (2024-01-19T21:50:32Z) - Gaussian-Flow: 4D Reconstruction with Dynamic 3D Gaussian Particle [9.082693946898733]
高速な動的シーン再構成と,マルチビューおよびモノクロビデオからのリアルタイムレンダリングのための新しいポイントベースアプローチを提案する。
学習速度の遅さとレンダリング速度によって妨げられるNeRFベースのアプローチとは対照的に,我々はポイントベース3Dガウススプラッティング(3DGS)の最近の進歩を活用している。
提案手法は,フレームごとの3DGSモデリングと比較して,5倍のトレーニング速度を実現し,大幅な効率向上を実現している。
論文 参考訳(メタデータ) (2023-12-06T11:25:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。