論文の概要: 4D Gaussian Splatting as a Learned Dynamical System
- arxiv url: http://arxiv.org/abs/2512.19648v1
- Date: Mon, 22 Dec 2025 18:20:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.875395
- Title: 4D Gaussian Splatting as a Learned Dynamical System
- Title(参考訳): 学習力学系としての4次元ガウス散乱
- Authors: Arnold Caleb Asiimwe, Carl Vondrick,
- Abstract要約: EvoGSはガウス表現を、学習運動法の下で状態が継続的に進化する進化物理的体系として扱う。
動的シーンベンチマーク実験により、EvoGSは変形場ベースラインに比べて動きのコヒーレンスと時間的一貫性が向上することが示された。
- 参考スコア(独自算出の注目度): 41.36168012923513
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We reinterpret 4D Gaussian Splatting as a continuous-time dynamical system, where scene motion arises from integrating a learned neural dynamical field rather than applying per-frame deformations. This formulation, which we call EvoGS, treats the Gaussian representation as an evolving physical system whose state evolves continuously under a learned motion law. This unlocks capabilities absent in deformation-based approaches:(1) sample-efficient learning from sparse temporal supervision by modeling the underlying motion law; (2) temporal extrapolation enabling forward and backward prediction beyond observed time ranges; and (3) compositional dynamics that allow localized dynamics injection for controllable scene synthesis. Experiments on dynamic scene benchmarks show that EvoGS achieves better motion coherence and temporal consistency compared to deformation-field baselines while maintaining real-time rendering
- Abstract(参考訳): 我々は、4Dガウス・スティングを連続時間力学系と解釈し、シーンの動きは、フレーム単位の変形ではなく、学習されたニューラル・ダイナミックな場を統合することによって生じる。
EvoGSと呼ばれるこの定式化は、ガウス表現を、学習された運動法の下で状態が継続的に進化する進化物理系として扱う。
この手法は,(1)動作法則をモデル化してスパース時間的監督からサンプル効率の学習,(2)観測時間範囲を超えた前方・後方予測を可能にする時間外挿,(3)制御可能なシーン合成のための局所的ダイナミックス注入を可能にする構成力学など,変形に基づくアプローチに欠如した能力を解き放つ。
動的シーンベンチマーク実験により、EvoGSはリアルタイムレンダリングを維持しながら変形場ベースラインよりも動きのコヒーレンスと時間的一貫性を向上できることが示された。
関連論文リスト
- ODE-GS: Latent ODEs for Dynamic Scene Extrapolation with 3D Gaussian Splatting [13.520967762833408]
3次元ガウススプラッティングと潜在ニューラル常微分方程式(ODE)を統合する新しいアプローチODE-GSを導入する。
提案手法はまず,観測ウィンドウ内で正確なガウス軌道を生成するモデルを学習し,その上でトランスフォーマーエンコーダを訓練して,過去の軌跡をニューラルODEを介して進化した潜時状態に集約する。
数値積分はスムーズで物理的に妥当な未来のガウス軌道を生成し、任意の未来のタイムスタンプでのレンダリングを可能にする。
論文 参考訳(メタデータ) (2025-06-05T18:02:30Z) - STDR: Spatio-Temporal Decoupling for Real-Time Dynamic Scene Rendering [15.873329633980015]
既存の3DGSに基づく動的再構成法は、しばしばtextbfSTDR(リアルタイムレンダリングのための空間結合デテンポラル)に悩まされる
実時間レンダリングのためのテキストbfSTDR (Spatio-coupling DeTemporal for Real-time rendering) を提案する。
論文 参考訳(メタデータ) (2025-05-28T14:26:41Z) - ParticleGS: Particle-Based Dynamics Modeling of 3D Gaussians for Prior-free Motion Extrapolation [9.59448024784555]
本稿では,粒子力学系に基づく新しい動的3次元ガウススプラッティングの事前自由運動外挿フレームワークを提案する。
観測されたフレーム列に単純に適合するのではなく、ガウス粒子力学系をより効果的にモデル化することを目的としている。
実験により,提案手法は再現作業における既存手法と同等のレンダリング品質を実現することを示した。
論文 参考訳(メタデータ) (2025-05-26T17:46:35Z) - UrbanGS: Semantic-Guided Gaussian Splatting for Urban Scene Reconstruction [86.4386398262018]
UrbanGSは2Dセマンティックマップと既存の動的ガウスアプローチを使って静的オブジェクトとシーンを区別する。
動的オブジェクトに対して、学習可能な時間埋め込みを用いて時間情報を集約する。
提案手法は, 修復の質と効率性において, 最先端の手法より優れている。
論文 参考訳(メタデータ) (2024-12-04T16:59:49Z) - Gaussian Splatting Lucas-Kanade [0.11249583407496218]
本稿では,古典ルーカスカナーデ法を動的ガウススプラッティングに適応させる新しい解析手法を提案する。
前方ワープフィールドネットワークの固有特性を活用することにより,時間積分により正確なシーンフロー計算を容易にする解析速度場を導出する。
提案手法は,合成シーンと実世界のシーンの両方で実証されたような,最小限のカメラモーションで高ダイナミックなシーンを再構築する上で優れている。
論文 参考訳(メタデータ) (2024-07-16T01:50:43Z) - Equivariant Graph Neural Operator for Modeling 3D Dynamics [148.98826858078556]
我々は,次のステップの予測ではなく,ダイナミックスを直接トラジェクトリとしてモデル化するために,Equivariant Graph Neural Operator (EGNO)を提案する。
EGNOは3次元力学の時間的進化を明示的に学習し、時間とともに関数として力学を定式化し、それを近似するためにニューラル演算子を学習する。
粒子シミュレーション、人間のモーションキャプチャー、分子動力学を含む複数の領域における総合的な実験は、既存の手法と比較して、EGNOの極めて優れた性能を示す。
論文 参考訳(メタデータ) (2024-01-19T21:50:32Z) - SC-GS: Sparse-Controlled Gaussian Splatting for Editable Dynamic Scenes [59.23385953161328]
動的シーンのための新しいビュー合成は、コンピュータビジョンとグラフィックスにおいて依然として難しい問題である。
本稿では,動的シーンの動作と外観を疎制御点と高密度ガウスに明示的に分解する新しい表現を提案する。
提案手法は,高忠実度な外観を維持しつつ,ユーザ制御のモーション編集を可能にする。
論文 参考訳(メタデータ) (2023-12-04T11:57:14Z) - Periodic Vibration Gaussian: Dynamic Urban Scene Reconstruction and Real-time Rendering [49.36767999382054]
周期振動ガウスモデル(PVG)を提案する。
PVGは、当初静的シーン表現のために設計された効率的な3Dガウススプラッティング技術に基づいている。
PVGは、最良の代替品よりも900倍の速度でレンダリングできる。
論文 参考訳(メタデータ) (2023-11-30T13:53:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。