論文の概要: 4D Gaussian Splatting as a Learned Dynamical System
- arxiv url: http://arxiv.org/abs/2512.19648v1
- Date: Mon, 22 Dec 2025 18:20:29 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-23 18:54:32.875395
- Title: 4D Gaussian Splatting as a Learned Dynamical System
- Title(参考訳): 学習力学系としての4次元ガウス散乱
- Authors: Arnold Caleb Asiimwe, Carl Vondrick,
- Abstract要約: EvoGSはガウス表現を、学習運動法の下で状態が継続的に進化する進化物理的体系として扱う。
動的シーンベンチマーク実験により、EvoGSは変形場ベースラインに比べて動きのコヒーレンスと時間的一貫性が向上することが示された。
- 参考スコア(独自算出の注目度): 41.36168012923513
- License: http://creativecommons.org/licenses/by-sa/4.0/
- Abstract: We reinterpret 4D Gaussian Splatting as a continuous-time dynamical system, where scene motion arises from integrating a learned neural dynamical field rather than applying per-frame deformations. This formulation, which we call EvoGS, treats the Gaussian representation as an evolving physical system whose state evolves continuously under a learned motion law. This unlocks capabilities absent in deformation-based approaches:(1) sample-efficient learning from sparse temporal supervision by modeling the underlying motion law; (2) temporal extrapolation enabling forward and backward prediction beyond observed time ranges; and (3) compositional dynamics that allow localized dynamics injection for controllable scene synthesis. Experiments on dynamic scene benchmarks show that EvoGS achieves better motion coherence and temporal consistency compared to deformation-field baselines while maintaining real-time rendering
- Abstract(参考訳): 我々は、4Dガウス・スティングを連続時間力学系と解釈し、シーンの動きは、フレーム単位の変形ではなく、学習されたニューラル・ダイナミックな場を統合することによって生じる。
EvoGSと呼ばれるこの定式化は、ガウス表現を、学習された運動法の下で状態が継続的に進化する進化物理系として扱う。
この手法は,(1)動作法則をモデル化してスパース時間的監督からサンプル効率の学習,(2)観測時間範囲を超えた前方・後方予測を可能にする時間外挿,(3)制御可能なシーン合成のための局所的ダイナミックス注入を可能にする構成力学など,変形に基づくアプローチに欠如した能力を解き放つ。
動的シーンベンチマーク実験により、EvoGSはリアルタイムレンダリングを維持しながら変形場ベースラインよりも動きのコヒーレンスと時間的一貫性を向上できることが示された。
関連論文リスト
- FLAG-4D: Flow-Guided Local-Global Dual-Deformation Model for 4D Reconstruction [7.144085821875197]
FLAG-4Dは3Dガウス原始体が空間と時間を通してどのように進化するかを再構築する。
最先端の手法よりも細かな細部で高忠実で時間的に整合した再構築を実現する。
論文 参考訳(メタデータ) (2026-02-09T11:55:15Z) - Schrödinger-Inspired Time-Evolution for 4D Deformation Forecasting [3.0519975190807407]
本研究では、4次元予測のための深い畳み込みフレームワーク内に明示的な時間進化演算子を組み込む物理誘導型ニューラルネットワークを提案する。
我々は, 合成ベンチマークを用いて, 強度変形や磁場を含む将来の4次元状態の高精度かつ安定した予測を行う。
論文 参考訳(メタデータ) (2026-01-31T11:17:04Z) - VDEGaussian: Video Diffusion Enhanced 4D Gaussian Splatting for Dynamic Urban Scenes Modeling [68.65587507038539]
本稿では,動的都市景観モデリングのための拡散強調4次元ガウス平滑化フレームワークを提案する。
我々の重要な洞察は、テスト時間に適応したビデオ拡散モデルから頑健で時間的に一貫した事前情報を抽出することである。
提案手法は, 高速移動物体の動的モデリングを著しく向上させ, 2dBのPSNRゲインを近似的に達成する。
論文 参考訳(メタデータ) (2025-08-04T07:24:05Z) - ODE-GS: Latent ODEs for Dynamic Scene Extrapolation with 3D Gaussian Splatting [13.520967762833408]
3次元ガウススプラッティングと潜在ニューラル常微分方程式(ODE)を統合する新しいアプローチODE-GSを導入する。
提案手法はまず,観測ウィンドウ内で正確なガウス軌道を生成するモデルを学習し,その上でトランスフォーマーエンコーダを訓練して,過去の軌跡をニューラルODEを介して進化した潜時状態に集約する。
数値積分はスムーズで物理的に妥当な未来のガウス軌道を生成し、任意の未来のタイムスタンプでのレンダリングを可能にする。
論文 参考訳(メタデータ) (2025-06-05T18:02:30Z) - STDR: Spatio-Temporal Decoupling for Real-Time Dynamic Scene Rendering [15.873329633980015]
既存の3DGSに基づく動的再構成法は、しばしばtextbfSTDR(リアルタイムレンダリングのための空間結合デテンポラル)に悩まされる
実時間レンダリングのためのテキストbfSTDR (Spatio-coupling DeTemporal for Real-time rendering) を提案する。
論文 参考訳(メタデータ) (2025-05-28T14:26:41Z) - ParticleGS: Particle-Based Dynamics Modeling of 3D Gaussians for Prior-free Motion Extrapolation [9.59448024784555]
本稿では,粒子力学系に基づく新しい動的3次元ガウススプラッティングの事前自由運動外挿フレームワークを提案する。
観測されたフレーム列に単純に適合するのではなく、ガウス粒子力学系をより効果的にモデル化することを目的としている。
実験により,提案手法は再現作業における既存手法と同等のレンダリング品質を実現することを示した。
論文 参考訳(メタデータ) (2025-05-26T17:46:35Z) - CoDa-4DGS: Dynamic Gaussian Splatting with Context and Deformation Awareness for Autonomous Driving [12.006435326659526]
ダイナミックなシーンレンダリングを改善するために,新しい4次元ガウススプラッティング(4DGS)手法を提案する。
具体的には,2次元セマンティックセグメンテーション基盤モデルを用いて,ガウスの4次元セマンティック特徴を自己監督する。
意味的変形特徴と時間的変形特徴の両方を集約して符号化することにより、各ガウスは潜在的な変形補償のための手がかりを備える。
論文 参考訳(メタデータ) (2025-03-09T19:58:51Z) - UrbanGS: Semantic-Guided Gaussian Splatting for Urban Scene Reconstruction [86.4386398262018]
UrbanGSは2Dセマンティックマップと既存の動的ガウスアプローチを使って静的オブジェクトとシーンを区別する。
動的オブジェクトに対して、学習可能な時間埋め込みを用いて時間情報を集約する。
提案手法は, 修復の質と効率性において, 最先端の手法より優れている。
論文 参考訳(メタデータ) (2024-12-04T16:59:49Z) - Gaussian Splatting Lucas-Kanade [0.11249583407496218]
本稿では,古典ルーカスカナーデ法を動的ガウススプラッティングに適応させる新しい解析手法を提案する。
前方ワープフィールドネットワークの固有特性を活用することにより,時間積分により正確なシーンフロー計算を容易にする解析速度場を導出する。
提案手法は,合成シーンと実世界のシーンの両方で実証されたような,最小限のカメラモーションで高ダイナミックなシーンを再構築する上で優れている。
論文 参考訳(メタデータ) (2024-07-16T01:50:43Z) - Equivariant Graph Neural Operator for Modeling 3D Dynamics [148.98826858078556]
我々は,次のステップの予測ではなく,ダイナミックスを直接トラジェクトリとしてモデル化するために,Equivariant Graph Neural Operator (EGNO)を提案する。
EGNOは3次元力学の時間的進化を明示的に学習し、時間とともに関数として力学を定式化し、それを近似するためにニューラル演算子を学習する。
粒子シミュレーション、人間のモーションキャプチャー、分子動力学を含む複数の領域における総合的な実験は、既存の手法と比較して、EGNOの極めて優れた性能を示す。
論文 参考訳(メタデータ) (2024-01-19T21:50:32Z) - SC-GS: Sparse-Controlled Gaussian Splatting for Editable Dynamic Scenes [59.23385953161328]
動的シーンのための新しいビュー合成は、コンピュータビジョンとグラフィックスにおいて依然として難しい問題である。
本稿では,動的シーンの動作と外観を疎制御点と高密度ガウスに明示的に分解する新しい表現を提案する。
提案手法は,高忠実度な外観を維持しつつ,ユーザ制御のモーション編集を可能にする。
論文 参考訳(メタデータ) (2023-12-04T11:57:14Z) - Periodic Vibration Gaussian: Dynamic Urban Scene Reconstruction and Real-time Rendering [49.36767999382054]
周期振動ガウスモデル(PVG)を提案する。
PVGは、当初静的シーン表現のために設計された効率的な3Dガウススプラッティング技術に基づいている。
PVGは、最良の代替品よりも900倍の速度でレンダリングできる。
論文 参考訳(メタデータ) (2023-11-30T13:53:50Z) - Dynamic 3D Gaussians: Tracking by Persistent Dynamic View Synthesis [58.5779956899918]
動的シーンビュー合成と6自由度(6-DOF)追跡のタスクを同時に処理する手法を提案する。
我々は、シーンを3Dガウスアンのコレクションとしてモデル化する最近の研究に触発された、分析バイシンセサイザーの枠組みに従う。
我々は,1人称視点合成,動的合成シーン合成,4次元映像編集など,我々の表現によって実現された多数のダウンストリームアプリケーションを紹介した。
論文 参考訳(メタデータ) (2023-08-18T17:59:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。