論文の概要: Physics-Informed Deformable Gaussian Splatting: Towards Unified Constitutive Laws for Time-Evolving Material Field
- arxiv url: http://arxiv.org/abs/2511.06299v1
- Date: Sun, 09 Nov 2025 09:35:03 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-11 21:18:44.87345
- Title: Physics-Informed Deformable Gaussian Splatting: Towards Unified Constitutive Laws for Time-Evolving Material Field
- Title(参考訳): 物理式変形可能なガウス平滑化法--時間発展材料分野における統一構成則を目指して
- Authors: Haoqin Hong, Ding Fan, Fubin Dou, Zhi-Li Zhou, Haoran Sun, Congcong Zhu, Jingrun Chen,
- Abstract要約: 本研究では物理インフォームド・デフォルマブル・ガウス・スティング(PIDG)を提案する。
具体的には,静的非結合な4Dハッシュ符号化を用いて,形状と動きを効率的に再構成する。
さらに、ラグランジアン粒子流とカメラ補償光流とを合わせることでデータの適合を監督し、収束を加速し、一般化を改善する。
- 参考スコア(独自算出の注目度): 31.2769262836663
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Recently, 3D Gaussian Splatting (3DGS), an explicit scene representation technique, has shown significant promise for dynamic novel-view synthesis from monocular video input. However, purely data-driven 3DGS often struggles to capture the diverse physics-driven motion patterns in dynamic scenes. To fill this gap, we propose Physics-Informed Deformable Gaussian Splatting (PIDG), which treats each Gaussian particle as a Lagrangian material point with time-varying constitutive parameters and is supervised by 2D optical flow via motion projection. Specifically, we adopt static-dynamic decoupled 4D decomposed hash encoding to reconstruct geometry and motion efficiently. Subsequently, we impose the Cauchy momentum residual as a physics constraint, enabling independent prediction of each particle's velocity and constitutive stress via a time-evolving material field. Finally, we further supervise data fitting by matching Lagrangian particle flow to camera-compensated optical flow, which accelerates convergence and improves generalization. Experiments on a custom physics-driven dataset as well as on standard synthetic and real-world datasets demonstrate significant gains in physical consistency and monocular dynamic reconstruction quality.
- Abstract(参考訳): 近年,露骨なシーン表現技術である3D Gaussian Splatting (3DGS) は,モノクロ映像からの動的ノベルビュー合成に有意な可能性を示唆している。
しかし、純粋にデータ駆動の3DGSは、動的シーンにおける様々な物理駆動の運動パターンを捉えるのに苦労することが多い。
このギャップを埋めるために、各ガウス粒子を時間的構成パラメータでラグランジアン材料点として扱い、モーションプロジェクションによる2次元光流で制御する物理インフォームド・デフォルマブルガウス散乱法(PIDG)を提案する。
具体的には, 静的非結合型4次元分解ハッシュ符号化を用いて, 形状と動きを効率的に再構成する。
次に, コーシー運動量残余を物理制約として課し, 粒子の速度と構成応力を時間発展材料場を介して独立に予測する。
最後に,ラグランジアン粒子流とカメラ補償光流とを合わせることでデータの適合性をさらに監視し,収束を加速し,一般化を改善する。
物理駆動のカスタムデータセットと、標準的な合成データセットと実世界のデータセットの実験は、物理的一貫性と単分子的動的再構成の品質に大きな向上を示した。
関連論文リスト
- PhysGM: Large Physical Gaussian Model for Feed-Forward 4D Synthesis [37.21119648359889]
PhysGMはフィードフォワードフレームワークであり、単一の画像から3次元ガウス表現とその物理的特性を共同で予測する。
1分で1枚の画像から高忠実度4Dシミュレーションを効果的に生成する。
論文 参考訳(メタデータ) (2025-08-19T15:10:30Z) - DGS-LRM: Real-Time Deformable 3D Gaussian Reconstruction From Monocular Videos [52.46386528202226]
Deformable Gaussian Splats Large Reconstruction Model (DGS-LRM)を紹介する。
動的シーンのモノクロポーズビデオから変形可能な3Dガウススプラットを予測する最初のフィードフォワード法である。
最先端のモノクロビデオ3D追跡手法と同等の性能を発揮する。
論文 参考訳(メタデータ) (2025-06-11T17:59:58Z) - ODE-GS: Latent ODEs for Dynamic Scene Extrapolation with 3D Gaussian Splatting [13.520967762833408]
3次元ガウススプラッティングと潜在ニューラル常微分方程式(ODE)を統合する新しいアプローチODE-GSを導入する。
提案手法はまず,観測ウィンドウ内で正確なガウス軌道を生成するモデルを学習し,その上でトランスフォーマーエンコーダを訓練して,過去の軌跡をニューラルODEを介して進化した潜時状態に集約する。
数値積分はスムーズで物理的に妥当な未来のガウス軌道を生成し、任意の未来のタイムスタンプでのレンダリングを可能にする。
論文 参考訳(メタデータ) (2025-06-05T18:02:30Z) - ParticleGS: Particle-Based Dynamics Modeling of 3D Gaussians for Prior-free Motion Extrapolation [9.59448024784555]
本稿では,粒子力学系に基づく新しい動的3次元ガウススプラッティングの事前自由運動外挿フレームワークを提案する。
観測されたフレーム列に単純に適合するのではなく、ガウス粒子力学系をより効果的にモデル化することを目的としている。
実験により,提案手法は再現作業における既存手法と同等のレンダリング品質を実現することを示した。
論文 参考訳(メタデータ) (2025-05-26T17:46:35Z) - EMoTive: Event-guided Trajectory Modeling for 3D Motion Estimation [59.33052312107478]
イベントカメラは、シーン変化に対する連続的適応ピクセルレベル応答による3次元モーション推定の可能性を提供する。
本稿では,イベント誘導パラメトリック曲線を用いた一様軌道をモデル化するイベントベースフレームワークであるEMoveについて述べる。
動作表現には,事象誘導下での空間的特徴と時間的特徴を融合する密度認識適応機構を導入する。
最終3次元運動推定は、パラメトリック軌道、流れ、深度運動場の多時間サンプリングによって達成される。
論文 参考訳(メタデータ) (2025-03-14T13:15:54Z) - Gaussian Splatting Lucas-Kanade [0.11249583407496218]
本稿では,古典ルーカスカナーデ法を動的ガウススプラッティングに適応させる新しい解析手法を提案する。
前方ワープフィールドネットワークの固有特性を活用することにより,時間積分により正確なシーンフロー計算を容易にする解析速度場を導出する。
提案手法は,合成シーンと実世界のシーンの両方で実証されたような,最小限のカメラモーションで高ダイナミックなシーンを再構築する上で優れている。
論文 参考訳(メタデータ) (2024-07-16T01:50:43Z) - Motion-aware 3D Gaussian Splatting for Efficient Dynamic Scene Reconstruction [89.53963284958037]
動的シーン再構築のための新しい動き認識拡張フレームワークを提案する。
具体的には,まず3次元ガウス運動と画素レベルの流れの対応性を確立する。
より厳密な最適化問題を示す先行的な変形に基づくパラダイムに対して,過渡対応変形補助モジュールを提案する。
論文 参考訳(メタデータ) (2024-03-18T03:46:26Z) - EmerNeRF: Emergent Spatial-Temporal Scene Decomposition via
Self-Supervision [85.17951804790515]
EmerNeRFは動的駆動シーンの時空間表現を学習するためのシンプルだが強力なアプローチである。
シーンの幾何学、外観、動き、セマンティクスを自己ブートストラップで同時にキャプチャする。
本手法はセンサシミュレーションにおける最先端性能を実現する。
論文 参考訳(メタデータ) (2023-11-03T17:59:55Z) - Dynamic 3D Gaussians: Tracking by Persistent Dynamic View Synthesis [58.5779956899918]
動的シーンビュー合成と6自由度(6-DOF)追跡のタスクを同時に処理する手法を提案する。
我々は、シーンを3Dガウスアンのコレクションとしてモデル化する最近の研究に触発された、分析バイシンセサイザーの枠組みに従う。
我々は,1人称視点合成,動的合成シーン合成,4次元映像編集など,我々の表現によって実現された多数のダウンストリームアプリケーションを紹介した。
論文 参考訳(メタデータ) (2023-08-18T17:59:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。