論文の概要: ParticleGS: Particle-Based Dynamics Modeling of 3D Gaussians for Prior-free Motion Extrapolation
- arxiv url: http://arxiv.org/abs/2505.20270v1
- Date: Mon, 26 May 2025 17:46:35 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-05-28 14:37:20.363509
- Title: ParticleGS: Particle-Based Dynamics Modeling of 3D Gaussians for Prior-free Motion Extrapolation
- Title(参考訳): ParticleGS: プリフリー運動外挿のための3次元ガウスの粒子動力学モデリング
- Authors: Jinsheng Quan, Chunshi Wang, Yawei Luo,
- Abstract要約: 本稿では,粒子力学系に基づく新しい動的3次元ガウススプラッティングの事前自由運動外挿フレームワークを提案する。
観測されたフレーム列に単純に適合するのではなく、ガウス粒子力学系をより効果的にモデル化することを目的としている。
実験により,提案手法は再現作業における既存手法と同等のレンダリング品質を実現することを示した。
- 参考スコア(独自算出の注目度): 9.59448024784555
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: This paper aims to model the dynamics of 3D Gaussians from visual observations to support temporal extrapolation. Existing dynamic 3D reconstruction methods often struggle to effectively learn underlying dynamics or rely heavily on manually defined physical priors, which limits their extrapolation capabilities. To address this issue, we propose a novel dynamic 3D Gaussian Splatting prior-free motion extrapolation framework based on particle dynamics systems. The core advantage of our method lies in its ability to learn differential equations that describe the dynamics of 3D Gaussians, and follow them during future frame extrapolation. Instead of simply fitting to the observed visual frame sequence, we aim to more effectively model the gaussian particle dynamics system. To this end, we introduce a dynamics latent state vector into the standard Gaussian kernel and design a dynamics latent space encoder to extract initial state. Subsequently, we introduce a Neural ODEs-based dynamics module that models the temporal evolution of Gaussian in dynamics latent space. Finally, a Gaussian kernel space decoder is used to decode latent state at the specific time step into the deformation. Experimental results demonstrate that the proposed method achieves comparable rendering quality with existing approaches in reconstruction tasks, and significantly outperforms them in future frame extrapolation. Our code is available at https://github.com/QuanJinSheng/ParticleGS.
- Abstract(参考訳): 本稿では,3次元ガウスのダイナミックスを視覚観測からモデル化し,時間外挿を支援することを目的とする。
既存の動的3D再構成手法は、しばしば基礎となる力学を効果的に学習するか、手動で定義された物理的事前に強く依存するため、外挿能力を制限している。
この問題に対処するために,粒子動力学システムに基づく新しい動的3次元ガウススプラッティングの事前自由運動外挿フレームワークを提案する。
この手法のコアとなる利点は、3次元ガウスの力学を記述した微分方程式を学習し、将来のフレーム外挿でそれらに従うことである。
観測されたフレーム列に単純に適合するのではなく、ガウス粒子力学系をより効果的にモデル化することを目的としている。
この目的のために、標準ガウスカーネルに動的潜在状態ベクトルを導入し、初期状態抽出のための動的潜在空間エンコーダを設計する。
次に、動的潜在空間におけるガウスの時間的進化をモデル化したニューラルODEベースの動的モジュールを提案する。
最後に、ガウスカーネル空間デコーダを用いて、特定の時点における遅延状態を変形にデコードする。
実験により,提案手法は既存手法と同等のレンダリング品質を再現作業で達成し,将来のフレーム外挿において大幅に性能が向上することを示した。
私たちのコードはhttps://github.com/QuanJinSheng/ParticleGS.comで公開されています。
関連論文リスト
- Latent Space Energy-based Neural ODEs [73.01344439786524]
本稿では,連続時間列を表現するために設計された新しい深部力学モデルを提案する。
マルコフ連鎖モンテカルロの最大推定値を用いてモデルを訓練する。
振動系, ビデオ, 実世界の状態系列(MuJoCo)の実験結果から, 学習可能なエネルギーベース先行モデルの方が既存のモデルより優れていることが示された。
論文 参考訳(メタデータ) (2024-09-05T18:14:22Z) - Gaussian Splatting Lucas-Kanade [0.11249583407496218]
本稿では,古典ルーカスカナーデ法を動的ガウススプラッティングに適応させる新しい解析手法を提案する。
前方ワープフィールドネットワークの固有特性を活用することにより,時間積分により正確なシーンフロー計算を容易にする解析速度場を導出する。
提案手法は,合成シーンと実世界のシーンの両方で実証されたような,最小限のカメラモーションで高ダイナミックなシーンを再構築する上で優れている。
論文 参考訳(メタデータ) (2024-07-16T01:50:43Z) - GaussianPrediction: Dynamic 3D Gaussian Prediction for Motion Extrapolation and Free View Synthesis [71.24791230358065]
動的シーンモデリングと将来のシナリオ合成により,3次元ガウス表現を実現する新しいフレームワークを提案する。
GaussianPredictionは、ダイナミックなシーンのビデオ観察を使用して、あらゆる視点から将来の状態を予測できる。
本フレームワークは,合成データセットと実世界のデータセットの両方で優れた性能を示し,将来の環境の予測とレンダリングの有効性を示す。
論文 参考訳(メタデータ) (2024-05-30T06:47:55Z) - Equivariant Graph Neural Operator for Modeling 3D Dynamics [148.98826858078556]
我々は,次のステップの予測ではなく,ダイナミックスを直接トラジェクトリとしてモデル化するために,Equivariant Graph Neural Operator (EGNO)を提案する。
EGNOは3次元力学の時間的進化を明示的に学習し、時間とともに関数として力学を定式化し、それを近似するためにニューラル演算子を学習する。
粒子シミュレーション、人間のモーションキャプチャー、分子動力学を含む複数の領域における総合的な実験は、既存の手法と比較して、EGNOの極めて優れた性能を示す。
論文 参考訳(メタデータ) (2024-01-19T21:50:32Z) - GauFRe: Gaussian Deformation Fields for Real-time Dynamic Novel View Synthesis [16.733855781461802]
インプシット変形可能表現は、通常、標準空間と時間依存の変形場を持つ運動をモデル化する。
GauFReは、フォワードウォーピング変形を使用して、シーン幾何学の非剛体変換を明示的にモデル化する。
実験により,提案手法は従来の最先端のNeRF法やガウス法よりも高い効率と競争結果が得られることが示された。
論文 参考訳(メタデータ) (2023-12-18T18:59:03Z) - Dynamic 3D Gaussians: Tracking by Persistent Dynamic View Synthesis [58.5779956899918]
動的シーンビュー合成と6自由度(6-DOF)追跡のタスクを同時に処理する手法を提案する。
我々は、シーンを3Dガウスアンのコレクションとしてモデル化する最近の研究に触発された、分析バイシンセサイザーの枠組みに従う。
我々は,1人称視点合成,動的合成シーン合成,4次元映像編集など,我々の表現によって実現された多数のダウンストリームアプリケーションを紹介した。
論文 参考訳(メタデータ) (2023-08-18T17:59:21Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。