論文の概要: Decoupling Motion and Geometry in 4D Gaussian Splatting
- arxiv url: http://arxiv.org/abs/2603.00952v1
- Date: Sun, 01 Mar 2026 07:07:40 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-03-03 19:50:56.429509
- Title: Decoupling Motion and Geometry in 4D Gaussian Splatting
- Title(参考訳): 4次元ガウススプレイティングにおけるデカップリング運動と幾何学
- Authors: Yi Zhang, Yulei Kang, Jian-Fang Hu,
- Abstract要約: VeGaS (VeGaS) は、ガウス運動と幾何学を分離する速度ベースの4Dガウス平滑化フレームワークである。
幾何学的変形ネットワークは、時間的文脈と速度を用いて形状や方向を洗練し、時間的幾何学的モデリングを強化する。
- 参考スコア(独自算出の注目度): 14.559621589031517
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: High-fidelity reconstruction of dynamic scenes is an important yet challenging problem. While recent 4D Gaussian Splatting (4DGS) has demonstrated the ability to model temporal dynamics, it couples Gaussian motion and geometric attributes within a single covariance formulation, which limits its expressiveness for complex motions and often leads to visual artifacts. To address this, we propose VeGaS, a novel velocity-based 4D Gaussian Splatting framework that decouples Gaussian motion and geometry. Specifically, we introduce a Galilean shearing matrix that explicitly incorporates time-varying velocity to flexibly model complex non-linear motions, while strictly isolating the effects of Gaussian motion from the geometry-related conditional Gaussian covariance. Furthermore, a Geometric Deformation Network is introduced to refine Gaussian shapes and orientations using spatio-temporal context and velocity cues, enhancing temporal geometric modeling. Extensive experiments on public datasets demonstrate that VeGaS achieves state-of-the-art performance.
- Abstract(参考訳): 動的シーンの高忠実度再構築は重要な課題である。
最近の4DGSは時相力学をモデル化する能力を示したが、ガウス運動と幾何学的属性を1つの共分散形式に結合し、複雑な運動に対する表現性を制限し、しばしば視覚的アーティファクトに繋がる。
これを解決するために,VeGaSを提案する。VeGaSは,ガウス運動と幾何を分離する,速度に基づく新しい4次元ガウス平滑化フレームワークである。
具体的には、幾何学的条件付きガウス共分散からガウス運動の効果を厳密に分離しつつ、時間変化速度を明示的に組み込んだガリレオせん断行列を導入し、複雑な非線形運動を柔軟にモデル化する。
さらに、時空間と速度キューを用いてガウス形状と向きを洗練し、時間的幾何モデリングを強化するために幾何学的変形ネットワークを導入している。
公開データセットに関する大規模な実験は、VeGaSが最先端のパフォーマンスを達成することを実証している。
関連論文リスト
- TG-Field: Geometry-Aware Radiative Gaussian Fields for Tomographic Reconstruction [16.246538335191982]
Tomography Geometry Field (TG-Field) は、CT再構成のための幾何学的なガウス変形フレームワークである。
TG-Fieldは既存の手法を常に上回り、高度にスパース・ビュー条件下で最先端の復元精度を達成する。
論文 参考訳(メタデータ) (2026-02-12T08:33:01Z) - Riemannian Liquid Spatio-Temporal Graph Network [6.583503277841693]
LTC(Liquid-Constant Network)は不規則サンプリングされた力学のモデリングに優れるが、基本的にユークリッド空間に限られる。
この制限は、固有の非ユークリッド構造を持つ実世界のグラフを表現する際に、顕著な幾何学的歪みをもたらす。
帰納的帰納的幾何バイアスを伴う連続時間液体力学を統一する枠組みを導入する。
RLSTGは複雑な構造を持つグラフ上で優れた性能を達成する。
論文 参考訳(メタデータ) (2026-01-20T16:09:05Z) - 4DSTR: Advancing Generative 4D Gaussians with Spatial-Temporal Rectification for High-Quality and Consistent 4D Generation [28.11338918279445]
本研究では,空間的時間的補正により生成する4次元ガウス散乱を変調する4DSTRと呼ばれる新しい4D生成ネットワークを提案する。
実験の結果,4DSTRは映像から4Dまでの性能を向上し,再現性,空間的時間的整合性,迅速な時間的動きへの適応性に優れていた。
論文 参考訳(メタデータ) (2025-11-10T15:57:03Z) - Physics-Informed Deformable Gaussian Splatting: Towards Unified Constitutive Laws for Time-Evolving Material Field [31.2769262836663]
本研究では物理インフォームド・デフォルマブル・ガウス・スティング(PIDG)を提案する。
具体的には,静的非結合な4Dハッシュ符号化を用いて,形状と動きを効率的に再構成する。
さらに、ラグランジアン粒子流とカメラ補償光流とを合わせることでデータの適合を監督し、収束を加速し、一般化を改善する。
論文 参考訳(メタデータ) (2025-11-09T09:35:03Z) - Orientation-anchored Hyper-Gaussian for 4D Reconstruction from Casual Videos [26.642143303176997]
OriGSは、カジュアルにキャプチャされたモノクロビデオから高品質な4D再構成を行うための新しいフレームワークだ。
まず、空間と時間にまたがる主要な前方方向を伝播するグローバルオリエンテーション場を推定する。
これに基づいて、時間、空間、幾何学、配向をコヒーレントな確率的状態に埋め込む統一的な定式化である、配向を意識したハイパーガウス的(Hyper-Gaussian)を提案する。
論文 参考訳(メタデータ) (2025-09-27T20:43:43Z) - FreeTimeGS: Free Gaussian Primitives at Anytime and Anywhere for Dynamic Scene Reconstruction [64.30050475414947]
FreeTimeGSはガウスのプリミティブを任意の時間と位置で表示できる新しい4D表現である。
我々の表現は強い柔軟性を持ち、ダイナミックな3Dシーンをモデル化する能力を向上させる。
いくつかのデータセットに対する実験結果から,本手法のレンダリング品質は,最近の手法よりも大きなマージンで優れていることが示された。
論文 参考訳(メタデータ) (2025-06-05T17:59:57Z) - Geometry-aware Active Learning of Spatiotemporal Dynamic Systems [4.251030047034566]
本稿では,動的システムのモデリングのための幾何対応能動学習フレームワークを提案する。
データ収集のための空間的位置を戦略的に識別し、予測精度をさらに最大化する適応型能動学習戦略を開発した。
論文 参考訳(メタデータ) (2025-04-26T19:56:38Z) - X$^{2}$-Gaussian: 4D Radiative Gaussian Splatting for Continuous-time Tomographic Reconstruction [64.2059940799033]
現在の方法では、時間分解能を呼吸ゲーティング装置で固定相に識別する。
新規なフレームワークであるX$2$-Gaussianは、動的放射スプラッティングと自己監督型呼吸運動学習を統合することで、連続的な4DCT再構成を可能にする。
論文 参考訳(メタデータ) (2025-03-27T17:59:57Z) - DeSiRe-GS: 4D Street Gaussians for Static-Dynamic Decomposition and Surface Reconstruction for Urban Driving Scenes [71.61083731844282]
本稿では,自己教師型ガウススプラッティング表現であるDeSiRe-GSについて述べる。
複雑な駆動シナリオにおいて、効率的な静的・動的分解と高忠実な表面再構成を可能にする。
論文 参考訳(メタデータ) (2024-11-18T05:49:16Z) - Geometric Trajectory Diffusion Models [58.853975433383326]
生成モデルは3次元幾何学システムの生成において大きな可能性を示してきた。
既存のアプローチは静的構造のみで動作し、物理系は常に自然界において動的であるという事実を無視する。
本研究では3次元軌跡の時間分布をモデル化する最初の拡散モデルである幾何軌道拡散モデル(GeoTDM)を提案する。
論文 参考訳(メタデータ) (2024-10-16T20:36:41Z) - Gaussian Opacity Fields: Efficient Adaptive Surface Reconstruction in Unbounded Scenes [50.92217884840301]
Gaussian Opacity Fields (GOF)は、シーンにおける効率的で高品質で適応的な表面再構成のための新しいアプローチである。
GOFは3Dガウスのレイトレーシングに基づくボリュームレンダリングに由来する。
GOFは、表面再構成と新しいビュー合成において、既存の3DGSベースの手法を超越している。
論文 参考訳(メタデータ) (2024-04-16T17:57:19Z) - SC4D: Sparse-Controlled Video-to-4D Generation and Motion Transfer [57.506654943449796]
動作と外観を分離するSC4Dという,効率的でスパース制御されたビデオ・ツー・4Dフレームワークを提案する。
我々の手法は、品質と効率の両面で既存の手法を超越している。
動作を多種多様な4Dエンティティにシームレスに転送する新しいアプリケーションを考案する。
論文 参考訳(メタデータ) (2024-04-04T18:05:18Z) - Mesh-based Gaussian Splatting for Real-time Large-scale Deformation [58.18290393082119]
ユーザがリアルタイムで大きな変形で暗黙の表現を直接変形または操作することは困難である。
我々は,インタラクティブな変形を可能にする新しいGSベースの手法を開発した。
提案手法は,高いフレームレートで良好なレンダリング結果を維持しつつ,高品質な再構成と効率的な変形を実現する。
論文 参考訳(メタデータ) (2024-02-07T12:36:54Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。