論文の概要: Space-Time Forecasting of Dynamic Scenes with Motion-aware Gaussian Grouping
- arxiv url: http://arxiv.org/abs/2602.21668v1
- Date: Wed, 25 Feb 2026 08:04:07 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-26 18:19:16.750418
- Title: Space-Time Forecasting of Dynamic Scenes with Motion-aware Gaussian Grouping
- Title(参考訳): 運動認識型ガウスグループによる動的シーンの時空間予測
- Authors: Junmyeong Lee, Hoseung Choi, Minsu Cho,
- Abstract要約: MoGaF は 4D Gaussian Splatting 表現に基づいて構築された長期シーン外挿のためのフレームワークである。
軽量な予測モジュールは将来の動きを予測し、現実的で時間的に安定したシーンの進化を可能にする。
合成および実世界のデータセットの実験により、MoGaFはレンダリング品質、運動可視性、長期予測安定性において、既存のベースラインを一貫して上回っていることが示された。
- 参考スコア(独自算出の注目度): 47.282424020983996
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Forecasting dynamic scenes remains a fundamental challenge in computer vision, as limited observations make it difficult to capture coherent object-level motion and long-term temporal evolution. We present Motion Group-aware Gaussian Forecasting (MoGaF), a framework for long-term scene extrapolation built upon the 4D Gaussian Splatting representation. MoGaF introduces motion-aware Gaussian grouping and group-wise optimization to enforce physically consistent motion across both rigid and non-rigid regions, yielding spatially coherent dynamic representations. Leveraging this structured space-time representation, a lightweight forecasting module predicts future motion, enabling realistic and temporally stable scene evolution. Experiments on synthetic and real-world datasets demonstrate that MoGaF consistently outperforms existing baselines in rendering quality, motion plausibility, and long-term forecasting stability. Our project page is available at https://slime0519.github.io/mogaf
- Abstract(参考訳): 動的シーンの予測はコンピュータビジョンの基本的な課題であり、限られた観測結果により、コヒーレントな物体レベルの動きと長期の時間的進化を捉えることは困難である。
我々は,4次元ガウス分割表現に基づく長期シーン外挿のためのフレームワークであるMoGaF(MoGaF)を提案する。
MoGaFは、剛性領域と非剛性領域の両方にわたって物理的に一貫した動きを強制し、空間的にコヒーレントな動的表現をもたらす、運動対応ガウス群とグループワイズ最適化を導入している。
この構造化された時空表現を利用することで、軽量な予測モジュールは将来の動きを予測し、現実的で時間的に安定したシーンの進化を可能にする。
合成および実世界のデータセットの実験により、MoGaFはレンダリング品質、運動可視性、長期予測安定性において、既存のベースラインを一貫して上回っていることが示された。
私たちのプロジェクトページはhttps://slime0519.github.io/mogafで公開されています。
関連論文リスト
- 4D Gaussian Splatting as a Learned Dynamical System [41.36168012923513]
EvoGSはガウス表現を、学習運動法の下で状態が継続的に進化する進化物理的体系として扱う。
動的シーンベンチマーク実験により、EvoGSは変形場ベースラインに比べて動きのコヒーレンスと時間的一貫性が向上することが示された。
論文 参考訳(メタデータ) (2025-12-22T18:20:29Z) - SAMPO:Scale-wise Autoregression with Motion PrOmpt for generative world models [42.814012901180774]
textbfSAMPOは、フレーム内生成のための視覚的自己回帰モデリングと、次のフレーム生成のための因果モデリングを組み合わせたハイブリッドフレームワークである。
動作条件付きビデオ予測とモデルベース制御において,SAMPOが競合性能を発揮することを示す。
また、SAMPOのゼロショット一般化とスケーリング挙動を評価し、未知のタスクに一般化する能力を示す。
論文 参考訳(メタデータ) (2025-09-19T02:41:37Z) - EMoTive: Event-guided Trajectory Modeling for 3D Motion Estimation [59.33052312107478]
イベントカメラは、シーン変化に対する連続的適応ピクセルレベル応答による3次元モーション推定の可能性を提供する。
本稿では,イベント誘導パラメトリック曲線を用いた一様軌道をモデル化するイベントベースフレームワークであるEMoveについて述べる。
動作表現には,事象誘導下での空間的特徴と時間的特徴を融合する密度認識適応機構を導入する。
最終3次元運動推定は、パラメトリック軌道、流れ、深度運動場の多時間サンプリングによって達成される。
論文 参考訳(メタデータ) (2025-03-14T13:15:54Z) - GaussianPrediction: Dynamic 3D Gaussian Prediction for Motion Extrapolation and Free View Synthesis [71.24791230358065]
動的シーンモデリングと将来のシナリオ合成により,3次元ガウス表現を実現する新しいフレームワークを提案する。
GaussianPredictionは、ダイナミックなシーンのビデオ観察を使用して、あらゆる視点から将来の状態を予測できる。
本フレームワークは,合成データセットと実世界のデータセットの両方で優れた性能を示し,将来の環境の予測とレンダリングの有効性を示す。
論文 参考訳(メタデータ) (2024-05-30T06:47:55Z) - DEMOS: Dynamic Environment Motion Synthesis in 3D Scenes via Local
Spherical-BEV Perception [54.02566476357383]
本研究では,動的環境運動合成フレームワーク(DEMOS)を提案する。
次に、最終動作合成のために潜在動作を動的に更新する。
その結果,本手法は従来の手法よりも優れ,動的環境の処理性能も優れていた。
論文 参考訳(メタデータ) (2024-03-04T05:38:16Z) - Periodic Vibration Gaussian: Dynamic Urban Scene Reconstruction and Real-time Rendering [49.36767999382054]
周期振動ガウスモデル(PVG)を提案する。
PVGは、当初静的シーン表現のために設計された効率的な3Dガウススプラッティング技術に基づいている。
PVGは、最良の代替品よりも900倍の速度でレンダリングできる。
論文 参考訳(メタデータ) (2023-11-30T13:53:50Z) - MotionRNN: A Flexible Model for Video Prediction with Spacetime-Varying
Motions [70.30211294212603]
本稿では,空間と時間の両方に連続する時空変動を予測できる新たな次元からビデオ予測を行う。
本研究では,動きの複雑な変動を捉え,時空変化に適応できるMotionRNNフレームワークを提案する。
論文 参考訳(メタデータ) (2021-03-03T08:11:50Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。