論文の概要: PhysGM: Large Physical Gaussian Model for Feed-Forward 4D Synthesis
- arxiv url: http://arxiv.org/abs/2508.13911v1
- Date: Tue, 19 Aug 2025 15:10:30 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-20 15:36:31.978664
- Title: PhysGM: Large Physical Gaussian Model for Feed-Forward 4D Synthesis
- Title(参考訳): PhysGM:フィードフォワード4D合成のための大規模物理ガウスモデル
- Authors: Chunji Lv, Zequn Chen, Donglin Di, Weinan Zhang, Hao Li, Wei Chen, Changsheng Li,
- Abstract要約: PhysGMはフィードフォワードフレームワークであり、単一の画像から3次元ガウス表現とその物理的特性を共同で予測する。
1分で1枚の画像から高忠実度4Dシミュレーションを効果的に生成する。
- 参考スコア(独自算出の注目度): 37.21119648359889
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While physics-grounded 3D motion synthesis has seen significant progress, current methods face critical limitations. They typically rely on pre-reconstructed 3D Gaussian Splatting (3DGS) representations, while physics integration depends on either inflexible, manually defined physical attributes or unstable, optimization-heavy guidance from video models. To overcome these challenges, we introduce PhysGM, a feed-forward framework that jointly predicts a 3D Gaussian representation and its physical properties from a single image, enabling immediate, physical simulation and high-fidelity 4D rendering. We first establish a base model by jointly optimizing for Gaussian reconstruction and probabilistic physics prediction. The model is then refined with physically plausible reference videos to enhance both rendering fidelity and physics prediction accuracy. We adopt the Direct Preference Optimization (DPO) to align its simulations with reference videos, circumventing Score Distillation Sampling (SDS) optimization which needs back-propagating gradients through the complex differentiable simulation and rasterization. To facilitate the training, we introduce a new dataset PhysAssets of over 24,000 3D assets, annotated with physical properties and corresponding guiding videos. Experimental results demonstrate that our method effectively generates high-fidelity 4D simulations from a single image in one minute. This represents a significant speedup over prior works while delivering realistic rendering results. Our project page is at:https://hihixiaolv.github.io/PhysGM.github.io/
- Abstract(参考訳): 物理地上の3Dモーション合成は大きな進歩を遂げているが、現在の手法には限界がある。
それらは通常、事前に再構成された3Dガウススプラッティング(3DGS)表現に依存し、物理積分は、柔軟で手動で定義された物理的特性または不安定で最適化性の高いビデオモデルからのガイダンスに依存する。
これらの課題を克服するために、フィードフォワードフレームワークであるPhysGMを導入し、単一の画像から3次元ガウス表現とその物理特性を共同で予測し、即時、物理シミュレーションと高忠実度4Dレンダリングを可能にする。
まず,ガウスの復元と確率論的物理予測を共同で最適化し,基礎モデルを確立する。
モデルには物理的に妥当な参照ビデオが組み込まれ、レンダリングの忠実さと物理予測の精度が向上する。
我々はDPO(Direct Preference Optimization)を採用し、複雑な微分可能シミュレーションとラスタライゼーションによる逆伝播勾配を必要とするスコア蒸留サンプリング(SDS)最適化を回避する。
トレーニングを容易にするために,24,000以上の3Dアセットからなる新しいデータセットPhysAssetを紹介した。
実験の結果,1分で1枚の画像から高忠実度4Dシミュレーションを効果的に生成できることがわかった。
これは、リアルなレンダリング結果を提供しながら、以前の作業よりも大幅にスピードアップしている。
私たちのプロジェクトページは以下の通りです。
関連論文リスト
- FastPhysGS: Accelerating Physics-based Dynamic 3DGS Simulation via Interior Completion and Adaptive Optimization [56.17833729527066]
我々は物理に基づく動的3DGSシミュレーションのためのフレームワークであるFastPhysGSを提案する。
FastPhysGSは、わずか7GBのランタイムメモリを使用して、1分で高忠実度物理シミュレーションを実現する。
論文 参考訳(メタデータ) (2026-02-02T07:00:42Z) - PhysX-Anything: Simulation-Ready Physical 3D Assets from Single Image [67.76547268461411]
PhysX-Anythingは最初のシミュレーション可能な物理3D生成フレームワークである。
高品質なsim-ready 3Dアセットを明示的な幾何学、調音、物理的特性で生成する。
トークンの数を193倍に減らし、標準VLMトークン予算内で明示的な幾何学的学習を可能にする。
論文 参考訳(メタデータ) (2025-11-17T17:59:53Z) - ProJo4D: Progressive Joint Optimization for Sparse-View Inverse Physics Estimation [4.818571559544214]
物理を視覚データから推定する逆問題では、いまだに困難である。
本稿では,段階的共同最適化フレームワークProJo4Dを提案する。
ProJo4Dは, 4次元の将来の状態, 将来の状態の新たなレンダリング, 材料パラメータ推定において, 先行処理よりも優れた性能を示す。
論文 参考訳(メタデータ) (2025-06-05T17:55:56Z) - DSO: Aligning 3D Generators with Simulation Feedback for Physical Soundness [79.4785166021062]
ほとんどの3Dオブジェクトジェネレータは審美的品質を優先し、実際的な用途に必要な物理的な制約を無視している。
安定な3Dオブジェクトを生成するための従来のアプローチは、テスト時に幾何を最適化するために微分可能な物理シミュレータに頼っていた。
このフレームワークは、(微分不可能な)シミュレータからのフィードバックを活用し、3Dジェネレータが安定な3Dオブジェクトを直接出力する可能性を高める。
論文 参考訳(メタデータ) (2025-03-28T17:59:53Z) - PhyCAGE: Physically Plausible Compositional 3D Asset Generation from a Single Image [19.590576412684054]
本稿では,PhyCAGEについて述べる。PhyCAGEは1枚の画像から物理的に妥当な合成3Dアセット生成のための最初のアプローチである。
提案手法は,1枚の画像から物理的に妥当な合成3Dアセットを生成することができる。
論文 参考訳(メタデータ) (2024-11-27T17:50:35Z) - PhysMotion: Physics-Grounded Dynamics From a Single Image [24.096925413047217]
本稿では、物理シミュレーションを利用した新しいフレームワークであるPhysMotionを紹介し、一つの画像と入力条件から生成された中間3次元表現をガイドする。
我々のアプローチは、従来のデータ駆動生成モデルの限界に対処し、より一貫した物理的に妥当な動きをもたらす。
論文 参考訳(メタデータ) (2024-11-26T07:59:11Z) - Efficient Physics Simulation for 3D Scenes via MLLM-Guided Gaussian Splatting [32.846428862045634]
Sim Anythingは、静的な3Dオブジェクトにインタラクティブなダイナミクスを与える物理ベースのアプローチである。
人間の視覚的推論に触発されて,MLLMに基づく物理特性知覚を提案する。
また、物理幾何学的適応サンプリングを用いて粒子をサンプリングして、オープンワールドシーンでオブジェクトをシミュレートする。
論文 参考訳(メタデータ) (2024-11-19T12:52:21Z) - Latent Intuitive Physics: Learning to Transfer Hidden Physics from A 3D Video [58.043569985784806]
本稿では,物理シミュレーションのための伝達学習フレームワークである潜在直観物理学を紹介する。
単一の3Dビデオから流体の隠れた性質を推測し、新しいシーンで観察された流体をシミュレートすることができる。
我々は,本モデルの有効性を3つの方法で検証する: (i) 学習されたビジュアルワールド物理を用いた新しいシーンシミュレーション, (ii) 観測された流体力学の将来予測, (iii) 教師付き粒子シミュレーション。
論文 参考訳(メタデータ) (2024-06-18T16:37:44Z) - DreamPhysics: Learning Physics-Based 3D Dynamics with Video Diffusion Priors [75.83647027123119]
本稿では,映像拡散前の物体の物理的特性を学習することを提案する。
次に,物理に基づくMaterial-Point-Methodシミュレータを用いて,現実的な動きを伴う4Dコンテンツを生成する。
論文 参考訳(メタデータ) (2024-06-03T16:05:25Z) - PhyRecon: Physically Plausible Neural Scene Reconstruction [81.73129450090684]
PHYRECONは、微分可能なレンダリングと微分可能な物理シミュレーションの両方を利用して暗黙的な表面表現を学習する最初のアプローチである。
この設計の中心は、SDFに基づく暗黙の表現と明示的な表面点の間の効率的な変換である。
また,物理シミュレータの安定性も向上し,全データセットに対して少なくとも40%の改善が得られた。
論文 参考訳(メタデータ) (2024-04-25T15:06:58Z) - {\phi}-SfT: Shape-from-Template with a Physics-Based Deformation Model [69.27632025495512]
Shape-from-Template (SfT) 法では、単一の単眼RGBカメラから3次元表面の変形を推定する。
本稿では,物理シミュレーションによる2次元観察を解説する新しいSfT手法を提案する。
論文 参考訳(メタデータ) (2022-03-22T17:59:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。