論文の概要: Learning Physics-Grounded 4D Dynamics with Neural Gaussian Force Fields
- arxiv url: http://arxiv.org/abs/2602.00148v1
- Date: Thu, 29 Jan 2026 11:37:41 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-02-03 19:28:32.976745
- Title: Learning Physics-Grounded 4D Dynamics with Neural Gaussian Force Fields
- Title(参考訳): ニューラルガウス力場を用いた物理を取り巻く4次元ダイナミクスの学習
- Authors: Shiqian Li, Ruihong Shen, Junfeng Ni, Chang Pan, Chi Zhang, Yixin Zhu,
- Abstract要約: 本稿では,3次元ガウス認識と物理に基づく動的モデリングを統合し,物理的にリアルな4Dビデオを生成するエンドツーエンドのニューラルネットワークフレームワークを提案する。
また、多種多様な材料、多目的インタラクション、複雑なシーンを特徴とする4DガウスデータセットであるGSCollisionを、合計640万以上の物理ビデオで紹介する。
- 参考スコア(独自算出の注目度): 11.212256115568772
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Predicting physical dynamics from raw visual data remains a major challenge in AI. While recent video generation models have achieved impressive visual quality, they still cannot consistently generate physically plausible videos due to a lack of modeling of physical laws. Recent approaches combining 3D Gaussian splatting and physics engines can produce physically plausible videos, but are hindered by high computational costs in both reconstruction and simulation, and often lack robustness in complex real-world scenarios. To address these issues, we introduce Neural Gaussian Force Field (NGFF), an end-to-end neural framework that integrates 3D Gaussian perception with physics-based dynamic modeling to generate interactive, physically realistic 4D videos from multi-view RGB inputs, achieving two orders of magnitude faster than prior Gaussian simulators. To support training, we also present GSCollision, a 4D Gaussian dataset featuring diverse materials, multi-object interactions, and complex scenes, totaling over 640k rendered physical videos (~4 TB). Evaluations on synthetic and real 3D scenarios show NGFF's strong generalization and robustness in physical reasoning, advancing video prediction towards physics-grounded world models.
- Abstract(参考訳): 生の視覚データから物理力学を予測することは、AIの大きな課題である。
最近のビデオ生成モデルは目覚ましい品質を達成したが、物理法則のモデリングが欠如しているため、常に物理的にもっともらしいビデオを生成することはできない。
近年の3Dガウススプラッティングと物理エンジンを組み合わせたアプローチは、物理的に可算なビデオを生成することができるが、再構成とシミュレーションの両方において高い計算コストによって妨げられ、複雑な実世界のシナリオでは堅牢性に欠けることが多い。
これらの問題に対処するために,我々は,3次元ガウス知覚と物理に基づく動的モデリングを統合し,多視点のRGB入力からインタラクティブでリアルな4Dビデオを生成するエンドツーエンドのニューラルネットワークフレームワークであるニューラルガウス力場(NGFF)を紹介した。
トレーニングを支援するため、GSCollisionも紹介した。GSCollisionは、多種多様な素材、多目的インタラクション、複雑なシーンを特徴とする、4Dガウスのデータセットで、640k以上のレンダリングされた物理ビデオ(〜4TB)を収録する。
合成および現実的な3Dシナリオの評価は、NGFFの物理推論における強力な一般化と堅牢性を示し、物理基底世界モデルに向けたビデオ予測を推し進めている。
関連論文リスト
- PhysWorld: From Real Videos to World Models of Deformable Objects via Physics-Aware Demonstration Synthesis [52.905353023326306]
物理的に妥当で多様な実演を合成し、効率的な世界モデルを学ぶためのフレームワークであるPhysWorldを提案する。
実験により、PhysWorldは、最新の最先端手法、すなわちPhysTwinよりも47倍高速な推論速度を実現しつつ、競争性能を持つことが示された。
論文 参考訳(メタデータ) (2025-10-24T13:25:39Z) - PhysCtrl: Generative Physics for Controllable and Physics-Grounded Video Generation [53.06495362038348]
既存の世代モデルは、テキストや画像から写真リアリスティックなビデオを作るのに優れているが、物理的な可視性と3D制御性に欠けることが多い。
本稿では物理パラメータと力制御を備えた物理地上画像生成のための新しいフレームワークであるPhysCtrlを紹介する。
実験によると、PhysCtrlは現実的な物理地上の運動軌跡を生成し、画像とビデオのモデルを駆動する際に高忠実で制御可能なビデオを生成する。
論文 参考訳(メタデータ) (2025-09-24T17:58:04Z) - PhysGM: Large Physical Gaussian Model for Feed-Forward 4D Synthesis [37.21119648359889]
PhysGMはフィードフォワードフレームワークであり、単一の画像から3次元ガウス表現とその物理的特性を共同で予測する。
1分で1枚の画像から高忠実度4Dシミュレーションを効果的に生成する。
論文 参考訳(メタデータ) (2025-08-19T15:10:30Z) - Learning 3D-Gaussian Simulators from RGB Videos [20.250137125726265]
3DGSimは学習した3Dシミュレータで、マルチビューのRGBビデオから物理的相互作用を学習する。
3Dシーンの再構成、粒子動力学予測、ビデオ合成をエンドツーエンドのトレーニングフレームワークに統合する。
論文 参考訳(メタデータ) (2025-03-31T12:33:59Z) - DreamPhysics: Learning Physics-Based 3D Dynamics with Video Diffusion Priors [75.83647027123119]
本稿では,映像拡散前の物体の物理的特性を学習することを提案する。
次に,物理に基づくMaterial-Point-Methodシミュレータを用いて,現実的な動きを伴う4Dコンテンツを生成する。
論文 参考訳(メタデータ) (2024-06-03T16:05:25Z) - 3D-IntPhys: Towards More Generalized 3D-grounded Visual Intuitive
Physics under Challenging Scenes [68.66237114509264]
複雑なシーンと流体の映像から3次元的な視覚的直感的な物理モデルを学習できるフレームワークを提案する。
本モデルでは,生画像から学習し,明示的な3次元表現空間を用いないモデルよりもはるかに優れた将来予測が可能であることを示す。
論文 参考訳(メタデータ) (2023-04-22T19:28:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。