論文の概要: MotionPhysics: Learnable Motion Distillation for Text-Guided Simulation
- arxiv url: http://arxiv.org/abs/2601.00504v1
- Date: Thu, 01 Jan 2026 22:56:37 GMT
- ステータス: 翻訳完了
- システム内更新日: 2026-01-05 15:04:33.48098
- Title: MotionPhysics: Learnable Motion Distillation for Text-Guided Simulation
- Title(参考訳): MotionPhysics: テキストガイドシミュレーションのための学習可能なモーション蒸留
- Authors: Miaowei Wang, Jakub Zadrożny, Oisin Mac Aodha, Amir Vaxman,
- Abstract要約: MotionPhysicsは、ユーザが提供する自然言語プロンプトから妥当な物理パラメータを推論するエンドツーエンドの微分可能なフレームワークである。
我々は30以上のシナリオでMotionPhysicsを評価し、実世界、人間設計、AIによって生成された3Dオブジェクトを含む。
- 参考スコア(独自算出の注目度): 25.78198969054392
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Accurately simulating existing 3D objects and a wide variety of materials often demands expert knowledge and time-consuming physical parameter tuning to achieve the desired dynamic behavior. We introduce MotionPhysics, an end-to-end differentiable framework that infers plausible physical parameters from a user-provided natural language prompt for a chosen 3D scene of interest, removing the need for guidance from ground-truth trajectories or annotated videos. Our approach first utilizes a multimodal large language model to estimate material parameter values, which are constrained to lie within plausible ranges. We further propose a learnable motion distillation loss that extracts robust motion priors from pretrained video diffusion models while minimizing appearance and geometry inductive biases to guide the simulation. We evaluate MotionPhysics across more than thirty scenarios, including real-world, human-designed, and AI-generated 3D objects, spanning a wide range of materials such as elastic solids, metals, foams, sand, and both Newtonian and non-Newtonian fluids. We demonstrate that MotionPhysics produces visually realistic dynamic simulations guided by natural language, surpassing the state of the art while automatically determining physically plausible parameters. The code and project page are available at: https://wangmiaowei.github.io/MotionPhysics.github.io/.
- Abstract(参考訳): 既存の3Dオブジェクトと多種多様な素材を正確にシミュレートするには、望まれる動的な振る舞いを達成するために、専門家の知識と時間を要する物理パラメータチューニングが必要であることが多い。
提案するMotionPhysicsは,ユーザが提案する自然言語から,選択した3Dシーンに対して有効な物理パラメータを推論する,エンドツーエンドの微分可能なフレームワークである。
提案手法は,まず多モーダルな大言語モデルを用いて材料パラメータ値を推定する。
さらに,事前訓練されたビデオ拡散モデルから頑健な動き先を抽出し,外観や幾何学的帰納バイアスを最小化してシミュレーションを導出する,学習可能な運動蒸留損失を提案する。
我々は、実世界、人間設計、AI生成の3Dオブジェクトを含む30以上のシナリオでMotionPhysicsを評価し、弾性固体、金属、泡、砂、ニュートン流体、非ニュートン流体など幅広い材料にまたがる。
我々は、モーションフィジクスが視覚的にリアルな動的シミュレーションを自然言語で生成し、物理的に妥当なパラメータを自動決定しながら最先端の技術を超越していることを示した。
コードとプロジェクトページは、https://wangmiaowei.github.io/MotionPhysics.github.io/で公開されている。
関連論文リスト
- PhysWorld: From Real Videos to World Models of Deformable Objects via Physics-Aware Demonstration Synthesis [52.905353023326306]
物理的に妥当で多様な実演を合成し、効率的な世界モデルを学ぶためのフレームワークであるPhysWorldを提案する。
実験により、PhysWorldは、最新の最先端手法、すなわちPhysTwinよりも47倍高速な推論速度を実現しつつ、競争性能を持つことが示された。
論文 参考訳(メタデータ) (2025-10-24T13:25:39Z) - Latent Intuitive Physics: Learning to Transfer Hidden Physics from A 3D Video [58.043569985784806]
本稿では,物理シミュレーションのための伝達学習フレームワークである潜在直観物理学を紹介する。
単一の3Dビデオから流体の隠れた性質を推測し、新しいシーンで観察された流体をシミュレートすることができる。
我々は,本モデルの有効性を3つの方法で検証する: (i) 学習されたビジュアルワールド物理を用いた新しいシーンシミュレーション, (ii) 観測された流体力学の将来予測, (iii) 教師付き粒子シミュレーション。
論文 参考訳(メタデータ) (2024-06-18T16:37:44Z) - Physics3D: Learning Physical Properties of 3D Gaussians via Video Diffusion [35.71595369663293]
ビデオ拡散モデルを用いて3Dオブジェクトの様々な物理的特性を学習する新しい手法である textbfPhysics3D を提案する。
本手法では,粘弾性材料モデルに基づく高一般化物理シミュレーションシステムを設計する。
弾性材料とプラスチック材料の両方を用いて, 本手法の有効性を実証した。
論文 参考訳(メタデータ) (2024-06-06T17:59:47Z) - DreamPhysics: Learning Physics-Based 3D Dynamics with Video Diffusion Priors [75.83647027123119]
本稿では,映像拡散前の物体の物理的特性を学習することを提案する。
次に,物理に基づくMaterial-Point-Methodシミュレータを用いて,現実的な動きを伴う4Dコンテンツを生成する。
論文 参考訳(メタデータ) (2024-06-03T16:05:25Z) - PhysDreamer: Physics-Based Interaction with 3D Objects via Video Generation [62.53760963292465]
PhysDreamerは物理に基づくアプローチで、静的な3Dオブジェクトにインタラクティブなダイナミクスを与える。
本稿では, 弾性物体の多様な例について考察し, ユーザスタディを通じて合成された相互作用の現実性を評価する。
論文 参考訳(メタデータ) (2024-04-19T17:41:05Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。