論文の概要: M-PhyGs: Multi-Material Object Dynamics from Video
- arxiv url: http://arxiv.org/abs/2512.16885v1
- Date: Thu, 18 Dec 2025 18:50:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-19 18:10:32.229841
- Title: M-PhyGs: Multi-Material Object Dynamics from Video
- Title(参考訳): M-PhyGs:ビデオからのマルチマテリアルオブジェクトダイナミクス
- Authors: Norika Wada, Kohei Yamashita, Ryo Kawahara, Ko Nishino,
- Abstract要約: ビデオから複雑な自然物の材料組成とパラメータを推定するために,多物質物理ガウス(M-PhyGs)を導入する。
自然の環境で撮影された短いビデオから、M-PhyGsは物体を同様の物質に分割し、重力を考慮しながら連続的な機械的パラメータを復元する。
花と対話する人々のデータセットであるPhlowersを新しいプラットフォームとして導入し、多物質物理パラメータ推定におけるこの課題の精度を評価する。
- 参考スコア(独自算出の注目度): 26.24580584792261
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Knowledge of the physical material properties governing the dynamics of a real-world object becomes necessary to accurately anticipate its response to unseen interactions. Existing methods for estimating such physical material parameters from visual data assume homogeneous single-material objects, pre-learned dynamics, or simplistic topologies. Real-world objects, however, are often complex in material composition and geometry lying outside the realm of these assumptions. In this paper, we particularly focus on flowers as a representative common object. We introduce Multi-material Physical Gaussians (M-PhyGs) to estimate the material composition and parameters of such multi-material complex natural objects from video. From a short video captured in a natural setting, M-PhyGs jointly segments the object into similar materials and recovers their continuum mechanical parameters while accounting for gravity. M-PhyGs achieves this efficiently with newly introduced cascaded 3D and 2D losses, and by leveraging temporal mini-batching. We introduce a dataset, Phlowers, of people interacting with flowers as a novel platform to evaluate the accuracy of this challenging task of multi-material physical parameter estimation. Experimental results on Phlowers dataset demonstrate the accuracy and effectiveness of M-PhyGs and its components.
- Abstract(参考訳): 現実世界の物体の力学を制御している物理的物質特性の知識は、見えない相互作用に対する応答を正確に予測するために必要となる。
視覚データからそのような物理的パラメータを推定する既存の方法は、均一な単一材料オブジェクト、事前学習されたダイナミクス、あるいは単純化されたトポロジーを仮定する。
しかし、実世界の対象はしばしば、これらの仮定の領域の外にある物質組成や幾何学において複雑である。
本稿では,特に花を代表的共通対象とする。
我々は,多物質物理ガウス(M-PhyGs)を導入して,このような多物質複合自然物の材料組成とパラメータをビデオから推定する。
自然の環境で撮影された短いビデオから、M-PhyGsは物体を同様の物質に分割し、重力を考慮しながら連続的な機械的パラメータを復元する。
M-PhyGsは、新たに導入されたカスケード3Dと2Dの損失を効果的に実現し、時間的ミニバッチを活用する。
花と対話する人々のデータセットであるPhlowersを新しいプラットフォームとして導入し、多物質物理パラメータ推定におけるこの課題の精度を評価する。
Phlowersデータセットの実験結果は、M-PhyGsとそのコンポーネントの精度と有効性を示している。
関連論文リスト
- PhysGaia: A Physics-Aware Dataset of Multi-Body Interactions for Dynamic Novel View Synthesis [62.283499219361595]
PhysGaiaは動的ノベルビュー合成(DyNVS)のために設計された物理対応のデータセットである。
私たちのデータセットは、複数のオブジェクト間のリッチな相互作用を伴う複雑な動的シナリオを提供します。
PhysGaiaは、動的ビュー合成、物理に基づくシーン理解、および物理シミュレーションと統合されたディープラーニングモデルの研究を著しく前進させる。
論文 参考訳(メタデータ) (2025-06-03T12:19:18Z) - OmniPhysGS: 3D Constitutive Gaussians for General Physics-Based Dynamics Generation [25.790371838717284]
より一般的な物体からなる物理に基づく3次元動的シーンを合成するためのOmniPhysGSを提案する。
本手法は,視覚的品質とテキストアライメントの指標において,既存の手法を約3%から16%上回っている。
論文 参考訳(メタデータ) (2025-01-31T09:28:07Z) - Differentiable Physics-based System Identification for Robotic Manipulation of Elastoplastic Materials [43.99845081513279]
本研究は, ロボットアームが簡単な操作動作と不完全な3次元点雲を用いて, 弾塑性材料の物理パラメータと環境を推測することのできる, 微分可能物理に基づくシステム同定(DPSI)フレームワークを提案する。
1つの現実世界の相互作用だけで、推定されたパラメータは、目に見えない、長い水平運動によって引き起こされる視覚的および物理的に現実的な振る舞いを正確にシミュレートすることができる。
論文 参考訳(メタデータ) (2024-11-01T13:04:25Z) - Compositional Physical Reasoning of Objects and Events from Videos [122.6862357340911]
本稿では,物体の動きや相互作用から隠れた物理的特性を推定するという課題に対処する。
我々は、ComPhyの最先端ビデオ推論モデルを評価し、これらの隠れプロパティをキャプチャする限られた能力を明らかにする。
また,視覚的および隠れた物理的特性を学習し,原因を解明する,新しいニューロシンボリックな枠組みであるPhysical Concept Reasoner(PCR)を提案する。
論文 参考訳(メタデータ) (2024-08-02T15:19:55Z) - ContPhy: Continuum Physical Concept Learning and Reasoning from Videos [86.63174804149216]
ContPhyは、マシン物理常識を評価するための新しいベンチマークである。
私たちは、さまざまなAIモデルを評価し、ContPhyで満足なパフォーマンスを達成するのに依然として苦労していることがわかった。
また、近年の大規模言語モデルとパーティクルベースの物理力学モデルを組み合わせるためのオラクルモデル(ContPRO)を導入する。
論文 参考訳(メタデータ) (2024-02-09T01:09:21Z) - ComPhy: Compositional Physical Reasoning of Objects and Events from
Videos [113.2646904729092]
目に見える性質と隠れた性質の間の構成性は、物理的な世界から推論するAIモデルに固有の課題をもたらす。
ビデオ推論に関する既存の研究は、主に物体の外観、動き、接触相互作用などの視覚的に観察可能な要素に焦点を当てている。
本稿では,視覚知覚,物理特性学習,動的予測,記号実行を組み合わせた,構成物理学学習(CPL)と呼ばれるオラクルニューラルシンボリックフレームワークを提案する。
論文 参考訳(メタデータ) (2022-05-02T17:59:13Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。