論文の概要: NeuSpring: Neural Spring Fields for Reconstruction and Simulation of Deformable Objects from Videos
- arxiv url: http://arxiv.org/abs/2511.08310v1
- Date: Wed, 12 Nov 2025 01:52:11 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-11-12 20:17:03.754321
- Title: NeuSpring: Neural Spring Fields for Reconstruction and Simulation of Deformable Objects from Videos
- Title(参考訳): NeuSpring:ビデオから変形可能な物体の再構成とシミュレーションのためのニューラルスプリングフィールド
- Authors: Qingshan Xu, Jiao Liu, Shangshu Yu, Yuxuan Wang, Yuan Zhou, Junbao Zhou, Jiequan Cui, Yew-Soon Ong, Hanwang Zhang,
- Abstract要約: 我々は、ビデオから変形可能な物体を再構成し、シミュレーションするためのニューラルスプリングフィールドであるNeuSpringを紹介する。
実世界のデータセットに対する実験により、NeuSpingは現在の状態モデリングと将来の予測に優れた再構成とシミュレーション性能を達成できることを示した。
- 参考スコア(独自算出の注目度): 80.0365394106039
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: In this paper, we aim to create physical digital twins of deformable objects under interaction. Existing methods focus more on the physical learning of current state modeling, but generalize worse to future prediction. This is because existing methods ignore the intrinsic physical properties of deformable objects, resulting in the limited physical learning in the current state modeling. To address this, we present NeuSpring, a neural spring field for the reconstruction and simulation of deformable objects from videos. Built upon spring-mass models for realistic physical simulation, our method consists of two major innovations: 1) a piecewise topology solution that efficiently models multi-region spring connection topologies using zero-order optimization, which considers the material heterogeneity of real-world objects. 2) a neural spring field that represents spring physical properties across different frames using a canonical coordinate-based neural network, which effectively leverages the spatial associativity of springs for physical learning. Experiments on real-world datasets demonstrate that our NeuSping achieves superior reconstruction and simulation performance for current state modeling and future prediction, with Chamfer distance improved by 20% and 25%, respectively.
- Abstract(参考訳): 本稿では,異形物体の物理的デジタル双対を相互作用下で生成することを目的とする。
既存の手法は、現在の状態モデリングの物理的学習に重点を置いているが、将来の予測よりもさらに良く一般化する。
これは、既存の手法が変形可能なオブジェクトの本質的な物理的特性を無視し、現在の状態モデリングにおける限られた物理的学習をもたらすためである。
この問題を解決するために、ビデオから変形可能な物体の再構成とシミュレーションのためのニューラルスプリングフィールドNeuSpringを提案する。
現実的な物理シミュレーションのためのバネ質量モデルに基づいて構築され、本手法は2つの主要な革新から成り立っている。
1) 実世界の物体の物質的不均一性を考慮したゼロ階最適化を用いた多領域スプリング接続トポロジを効率的にモデル化する断片的トポロジ解。
2)バネの空間的連想性を効果的に活用し,バネの物理的特性を異なるフレームで表わす神経バネ場。
実世界のデータセットに対する実験により、我々のNeuSpingは、現在の状態モデリングと将来の予測において、より優れた再構成とシミュレーション性能を達成し、それぞれ20%と25%のChamfer距離を改善した。
関連論文リスト
- PhysTwin: Physics-Informed Reconstruction and Simulation of Deformable Objects from Videos [21.441062722848265]
PhysTwinは、対話中の動的オブジェクトのスパースビデオを使用して、写真と物理的にリアルでリアルタイムなインタラクティブなレプリカを生成する新しいフレームワークである。
提案手法は,(1)現実的な物理シミュレーションのためにバネ質量モデルを組み合わせた物理インフォームド表現,および幾何学のための生成形状モデル,およびレンダリングのためのガウススプラットである。
本手法は,視覚的知覚の手がかりと逆物理の枠組みを統合し,部分的,隠蔽的,限定的な視点からでも高忠実度復元を可能にする。
論文 参考訳(メタデータ) (2025-03-23T07:49:19Z) - PhyRecon: Physically Plausible Neural Scene Reconstruction [81.73129450090684]
PHYRECONは、微分可能なレンダリングと微分可能な物理シミュレーションの両方を利用して暗黙的な表面表現を学習する最初のアプローチである。
この設計の中心は、SDFに基づく暗黙の表現と明示的な表面点の間の効率的な変換である。
また,物理シミュレータの安定性も向上し,全データセットに対して少なくとも40%の改善が得られた。
論文 参考訳(メタデータ) (2024-04-25T15:06:58Z) - Reconstruction and Simulation of Elastic Objects with Spring-Mass 3D Gaussians [23.572267290979045]
Spring-Gausは、複数の視点からオブジェクトのビデオから弾性オブジェクトを再構成し、シミュレーションするための3D物理オブジェクト表現である。
本研究では,3次元Spring-Massモデルを3次元ガウスカーネルに実装し,オブジェクトの視覚的外観,形状,物理力学の再構築を可能にする。
合成と実世界の両方のデータセット上でSpring-Gausを評価し,弾性物体の正確な再構成とシミュレーションを実証した。
論文 参考訳(メタデータ) (2024-03-14T14:25:10Z) - Learning Physical Dynamics with Subequivariant Graph Neural Networks [99.41677381754678]
グラフニューラルネットワーク(GNN)は、物理力学を学習するための一般的なツールとなっている。
物理法則は、モデル一般化に必須な帰納バイアスである対称性に従属する。
本モデルは,RigidFall上でのPhysylonと2倍低ロールアウトMSEの8つのシナリオにおいて,平均3%以上の接触予測精度の向上を実現している。
論文 参考訳(メタデータ) (2022-10-13T10:00:30Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。