論文の概要: PhysRig: Differentiable Physics-Based Skinning and Rigging Framework for Realistic Articulated Object Modeling
- arxiv url: http://arxiv.org/abs/2506.20936v2
- Date: Fri, 27 Jun 2025 14:58:56 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-06-30 13:06:01.347127
- Title: PhysRig: Differentiable Physics-Based Skinning and Rigging Framework for Realistic Articulated Object Modeling
- Title(参考訳): PhysRig:実演物モデリングのための微分可能な物理ベースのスキニング・リギングフレームワーク
- Authors: Hao Zhang, Haolan Xu, Chun Feng, Varun Jampani, Narendra Ahuja,
- Abstract要約: スキニングとリギングはアニメーション、明瞭なオブジェクト再構成、モーショントランスファー、および4D生成の基本的な構成要素である。
既存のアプローチは主にリニアブレンドスキニング(LBS)に依存している。
我々はPhysRigを提案する。PhysRigは微分可能な物理ベースのスキンとリギングフレームワークである。
- 参考スコア(独自算出の注目度): 36.27177429446227
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Skinning and rigging are fundamental components in animation, articulated object reconstruction, motion transfer, and 4D generation. Existing approaches predominantly rely on Linear Blend Skinning (LBS), due to its simplicity and differentiability. However, LBS introduces artifacts such as volume loss and unnatural deformations, and it fails to model elastic materials like soft tissues, fur, and flexible appendages (e.g., elephant trunks, ears, and fatty tissues). In this work, we propose PhysRig: a differentiable physics-based skinning and rigging framework that overcomes these limitations by embedding the rigid skeleton into a volumetric representation (e.g., a tetrahedral mesh), which is simulated as a deformable soft-body structure driven by the animated skeleton. Our method leverages continuum mechanics and discretizes the object as particles embedded in an Eulerian background grid to ensure differentiability with respect to both material properties and skeletal motion. Additionally, we introduce material prototypes, significantly reducing the learning space while maintaining high expressiveness. To evaluate our framework, we construct a comprehensive synthetic dataset using meshes from Objaverse, The Amazing Animals Zoo, and MixaMo, covering diverse object categories and motion patterns. Our method consistently outperforms traditional LBS-based approaches, generating more realistic and physically plausible results. Furthermore, we demonstrate the applicability of our framework in the pose transfer task highlighting its versatility for articulated object modeling.
- Abstract(参考訳): スキニングとリギングはアニメーション、明瞭なオブジェクト再構成、モーショントランスファー、および4D生成の基本的な構成要素である。
既存のアプローチは主にリニアブレンドスキニング(LBS)に依存している。
しかし、LBSは体積損失や不自然な変形などの人工物を導入し、柔らかい組織、毛皮、柔軟な付属物(象のトランク、耳、脂肪組織など)のような弾性物質をモデル化することができない。
本研究はPhysRigを提案する: 立体骨格を体積表現(例えば四面体メッシュ)に埋め込むことにより、これらの制限を克服する物理ベースの微分可能なスキン・リギングフレームワークで、アニメーション骨格によって駆動される変形可能なソフトボディ構造としてシミュレートされる。
本手法は, 連続体力学を応用し, 対象物をユーレアン背景格子に埋め込んだ粒子として離散化し, 材料特性と骨格運動の両面での微分性を確保する。
さらに,教材のプロトタイプを導入し,高い表現性を保ちながら学習スペースを大幅に削減した。
本フレームワークを評価するために,Objaverse,The Amazing Animals Zoo,MixaMoのメッシュを用いた総合的な合成データセットを構築した。
提案手法は従来のLBS手法よりも優れており,より現実的で物理的に妥当な結果が得られる。
さらに,その汎用性を強調したポーズ伝達タスクにおける我々のフレームワークの適用性を示す。
関連論文リスト
- PhysGaia: A Physics-Aware Dataset of Multi-Body Interactions for Dynamic Novel View Synthesis [62.283499219361595]
PhysGaiaは動的ノベルビュー合成(DyNVS)のために設計された物理対応のデータセットである。
私たちのデータセットは、複数のオブジェクト間のリッチな相互作用を伴う複雑な動的シナリオを提供します。
PhysGaiaは、動的ビュー合成、物理に基づくシーン理解、および物理シミュレーションと統合されたディープラーニングモデルの研究を著しく前進させる。
論文 参考訳(メタデータ) (2025-06-03T12:19:18Z) - D-Garment: Physics-Conditioned Latent Diffusion for Dynamic Garment Deformations [9.991827725035373]
ガーメントダイナミクスは、着用者の体形や動きを含む物理的な入力や布材の特徴に依存する、しわパターンのような幾何学的詳細に影響を及ぼす。
本稿では,物理に基づくシミュレータで生成されたデータに基づいて学習に基づくアプローチを提案する。
論文 参考訳(メタデータ) (2025-04-04T14:18:06Z) - PhysTwin: Physics-Informed Reconstruction and Simulation of Deformable Objects from Videos [21.441062722848265]
PhysTwinは、対話中の動的オブジェクトのスパースビデオを使用して、写真と物理的にリアルでリアルタイムなインタラクティブなレプリカを生成する新しいフレームワークである。
提案手法は,(1)現実的な物理シミュレーションのためにバネ質量モデルを組み合わせた物理インフォームド表現,および幾何学のための生成形状モデル,およびレンダリングのためのガウススプラットである。
本手法は,視覚的知覚の手がかりと逆物理の枠組みを統合し,部分的,隠蔽的,限定的な視点からでも高忠実度復元を可能にする。
論文 参考訳(メタデータ) (2025-03-23T07:49:19Z) - PhysMotion: Physics-Grounded Dynamics From a Single Image [24.096925413047217]
本稿では、物理シミュレーションを利用した新しいフレームワークであるPhysMotionを紹介し、一つの画像と入力条件から生成された中間3次元表現をガイドする。
我々のアプローチは、従来のデータ駆動生成モデルの限界に対処し、より一貫した物理的に妥当な動きをもたらす。
論文 参考訳(メタデータ) (2024-11-26T07:59:11Z) - PhyRecon: Physically Plausible Neural Scene Reconstruction [81.73129450090684]
PHYRECONは、微分可能なレンダリングと微分可能な物理シミュレーションの両方を利用して暗黙的な表面表現を学習する最初のアプローチである。
この設計の中心は、SDFに基づく暗黙の表現と明示的な表面点の間の効率的な変換である。
また,物理シミュレータの安定性も向上し,全データセットに対して少なくとも40%の改善が得られた。
論文 参考訳(メタデータ) (2024-04-25T15:06:58Z) - REACTO: Reconstructing Articulated Objects from a Single Video [64.89760223391573]
関節の柔軟な変形を維持しつつ各部の剛性を向上する新しい変形モデルを提案する。
提案手法は, 従来よりも高忠実度な3D再構成を実現する上で, 従来の手法よりも優れていた。
論文 参考訳(メタデータ) (2024-04-17T08:01:55Z) - Fine-grained differentiable physics: a yarn-level model for fabrics [33.01541119342456]
微分可能な物理モデリングは、物理モデルと勾配に基づく学習を組み合わせて、モデル説明可能性とデータ効率を提供する。
そこで本研究では,布などの複合材料に対する新しい微分可能な織物モデルを提案する。
論文 参考訳(メタデータ) (2022-02-01T16:01:01Z) - Physics-Integrated Variational Autoencoders for Robust and Interpretable
Generative Modeling [86.9726984929758]
我々は、不完全物理モデルの深部生成モデルへの統合に焦点を当てる。
本稿では,潜在空間の一部が物理によって基底づけられたVAEアーキテクチャを提案する。
合成および実世界のデータセットの集合に対して生成的性能改善を示す。
論文 参考訳(メタデータ) (2021-02-25T20:28:52Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。