論文の概要: MPMAvatar: Learning 3D Gaussian Avatars with Accurate and Robust Physics-Based Dynamics
- arxiv url: http://arxiv.org/abs/2510.01619v1
- Date: Thu, 02 Oct 2025 02:51:45 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-10-03 14:32:17.248105
- Title: MPMAvatar: Learning 3D Gaussian Avatars with Accurate and Robust Physics-Based Dynamics
- Title(参考訳): MPMAvatar: 高精度でロバストな物理に基づく3次元ガウスアバターの学習
- Authors: Changmin Lee, Jihyun Lee, Tae-Kyun Kim,
- Abstract要約: MPMAvatarは、マルチビュービデオから3Dヒューマンアバターを作成するためのフレームワークである。
高精度でロバストな動的モデリングのために、我々はMaterial Point Methodベースのシミュレータを使う。
- 参考スコア(独自算出の注目度): 27.63650397876897
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: While there has been significant progress in the field of 3D avatar creation from visual observations, modeling physically plausible dynamics of humans with loose garments remains a challenging problem. Although a few existing works address this problem by leveraging physical simulation, they suffer from limited accuracy or robustness to novel animation inputs. In this work, we present MPMAvatar, a framework for creating 3D human avatars from multi-view videos that supports highly realistic, robust animation, as well as photorealistic rendering from free viewpoints. For accurate and robust dynamics modeling, our key idea is to use a Material Point Method-based simulator, which we carefully tailor to model garments with complex deformations and contact with the underlying body by incorporating an anisotropic constitutive model and a novel collision handling algorithm. We combine this dynamics modeling scheme with our canonical avatar that can be rendered using 3D Gaussian Splatting with quasi-shadowing, enabling high-fidelity rendering for physically realistic animations. In our experiments, we demonstrate that MPMAvatar significantly outperforms the existing state-of-the-art physics-based avatar in terms of (1) dynamics modeling accuracy, (2) rendering accuracy, and (3) robustness and efficiency. Additionally, we present a novel application in which our avatar generalizes to unseen interactions in a zero-shot manner-which was not achievable with previous learning-based methods due to their limited simulation generalizability. Our project page is at: https://KAISTChangmin.github.io/MPMAvatar/
- Abstract(参考訳): 視覚的な観察から3Dアバターの創出の分野では大きな進歩があったが、ゆるい衣服を持つ人間の物理的にもっともらしい力学をモデル化することは難しい問題である。
物理シミュレーションを利用してこの問題に対処する研究はいくつかあるが、新しいアニメーション入力に対する精度や頑健さに悩まされている。
本研究では,多視点映像から3次元人間のアバターを作成するためのフレームワークであるMPMAvatarについて述べる。
高精度でロバストなダイナミックスモデリングのために、我々はMaterial Point Methodベースのシミュレータを用いて、異方性構成モデルと新しい衝突処理アルゴリズムを組み込むことで、複雑な変形を伴う衣服のモデル化と基礎体との接触を慎重に調整する。
このダイナミックスモデリングスキームを,3次元ガウススプラッティングと擬似シェードイングを用いてレンダリング可能な標準アバターと組み合わせることで,物理現実的なアニメーションの高忠実なレンダリングを可能にする。
実験の結果,MPMAvatar は,(1) 動的モデリング精度,(2) レンダリング精度,(3) 堅牢性と効率の観点から,既存の最先端物理ベースのアバターを著しく上回っていることがわかった。
さらに, 従来の学習手法では実現不可能であったゼロショット方式で, アバターの相互作用を一般化する手法を提案する。
私たちのプロジェクトページは以下の通りです。
関連論文リスト
- EVA: Expressive Virtual Avatars from Multi-view Videos [51.33851869426057]
本稿では,アクター固有の,完全に制御可能な,表現力のある人間のアバターフレームワークであるExpressive Virtual Avatars (EVA)を紹介する。
EVAは、表情、身体の動き、手の動きの独立的な制御を可能にしながら、高忠実でライフライクなレンダリングをリアルタイムで実現している。
この研究は、完全に乾燥可能なデジタル人間モデルに向けた大きな進歩を示している。
論文 参考訳(メタデータ) (2025-05-21T11:22:52Z) - TeGA: Texture Space Gaussian Avatars for High-Resolution Dynamic Head Modeling [52.87836237427514]
フォトリアルアバターは、テレプレゼンス、拡張現実、エンターテイメントにおける新興アプリケーションにおいて重要な要素であると見なされている。
本稿では,最先端の3Dヘッドアバターモデルを提案する。
論文 参考訳(メタデータ) (2025-05-08T22:10:27Z) - RealityAvatar: Towards Realistic Loose Clothing Modeling in Animatable 3D Gaussian Avatars [4.332718737928592]
本研究では,高忠実度デジタルヒューマンモデリングのための効率的なフレームワークであるRealAvatarを提案する。
動作トレンドモジュールと潜在骨エンコーダを組み込むことで,ポーズ依存的な変形と衣服行動の時間的変動をモデル化する。
特に非剛性領域における動的ヒト再建における構造的忠実度と知覚的品質を著しく向上させる。
論文 参考訳(メタデータ) (2025-04-02T09:59:12Z) - NPGA: Neural Parametric Gaussian Avatars [46.52887358194364]
マルチビュー映像記録から高忠実度制御可能なアバターを作成するためのデータ駆動方式を提案する。
我々は,高効率なレンダリングのための3次元ガウススプラッティングの手法を構築し,点雲のトポロジカルな柔軟性を継承する。
提案手法をNeRSembleデータセット上で評価し,NPGAが従来の自己再現タスクの2.6PSNRよりも有意に優れていたことを示す。
論文 参考訳(メタデータ) (2024-05-29T17:58:09Z) - Deformable 3D Gaussian Splatting for Animatable Human Avatars [50.61374254699761]
本稿では,デジタルアバターを単一単分子配列で構築する手法を提案する。
ParDy-Humanは、リアルなダイナミックな人間のアバターの明示的なモデルを構成する。
当社のアバター学習には,Splatマスクなどの追加アノテーションが不要であり,ユーザのハードウェア上でも,フル解像度の画像を効率的に推測しながら,さまざまなバックグラウンドでトレーニングすることが可能である。
論文 参考訳(メタデータ) (2023-12-22T20:56:46Z) - GaussianAvatar: Towards Realistic Human Avatar Modeling from a Single Video via Animatable 3D Gaussians [51.46168990249278]
一つのビデオから動的に3D映像を映し出すリアルな人間のアバターを作成するための効率的なアプローチを提案する。
GustafAvatarは、公開データセットと収集データセットの両方で検証されています。
論文 参考訳(メタデータ) (2023-12-04T18:55:45Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。