論文の概要: MonoCloth: Reconstruction and Animation of Cloth-Decoupled Human Avatars from Monocular Videos
- arxiv url: http://arxiv.org/abs/2508.04505v1
- Date: Wed, 06 Aug 2025 14:50:54 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-08-07 20:09:22.774065
- Title: MonoCloth: Reconstruction and Animation of Cloth-Decoupled Human Avatars from Monocular Videos
- Title(参考訳): MonoCloth:モノクロビデオによる衣服分離アバターの再構築とアニメーション化
- Authors: Daisheng Jin, Ying He,
- Abstract要約: モノクロビデオから人間のアバターを再構成・アニメーションする新しい方法であるMonoClothを提案する。
パーツベースの分解戦略は、アバターを体、顔、手、衣服に分離する。
実験の結果,MonoClothは視覚再構成品質とアニメーションリアリズムの両方を改善していることがわかった。
- 参考スコア(独自算出の注目度): 4.253916684250621
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Reconstructing realistic 3D human avatars from monocular videos is a challenging task due to the limited geometric information and complex non-rigid motion involved. We present MonoCloth, a new method for reconstructing and animating clothed human avatars from monocular videos. To overcome the limitations of monocular input, we introduce a part-based decomposition strategy that separates the avatar into body, face, hands, and clothing. This design reflects the varying levels of reconstruction difficulty and deformation complexity across these components. Specifically, we focus on detailed geometry recovery for the face and hands. For clothing, we propose a dedicated cloth simulation module that captures garment deformation using temporal motion cues and geometric constraints. Experimental results demonstrate that MonoCloth improves both visual reconstruction quality and animation realism compared to existing methods. Furthermore, thanks to its part-based design, MonoCloth also supports additional tasks such as clothing transfer, underscoring its versatility and practical utility.
- Abstract(参考訳): モノクロビデオからリアルな3Dアバターを再構築することは、限られた幾何学的情報と複雑な非剛体運動のために難しい作業である。
モノクロビデオから人間のアバターを再構成・アニメーションする新しい方法であるMonoClothを提案する。
単分子入力の限界を克服するために,アバターを体,顔,手,衣服に分離する部分的分解戦略を導入する。
この設計は、これらのコンポーネント間の再構成の難しさと変形の複雑さのレベルを反映している。
具体的には、顔と手の詳細な幾何学的復元に焦点を当てる。
衣服の場合,時間的動きキューと幾何学的制約を用いて,衣服の変形をキャプチャする専用の布シミュレーションモジュールを提案する。
実験の結果,MonoClothは既存の手法と比較して視覚的再構成品質とアニメーションリアリズムの両方を改善していることがわかった。
さらに、パートベースの設計のおかげで、MonoClothは衣料品の転送や、その汎用性と実用性を強調するといった追加のタスクもサポートしている。
関連論文リスト
- FRESA: Feedforward Reconstruction of Personalized Skinned Avatars from Few Images [74.86864398919467]
数枚の画像からリアルなアニメーションで、パーソナライズされた3Dアバターを再構成する新しい手法を提案する。
我々は、1000人以上の服を着た人間から普遍的な事前学習を行い、即時フィードフォワード生成とゼロショット一般化を実現する。
提案手法は, 最新技術よりも忠実な再構築とアニメーションを生成し, カジュアルに撮影された携帯電話写真からの入力に直接一般化することができる。
論文 参考訳(メタデータ) (2025-03-24T23:20:47Z) - Vid2Avatar-Pro: Authentic Avatar from Videos in the Wild via Universal Prior [31.780579293685797]
Vid2Avatar-Proは、モノクラーインザミルドビデオから、フォトリアリスティックでアニマタブルな3Dアバターを作成する方法である。
論文 参考訳(メタデータ) (2025-03-03T14:45:35Z) - D$^3$-Human: Dynamic Disentangled Digital Human from Monocular Video [26.879355799115743]
D$3$-Humanは、モノクロビデオから動的不整形デジタルヒューマン幾何を再構成する手法である。
本研究では, 可視領域をSDFとして再構成し, 可視衣服と可視体を分割し, 可視体と可視体をマージする新規な人体距離場(hmSDF)を提案する。
論文 参考訳(メタデータ) (2025-01-03T00:58:35Z) - DressRecon: Freeform 4D Human Reconstruction from Monocular Video [64.61230035671885]
本稿では,モノクラービデオから時間一貫性のある人体モデルを再構築する手法を提案する。
非常にゆるい衣服やハンドヘルドオブジェクトのインタラクションに重点を置いています。
DressReconは、先行技術よりも忠実度の高い3D再構築を実現している。
論文 参考訳(メタデータ) (2024-09-30T17:59:15Z) - GaussianHeads: End-to-End Learning of Drivable Gaussian Head Avatars from Coarse-to-fine Representations [54.94362657501809]
マルチビュー画像から高ダイナミックで変形可能な人間の頭部アバターをリアルタイムで生成する手法を提案する。
本手法のコアとなるのは,顔表情と頭部運動の複雑なダイナミクスを捉えることができる頭部モデルの階層的表現である。
我々は、この粗い顔アバターモデルを、エンドツーエンドのフレームワークで学習可能なパラメータとして頭部ポーズとともに訓練する。
論文 参考訳(メタデータ) (2024-09-18T13:05:43Z) - LayGA: Layered Gaussian Avatars for Animatable Clothing Transfer [40.372917698238204]
我々は、体と衣服を2つの別々の層として定式化する新しい表現であるLayGA(LayGA)を提示する。
我々の表現は、ガウスの地図に基づくアバターの上に構築され、衣服の詳細の表現力に優れています。
単層再構成では,滑らかな表面を再構成するための一連の幾何的制約を提案する。
多層フィッティングの段階では、体と衣服を表すために2つの異なるモデルを訓練し、再構築された衣服のジオメトリーを3D監視として活用する。
論文 参考訳(メタデータ) (2024-05-12T16:11:28Z) - High-Quality Animatable Dynamic Garment Reconstruction from Monocular
Videos [51.8323369577494]
そこで本研究では,モノクロビデオから高品質なアニマタブルな動的衣服をスキャンデータに頼らずに回収する手法を提案する。
様々な不明瞭なポーズに対する合理的な変形を生成するために,学習可能な衣服変形ネットワークを提案する。
提案手法は,高品質な動的衣服をコヒーレントな表面形状で再構成し,見知らぬポーズで容易にアニメーションできることを示す。
論文 参考訳(メタデータ) (2023-11-02T13:16:27Z) - PERGAMO: Personalized 3D Garments from Monocular Video [6.8338761008826445]
PERGAMOはモノクロ画像から3D衣服の変形可能なモデルを学ぶためのデータ駆動型アプローチである。
まず,1枚の画像から衣服の3次元形状を再構築する新しい手法を紹介し,それを用いて単眼ビデオから衣服のデータセットを構築する。
本手法は,実世界の動作にマッチする衣料アニメーションを作成でき,モーションキャプチャーデータセットから抽出した身体の動きを一般化できることを示す。
論文 参考訳(メタデータ) (2022-10-26T21:15:54Z) - I M Avatar: Implicit Morphable Head Avatars from Videos [68.13409777995392]
モノクロビデオから暗黙の頭部アバターを学習するための新しい手法であるIMavatarを提案する。
従来の3DMMによるきめ細かい制御機構に着想を得て, 学習用ブレンドサップとスキンフィールドによる表現・ポーズ関連変形を表現した。
本手法は,最先端の手法と比較して,幾何性を改善し,より完全な表現空間をカバーできることを定量的かつ定性的に示す。
論文 参考訳(メタデータ) (2021-12-14T15:30:32Z) - Style and Pose Control for Image Synthesis of Humans from a Single
Monocular View [78.6284090004218]
StylePoseGANは、ポーズと外観のコンディショニングを別々に受け入れる非制御発電機です。
我々のネットワークは、人間のイメージで完全に教師された方法で訓練され、ポーズ、外観、体の部分を切り離すことができる。
StylePoseGANは、一般的な知覚メトリクスで最新の画像生成忠実度を実現します。
論文 参考訳(メタデータ) (2021-02-22T18:50:47Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。