論文の概要: Learning High-Fidelity Cloth Animation via Skinning-Free Image Transfer
- arxiv url: http://arxiv.org/abs/2512.05593v1
- Date: Fri, 05 Dec 2025 10:28:08 GMT
- ステータス: 翻訳完了
- システム内更新日: 2025-12-13 22:40:56.991269
- Title: Learning High-Fidelity Cloth Animation via Skinning-Free Image Transfer
- Title(参考訳): スキニングフリー画像伝達による高忠実衣服アニメーションの学習
- Authors: Rong Wang, Wei Mao, Changsheng Lu, Hongdong Li,
- Abstract要約: 身体のポーズから3次元の衣服の変形を生成する新しい手法を提案する。
本手法は,様々な衣料品のアニメーション品質を著しく向上させ,最先端の方法よりも細いしわを回収する。
- 参考スコア(独自算出の注目度): 64.49436559408049
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: We present a novel method for generating 3D garment deformations from given body poses, which is key to a wide range of applications, including virtual try-on and extended reality. To simplify the cloth dynamics, existing methods mostly rely on linear blend skinning to obtain low-frequency posed garment shape and only regress high-frequency wrinkles. However, due to the lack of explicit skinning supervision, such skinning-based approach often produces misaligned shapes when posing the garment, consequently corrupts the high-frequency signals and fails to recover high-fidelity wrinkles. To tackle this issue, we propose a skinning-free approach by independently estimating posed (i) vertex position for low-frequency posed garment shape, and (ii) vertex normal for high-frequency local wrinkle details. In this way, each frequency modality can be effectively decoupled and directly supervised by the geometry of the deformed garment. To further improve the visual quality of animation, we propose to encode both vertex attributes as rendered texture images, so that 3D garment deformation can be equivalently achieved via 2D image transfer. This enables us to leverage powerful pretrained image models to recover fine-grained visual details in wrinkles, while maintaining superior scalability for garments of diverse topologies without relying on manual UV partition. Finally, we propose a multimodal fusion to incorporate constraints from both frequency modalities and robustly recover deformed 3D garments from transferred images. Extensive experiments show that our method significantly improves animation quality on various garment types and recovers finer wrinkles than state-of-the-art methods.
- Abstract(参考訳): 本稿では,仮想試行錯誤や拡張現実を含む幅広い応用の鍵となる,身体のポーズから3次元の衣服の変形を生成する新しい手法を提案する。
布のダイナミクスを単純化するため、既存の方法では、主にリニアブレンドスキンを使用して、低周波の布の形状と高周波のしわを補強するのみである。
しかし、スキンの明示的な監督が欠如しているため、スキンベースのアプローチは衣服を装う際に不整合形を生じることが多く、結果として高周波信号が劣化し、高忠実なしわを回復することができない。
この問題に対処するために、独立してポーズを推定するスキンフリーアプローチを提案する。
一 低周波布地形状の頂点位置、及び
(ii)高周波局所しわ細部における頂点正規化
このようにして、各周波数モダリティは、変形した衣服の幾何学によって効果的に分離し、直接監督することができる。
アニメーションの視覚的品質をさらに向上するため,両頂点属性を描画テクスチャ画像として符号化し,2次元画像転送により3次元の変形を等価に行えるようにすることを提案する。
これにより、手動UV分割に頼ることなく、多様なトポロジの衣服に優れたスケーラビリティを保ちながら、強力な事前学習画像モデルを利用して、しわの細かい視覚的詳細を復元することができる。
最後に、両周波数モードの制約を組み込んだマルチモーダル融合を提案し、転送画像から変形した3D衣服を頑健に回収する。
広汎な実験により,本手法は様々な衣料品のアニメーション品質を著しく改善し,最先端の手法よりも細いしわを回収することがわかった。
関連論文リスト
- TeGA: Texture Space Gaussian Avatars for High-Resolution Dynamic Head Modeling [52.87836237427514]
フォトリアルアバターは、テレプレゼンス、拡張現実、エンターテイメントにおける新興アプリケーションにおいて重要な要素であると見なされている。
本稿では,最先端の3Dヘッドアバターモデルを提案する。
論文 参考訳(メタデータ) (2025-05-08T22:10:27Z) - Single View Garment Reconstruction Using Diffusion Mapping Via Pattern Coordinates [45.48311596587306]
画像から3Dの服を着た人間を再構築することは、仮想トライオン、アバター作成、混合現実などの応用に基本となる。
本稿では,2次元および3次元の表現をブリッジする単一画像から高忠実度3次元衣服を復元する新しい手法を提案する。
論文 参考訳(メタデータ) (2025-04-11T08:39:18Z) - DiffusedWrinkles: A Diffusion-Based Model for Data-Driven Garment Animation [10.9550231281676]
2次元画像拡散モデルを用いて3次元衣料のアニメーションを生成するためのデータ駆動方式を提案する。
提案手法は,多種多様な衣料品や体型のための高品質な3Dアニメーションを合成することができる。
論文 参考訳(メタデータ) (2025-03-24T06:08:26Z) - High-Quality Animatable Dynamic Garment Reconstruction from Monocular
Videos [51.8323369577494]
そこで本研究では,モノクロビデオから高品質なアニマタブルな動的衣服をスキャンデータに頼らずに回収する手法を提案する。
様々な不明瞭なポーズに対する合理的な変形を生成するために,学習可能な衣服変形ネットワークを提案する。
提案手法は,高品質な動的衣服をコヒーレントな表面形状で再構成し,見知らぬポーズで容易にアニメーションできることを示す。
論文 参考訳(メタデータ) (2023-11-02T13:16:27Z) - MoDA: Modeling Deformable 3D Objects from Casual Videos [84.29654142118018]
神経二元四元系ブレンドスキンニング(NeuDBS)を提案し,スキンを折り畳むことなく3次元点変形を実現する。
異なるフレーム間で2Dピクセルを登録する試みにおいて、標準空間内の3D点を符号化する標準特徴埋め込みの対応性を確立する。
本手法は,ヒトと動物の3Dモデルを,最先端の手法よりも質的,定量的な性能で再構築することができる。
論文 参考訳(メタデータ) (2023-04-17T13:49:04Z) - xCloth: Extracting Template-free Textured 3D Clothes from a Monocular
Image [4.056667956036515]
テンプレートフリーなテクスチャ3次元衣料デジタル化のための新しいフレームワークを提案する。
具体的には、PeledHuman表現を拡張して、ピクセルアライメント、階層化深度、セマンティックマップを予測することを提案する。
3つの公開データセットを用いて高忠実度3次元衣料の再構築を行い,インターネット画像上での一般化を行った。
論文 参考訳(メタデータ) (2022-08-27T05:57:00Z) - Self-Supervised Collision Handling via Generative 3D Garment Models for
Virtual Try-On [29.458328272854107]
本稿では,仮想試行のためのデータ駆動方式を初めて学習することのできる3次元衣服の変形生成モデルを提案する。
本手法は, 実感やディテールを損なうことなく, 被着体接触を目立たない身体形状や動作で解決した最初の方法であることを示す。
論文 参考訳(メタデータ) (2021-05-13T17:58:20Z) - Pose-Guided High-Resolution Appearance Transfer via Progressive Training [65.92031716146865]
前例のない画像解像度で、所定の参照外観をターゲットポーズに転送するためのポーズ誘導型外観伝達ネットワークを提案する。
我々のネットワークは、局所的な知覚喪失や局所的な識別など、密集した局所記述子を用いて詳細を精査する。
我々のモデルは高品質な画像を生成し、人間の衣服の移動などの有用な応用にさらに活用することができる。
論文 参考訳(メタデータ) (2020-08-27T03:18:44Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。