論文の概要: Towards Loose-Fitting Garment Animation via Generative Model of
Deformation Decomposition
- arxiv url: http://arxiv.org/abs/2312.14619v1
- Date: Fri, 22 Dec 2023 11:26:51 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-25 15:16:43.974506
- Title: Towards Loose-Fitting Garment Animation via Generative Model of
Deformation Decomposition
- Title(参考訳): 変形分解生成モデルによるルースフィッティングガーメントアニメーションに向けて
- Authors: Yifu Liu, Xiaoxia Li, Zhiling Luo, Wei Zhou
- Abstract要約: 本研究では, 変形変形に基づく衣服生成モデルを構築し, 線形スキニングを使わずに, ゆるい衣服の変形を効率的にシミュレートする。
提案手法は,大規模実験により最先端のデータ駆動方式よりも優れており,定性的かつ定量的な結果解析が可能である。
- 参考スコア(独自算出の注目度): 4.627632792164547
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing data-driven methods for garment animation, usually driven by linear
skinning, although effective on tight garments, do not handle loose-fitting
garments with complex deformations well. To address these limitations, we
develop a garment generative model based on deformation decomposition to
efficiently simulate loose garment deformation without directly using linear
skinning. Specifically, we learn a garment generative space with the proposed
generative model, where we decouple the latent representation into unposed
deformed garments and dynamic offsets during the decoding stage. With explicit
garment deformations decomposition, our generative model is able to generate
complex pose-driven deformations on canonical garment shapes. Furthermore, we
learn to transfer the body motions and previous state of the garment to the
latent space to regenerate dynamic results. In addition, we introduce a detail
enhancement module in an adversarial training setup to learn high-frequency
wrinkles. We demonstrate our method outperforms state-of-the-art data-driven
alternatives through extensive experiments and show qualitative and
quantitative analysis of results.
- Abstract(参考訳): 既存の衣服アニメーションのデータ駆動手法は、通常直線的なスキニングによって駆動されるが、タイトな衣服では有効だが、複雑な変形を伴うゆったりした衣服をうまく扱わない。
これらの制約に対処するために, 線形スキンを直接使用せずに, ゆるい変形を効率的にシミュレートする, 変形分解に基づく衣服生成モデルを開発した。
具体的には,提案した生成モデルを用いて衣服生成空間を学習し,遅延表現を変形しない衣服と復号段階における動的オフセットに分離する。
明示的な衣服の変形を分解することにより,我々の生成モデルは,標準的な衣服形状に複雑なポーズ駆動の変形を生成することができる。
さらに,身体運動と衣服の以前の状態を潜在空間に移し,動的結果を再生することを学ぶ。
さらに,高頻度シワを学習するために,敵の訓練装置に詳細拡張モジュールを導入する。
提案手法は,大規模実験により最先端のデータ駆動方式よりも優れており,定性的かつ定量的な結果解析が可能である。
関連論文リスト
- Neural Garment Dynamics via Manifold-Aware Transformers [26.01911475040001]
我々は異なるアプローチを採り、下層の人体との局所的な相互作用を利用して衣服のダイナミクスをモデル化する。
具体的には、身体が動くと局所的な衣服と体の衝突を検出し、衣服の変形を駆動する。
我々のアプローチの核心はメッシュ非依存の衣服表現と多様体対応トランスフォーマーネットワーク設計である。
論文 参考訳(メタデータ) (2024-05-13T11:05:52Z) - AniDress: Animatable Loose-Dressed Avatar from Sparse Views Using
Garment Rigging Model [58.035758145894846]
AniDressは、非常にスパースなマルチビュービデオを用いて、ゆるい服装でアニマタブルな人間のアバターを生成する新しい方法である。
身体運動と衣服運動の両方に条件付されたポーズ駆動型変形可能なニューラルラディアンス場を導入し、両方の部品を明示的に制御する。
本手法は,身体から高度に逸脱する自然の衣服のダイナミックスを描画し,目に見えない景色とポーズの両方に一般化することができる。
論文 参考訳(メタデータ) (2024-01-27T08:48:18Z) - Garment Recovery with Shape and Deformation Priors [51.41962835642731]
本研究では,実際の画像からリアルな衣料品の形状や変形に関わらず,リアルな衣料品のモデルを提供する手法を提案する。
提案手法は, 形状を正確に復元するだけでなく, アニメーションやシミュレーションなどの下流アプリケーションで直接使用可能なモデルも生成する。
論文 参考訳(メタデータ) (2023-11-17T07:06:21Z) - High-Quality Animatable Dynamic Garment Reconstruction from Monocular
Videos [51.8323369577494]
そこで本研究では,モノクロビデオから高品質なアニマタブルな動的衣服をスキャンデータに頼らずに回収する手法を提案する。
様々な不明瞭なポーズに対する合理的な変形を生成するために,学習可能な衣服変形ネットワークを提案する。
提案手法は,高品質な動的衣服をコヒーレントな表面形状で再構成し,見知らぬポーズで容易にアニメーションできることを示す。
論文 参考訳(メタデータ) (2023-11-02T13:16:27Z) - SwinGar: Spectrum-Inspired Neural Dynamic Deformation for Free-Swinging
Garments [6.821050909555717]
本稿では,ダイナミックエフェクトとパーソナライズドディテールを備えた衣服の変形を生成するためのスペクトルに基づく学習手法を提案する。
提案手法は,異なる衣服の動的挙動を予測する統一的な枠組みを提供することにより,制約を克服する。
我々は、周波数制御可能なアテンション機構と長期記憶を統合した動的衣服変形推定器を開発した。
論文 参考訳(メタデータ) (2023-08-05T09:09:50Z) - HOOD: Hierarchical Graphs for Generalized Modelling of Clothing Dynamics [84.29846699151288]
本手法は体型によらず, ゆるく自由な衣服だけでなく, タイトフィットの衣服にも適用できる。
1つの重要な貢献として、厳密なストレッチモードを効率的に伝播する階層的なメッセージパッシング方式を提案する。
論文 参考訳(メタデータ) (2022-12-14T14:24:00Z) - DIG: Draping Implicit Garment over the Human Body [56.68349332089129]
暗黙の面を用いて衣服を表現するエンド・ツー・エンドの差別化可能なパイプラインを提案し, 形状を条件としたスキン場を学習し, 調音体モデルのパラメーターを推定する。
本手法により, 画像観察から身体・衣服のパラメータを復元できることがわかった。
論文 参考訳(メタデータ) (2022-09-22T08:13:59Z) - Predicting Loose-Fitting Garment Deformations Using Bone-Driven Motion
Networks [63.596602299263935]
本稿では,骨駆動型モーションネットワークを用いて,ゆるやかな衣服メッシュの変形を対話的に予測する学習アルゴリズムを提案する。
提案手法は,メッシュ変形の予測精度を約20%,ハウスドルフ距離とSTEDで約10%向上させる。
論文 参考訳(メタデータ) (2022-05-03T07:54:39Z) - Detail-aware Deep Clothing Animations Infused with Multi-source
Attributes [1.6400484152578603]
本稿では,様々な形状の身体が様々なアニメーションで着用する衣服に対して,豊かで合理的な精密な変形を生成するための,新しい学習ベースの衣服変形法を提案する。
異なる衣服のトポロジやポーズを訓練した多数のモデルを必要とする既存の学習手法とは対照的に,我々は統合された枠組みを用いて,高忠実度変形を効率的かつ容易に生成する。
実験結果から,提案手法は既存手法よりも性能が向上し,性能の最適化や細部の品質向上が図られている。
論文 参考訳(メタデータ) (2021-12-15T08:50:49Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。