論文の概要: HOOD: Hierarchical Graphs for Generalized Modelling of Clothing Dynamics
- arxiv url: http://arxiv.org/abs/2212.07242v3
- Date: Fri, 16 Jun 2023 09:01:34 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-19 18:06:44.482572
- Title: HOOD: Hierarchical Graphs for Generalized Modelling of Clothing Dynamics
- Title(参考訳): HOOD: 衣服ダイナミクスの一般化モデリングのための階層グラフ
- Authors: Artur Grigorev, Bernhard Thomaszewski, Michael J. Black, Otmar
Hilliges
- Abstract要約: 本手法は体型によらず, ゆるく自由な衣服だけでなく, タイトフィットの衣服にも適用できる。
1つの重要な貢献として、厳密なストレッチモードを効率的に伝播する階層的なメッセージパッシング方式を提案する。
- 参考スコア(独自算出の注目度): 84.29846699151288
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: We propose a method that leverages graph neural networks, multi-level message
passing, and unsupervised training to enable real-time prediction of realistic
clothing dynamics. Whereas existing methods based on linear blend skinning must
be trained for specific garments, our method is agnostic to body shape and
applies to tight-fitting garments as well as loose, free-flowing clothing. Our
method furthermore handles changes in topology (e.g., garments with buttons or
zippers) and material properties at inference time. As one key contribution, we
propose a hierarchical message-passing scheme that efficiently propagates stiff
stretching modes while preserving local detail. We empirically show that our
method outperforms strong baselines quantitatively and that its results are
perceived as more realistic than state-of-the-art methods.
- Abstract(参考訳): 本稿では,グラフニューラルネットワーク,マルチレベルメッセージパッシング,教師なしトレーニングを活用し,リアルな衣服の動態をリアルタイムに予測する手法を提案する。
既存のリニア・ブレンド・スキンニング法は特定の衣服に対してトレーニングする必要があるが,本手法は体型に不慣れであり,ゆるやかで自由な衣服にも適用できる。
提案手法は、さらにトポロジーの変化(例えば、ボタンやジッパーのついた衣服)と推論時の材料特性を取り扱う。
そこで,本稿では,局所的なディテールを維持しつつ,ストレッチングモードを効率的に伝搬する階層的メッセージパッシングスキームを提案する。
実験により,本手法は強いベースラインを定量的に上回っており,その結果が最先端手法よりも現実的なものと見なされていることを実証的に示す。
関連論文リスト
- Neural Garment Dynamics via Manifold-Aware Transformers [26.01911475040001]
我々は異なるアプローチを採り、下層の人体との局所的な相互作用を利用して衣服のダイナミクスをモデル化する。
具体的には、身体が動くと局所的な衣服と体の衝突を検出し、衣服の変形を駆動する。
我々のアプローチの核心はメッシュ非依存の衣服表現と多様体対応トランスフォーマーネットワーク設計である。
論文 参考訳(メタデータ) (2024-05-13T11:05:52Z) - AniDress: Animatable Loose-Dressed Avatar from Sparse Views Using
Garment Rigging Model [58.035758145894846]
AniDressは、非常にスパースなマルチビュービデオを用いて、ゆるい服装でアニマタブルな人間のアバターを生成する新しい方法である。
身体運動と衣服運動の両方に条件付されたポーズ駆動型変形可能なニューラルラディアンス場を導入し、両方の部品を明示的に制御する。
本手法は,身体から高度に逸脱する自然の衣服のダイナミックスを描画し,目に見えない景色とポーズの両方に一般化することができる。
論文 参考訳(メタデータ) (2024-01-27T08:48:18Z) - Towards Loose-Fitting Garment Animation via Generative Model of
Deformation Decomposition [4.627632792164547]
本研究では, 変形変形に基づく衣服生成モデルを構築し, 線形スキニングを使わずに, ゆるい衣服の変形を効率的にシミュレートする。
提案手法は,大規模実験により最先端のデータ駆動方式よりも優れており,定性的かつ定量的な結果解析が可能である。
論文 参考訳(メタデータ) (2023-12-22T11:26:51Z) - GAPS: Geometry-Aware, Physics-Based, Self-Supervised Neural Garment Draping [8.60320342646772]
最近の神経物理学に基づく衣服の変形のモデリングは、より高速で視覚的に美的な結果をもたらす。
材料固有のパラメータは、衣服の伸縮性を制御するために定式化によって使用される。
そこで本研究では,身体の身近さを指標として,形状に配慮した衣服のスキンニング手法を提案する。
論文 参考訳(メタデータ) (2023-12-03T19:21:53Z) - Garment Recovery with Shape and Deformation Priors [51.41962835642731]
本研究では,実際の画像からリアルな衣料品の形状や変形に関わらず,リアルな衣料品のモデルを提供する手法を提案する。
提案手法は, 形状を正確に復元するだけでなく, アニメーションやシミュレーションなどの下流アプリケーションで直接使用可能なモデルも生成する。
論文 参考訳(メタデータ) (2023-11-17T07:06:21Z) - SwinGar: Spectrum-Inspired Neural Dynamic Deformation for Free-Swinging
Garments [6.821050909555717]
本稿では,ダイナミックエフェクトとパーソナライズドディテールを備えた衣服の変形を生成するためのスペクトルに基づく学習手法を提案する。
提案手法は,異なる衣服の動的挙動を予測する統一的な枠組みを提供することにより,制約を克服する。
我々は、周波数制御可能なアテンション機構と長期記憶を統合した動的衣服変形推定器を開発した。
論文 参考訳(メタデータ) (2023-08-05T09:09:50Z) - DIG: Draping Implicit Garment over the Human Body [56.68349332089129]
暗黙の面を用いて衣服を表現するエンド・ツー・エンドの差別化可能なパイプラインを提案し, 形状を条件としたスキン場を学習し, 調音体モデルのパラメーターを推定する。
本手法により, 画像観察から身体・衣服のパラメータを復元できることがわかった。
論文 参考訳(メタデータ) (2022-09-22T08:13:59Z) - Arbitrary Virtual Try-On Network: Characteristics Preservation and
Trade-off between Body and Clothing [85.74977256940855]
本報告では,オールタイプの衣料品を対象としたArbitrary Virtual Try-On Network (AVTON)を提案する。
AVTONは、ターゲット服と参照者の特性を保存・交換することで、現実的な試行画像を合成することができる。
提案手法は,最先端の仮想試行法と比較して性能が向上する。
論文 参考訳(メタデータ) (2021-11-24T08:59:56Z) - Powerpropagation: A sparsity inducing weight reparameterisation [65.85142037667065]
我々は、本質的にスパースモデルにつながるニューラルネットワークの新しい重みパラメータ化であるPowerpropagationを紹介した。
この方法で訓練されたモデルは同様の性能を示すが、0で明らかに高い密度の分布を持ち、より多くのパラメータを安全に刈り取ることができる。
ここでは、Powerpropagationと従来のウェイトプルーニング技術と、最近の最先端スパース・トゥ・スパースアルゴリズムを組み合わせることで、ImageNetベンチマークで優れたパフォーマンスを示す。
論文 参考訳(メタデータ) (2021-10-01T10:03:57Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。