論文の概要: Neural Garment Dynamics via Manifold-Aware Transformers
- arxiv url: http://arxiv.org/abs/2407.06101v1
- Date: Mon, 13 May 2024 11:05:52 GMT
- ステータス: 処理完了
- システム内更新日: 2024-07-22 14:19:18.453322
- Title: Neural Garment Dynamics via Manifold-Aware Transformers
- Title(参考訳): マニフォールド対応変圧器によるニューラルガーメントダイナミクス
- Authors: Peizhuo Li, Tuanfeng Y. Wang, Timur Levent Kesdogan, Duygu Ceylan, Olga Sorkine-Hornung,
- Abstract要約: 我々は異なるアプローチを採り、下層の人体との局所的な相互作用を利用して衣服のダイナミクスをモデル化する。
具体的には、身体が動くと局所的な衣服と体の衝突を検出し、衣服の変形を駆動する。
我々のアプローチの核心はメッシュ非依存の衣服表現と多様体対応トランスフォーマーネットワーク設計である。
- 参考スコア(独自算出の注目度): 26.01911475040001
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Data driven and learning based solutions for modeling dynamic garments have significantly advanced, especially in the context of digital humans. However, existing approaches often focus on modeling garments with respect to a fixed parametric human body model and are limited to garment geometries that were seen during training. In this work, we take a different approach and model the dynamics of a garment by exploiting its local interactions with the underlying human body. Specifically, as the body moves, we detect local garment-body collisions, which drive the deformation of the garment. At the core of our approach is a mesh-agnostic garment representation and a manifold-aware transformer network design, which together enable our method to generalize to unseen garment and body geometries. We evaluate our approach on a wide variety of garment types and motion sequences and provide competitive qualitative and quantitative results with respect to the state of the art.
- Abstract(参考訳): データ駆動と学習に基づく動的衣服のモデリングソリューションは、特にデジタル人間の文脈において、大きく進歩している。
しかし、既存のアプローチは、固定されたパラメトリックの人体モデルに関する衣服のモデリングに重点を置いており、訓練中に見られた衣服の幾何学に限られている。
本研究では, 衣服の局所的相互作用を利用して, 衣服の動態をモデル化する。
具体的には、身体が動くと局所的な衣服と体の衝突を検出し、衣服の変形を駆動する。
我々のアプローチの核となるのはメッシュ非依存の衣服表現と多様体対応トランスフォーマーネットワーク設計であり、この手法が組み合わさって見えない衣服や身体の幾何学を一般化することを可能にする。
本研究は,多様な衣服の種類や動作順序に対するアプローチを評価し,最先端技術に対する質的かつ定量的な結果を提供する。
関連論文リスト
- PICA: Physics-Integrated Clothed Avatar [30.277983921620663]
PICAは, 物理学的精度のよい, 高忠実でアニマタブルな人間のアバターを, ゆるやかな衣服でも表現できる新しい表現法である。
提案手法は, 複雑で斬新な運転ポーズにおいて, 人体の高忠実なレンダリングを実現し, 従来手法よりも大幅に優れていた。
論文 参考訳(メタデータ) (2024-07-07T10:23:21Z) - Neural-ABC: Neural Parametric Models for Articulated Body with Clothes [29.04941764336255]
本稿では, 身元, 衣服, 形状, ポーズなど, ゆがみのない空間で衣服を表現できる新しいモデルであるNeural-ABCを紹介する。
我々のモデルは、衣服のスタイルを保ちながら、異なる形状の衣服とアイデンティティとポーズを両立させることに優れています。
他の最先端のパラメトリックモデルと比較すると、Neural-ABCは人間の衣服を復元する上で強力なアドバンテージを示している。
論文 参考訳(メタデータ) (2024-04-06T16:29:10Z) - AniDress: Animatable Loose-Dressed Avatar from Sparse Views Using
Garment Rigging Model [58.035758145894846]
AniDressは、非常にスパースなマルチビュービデオを用いて、ゆるい服装でアニマタブルな人間のアバターを生成する新しい方法である。
身体運動と衣服運動の両方に条件付されたポーズ駆動型変形可能なニューラルラディアンス場を導入し、両方の部品を明示的に制御する。
本手法は,身体から高度に逸脱する自然の衣服のダイナミックスを描画し,目に見えない景色とポーズの両方に一般化することができる。
論文 参考訳(メタデータ) (2024-01-27T08:48:18Z) - Towards Loose-Fitting Garment Animation via Generative Model of
Deformation Decomposition [4.627632792164547]
本研究では, 変形変形に基づく衣服生成モデルを構築し, 線形スキニングを使わずに, ゆるい衣服の変形を効率的にシミュレートする。
提案手法は,大規模実験により最先端のデータ駆動方式よりも優れており,定性的かつ定量的な結果解析が可能である。
論文 参考訳(メタデータ) (2023-12-22T11:26:51Z) - Garment Recovery with Shape and Deformation Priors [51.41962835642731]
本研究では,実際の画像からリアルな衣料品の形状や変形に関わらず,リアルな衣料品のモデルを提供する手法を提案する。
提案手法は, 形状を正確に復元するだけでなく, アニメーションやシミュレーションなどの下流アプリケーションで直接使用可能なモデルも生成する。
論文 参考訳(メタデータ) (2023-11-17T07:06:21Z) - SwinGar: Spectrum-Inspired Neural Dynamic Deformation for Free-Swinging
Garments [6.821050909555717]
本稿では,ダイナミックエフェクトとパーソナライズドディテールを備えた衣服の変形を生成するためのスペクトルに基づく学習手法を提案する。
提案手法は,異なる衣服の動的挙動を予測する統一的な枠組みを提供することにより,制約を克服する。
我々は、周波数制御可能なアテンション機構と長期記憶を統合した動的衣服変形推定器を開発した。
論文 参考訳(メタデータ) (2023-08-05T09:09:50Z) - HOOD: Hierarchical Graphs for Generalized Modelling of Clothing Dynamics [84.29846699151288]
本手法は体型によらず, ゆるく自由な衣服だけでなく, タイトフィットの衣服にも適用できる。
1つの重要な貢献として、厳密なストレッチモードを効率的に伝播する階層的なメッセージパッシング方式を提案する。
論文 参考訳(メタデータ) (2022-12-14T14:24:00Z) - DIG: Draping Implicit Garment over the Human Body [56.68349332089129]
暗黙の面を用いて衣服を表現するエンド・ツー・エンドの差別化可能なパイプラインを提案し, 形状を条件としたスキン場を学習し, 調音体モデルのパラメーターを推定する。
本手法により, 画像観察から身体・衣服のパラメータを復元できることがわかった。
論文 参考訳(メタデータ) (2022-09-22T08:13:59Z) - Learning Local Recurrent Models for Human Mesh Recovery [50.85467243778406]
本稿では,人間のメッシュを標準的な骨格モデルに従って複数の局所的に分割するビデオメッシュ復元手法を提案する。
次に、各局所部分の力学を別個のリカレントモデルでモデル化し、各モデルは、人体の既知の運動構造に基づいて適切に条件付けする。
これにより、構造的インフォームドな局所的再帰学習アーキテクチャが実現され、アノテーションを使ってエンドツーエンドでトレーニングすることができる。
論文 参考訳(メタデータ) (2021-07-27T14:30:33Z) - Deep Physics-aware Inference of Cloth Deformation for Monocular Human
Performance Capture [84.73946704272113]
物理をトレーニングプロセスに統合することで、学習した布の変形が改善し、衣服を別の幾何学的要素としてモデル化できることを示す。
提案手法は現在の最先端手法よりも大幅に改善され,人間の衣服の変形面全体に対する現実的なモノクロキャプチャに向けた明確なステップとなる。
論文 参考訳(メタデータ) (2020-11-25T16:46:00Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。