論文の概要: DIG: Draping Implicit Garment over the Human Body
- arxiv url: http://arxiv.org/abs/2209.10845v1
- Date: Thu, 22 Sep 2022 08:13:59 GMT
- ステータス: 処理完了
- システム内更新日: 2022-09-23 12:30:31.683979
- Title: DIG: Draping Implicit Garment over the Human Body
- Title(参考訳): ディグ:人間の体の上に暗黙の衣服を描く
- Authors: Ren Li, Beno\^it Guillard, Edoardo Remelli, Pascal Fua
- Abstract要約: 暗黙の面を用いて衣服を表現するエンド・ツー・エンドの差別化可能なパイプラインを提案し, 形状を条件としたスキン場を学習し, 調音体モデルのパラメーターを推定する。
本手法により, 画像観察から身体・衣服のパラメータを復元できることがわかった。
- 参考スコア(独自算出の注目度): 56.68349332089129
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Existing data-driven methods for draping garments over posed human bodies,
despite being effective, cannot handle garments of arbitrary topology and are
typically not end-to-end differentiable. To address these limitations, we
propose an end-to-end differentiable pipeline that represents garments using
implicit surfaces and learns a skinning field conditioned on shape and pose
parameters of an articulated body model. To limit body-garment
interpenetrations and artifacts, we propose an interpretation-aware
pre-processing strategy of training data and a novel training loss that
penalizes self-intersections while draping garments. We demonstrate that our
method yields more accurate results for garment reconstruction and deformation
with respect to state-of-the-art methods. Furthermore, we show that our method,
thanks to its end-to-end differentiability, allows to recover body and garments
parameters jointly from image observations, something that previous work could
not do.
- Abstract(参考訳): 既存のデータ駆動方式では、ポーズづけされた人体の上に衣服を描くことは効果的であるが、任意のトポロジーの衣服を扱うことはできず、通常はエンドツーエンドの区別ができない。
そこで本研究では,これらの制約に対処するために,衣服を暗黙の面で表現し,物体モデルの形状やポーズパラメータを条件としたスキンフィールドを学習する,エンドツーエンドの微分可能パイプラインを提案する。
身体装具の相互接続やアーティファクトを制限するため,トレーニングデータの解釈・認識前処理戦略と,衣服をドレーピングしながら自己切断を罰する新たなトレーニング損失を提案する。
本手法は,最先端の手法に対して,衣服の復元や変形に対して,より正確な結果が得られることを実証する。
さらに,本手法では, 画像観察から身体と衣服のパラメータを復元することが可能であり, 従来の作業ではできなかったことが確認できた。
関連論文リスト
- Neural Garment Dynamics via Manifold-Aware Transformers [26.01911475040001]
我々は異なるアプローチを採り、下層の人体との局所的な相互作用を利用して衣服のダイナミクスをモデル化する。
具体的には、身体が動くと局所的な衣服と体の衝突を検出し、衣服の変形を駆動する。
我々のアプローチの核心はメッシュ非依存の衣服表現と多様体対応トランスフォーマーネットワーク設計である。
論文 参考訳(メタデータ) (2024-05-13T11:05:52Z) - Towards Loose-Fitting Garment Animation via Generative Model of
Deformation Decomposition [4.627632792164547]
本研究では, 変形変形に基づく衣服生成モデルを構築し, 線形スキニングを使わずに, ゆるい衣服の変形を効率的にシミュレートする。
提案手法は,大規模実験により最先端のデータ駆動方式よりも優れており,定性的かつ定量的な結果解析が可能である。
論文 参考訳(メタデータ) (2023-12-22T11:26:51Z) - GAPS: Geometry-Aware, Physics-Based, Self-Supervised Neural Garment Draping [8.60320342646772]
最近の神経物理学に基づく衣服の変形のモデリングは、より高速で視覚的に美的な結果をもたらす。
材料固有のパラメータは、衣服の伸縮性を制御するために定式化によって使用される。
そこで本研究では,身体の身近さを指標として,形状に配慮した衣服のスキンニング手法を提案する。
論文 参考訳(メタデータ) (2023-12-03T19:21:53Z) - Garment Recovery with Shape and Deformation Priors [51.41962835642731]
本研究では,実際の画像からリアルな衣料品の形状や変形に関わらず,リアルな衣料品のモデルを提供する手法を提案する。
提案手法は, 形状を正確に復元するだけでなく, アニメーションやシミュレーションなどの下流アプリケーションで直接使用可能なモデルも生成する。
論文 参考訳(メタデータ) (2023-11-17T07:06:21Z) - HOOD: Hierarchical Graphs for Generalized Modelling of Clothing Dynamics [84.29846699151288]
本手法は体型によらず, ゆるく自由な衣服だけでなく, タイトフィットの衣服にも適用できる。
1つの重要な貢献として、厳密なストレッチモードを効率的に伝播する階層的なメッセージパッシング方式を提案する。
論文 参考訳(メタデータ) (2022-12-14T14:24:00Z) - DrapeNet: Garment Generation and Self-Supervised Draping [95.0315186890655]
私たちは、複数の衣服をドレープするために単一のネットワークをトレーニングするために、セルフスーパービジョンに依存しています。
これは、生成ネットワークの潜時符号に条件付けられた3次元変形場を予測することで達成される。
私たちのパイプラインは、以前は目に見えなかったトポロジの衣服を生成および描画することができます。
論文 参考訳(メタデータ) (2022-11-21T09:13:53Z) - Towards Scalable Unpaired Virtual Try-On via Patch-Routed
Spatially-Adaptive GAN [66.3650689395967]
本稿では,現実世界の仮想試行を支援するテクスチャ保存型終末ネットワークであるPAtch-routed SpaTially-Adaptive GAN (PASTA-GAN)を提案する。
PASTA-GANは、各衣服のスタイルと空間情報をアンタングルするために、革新的なパッチを外したアンタングルモジュールで構成されている。
論文 参考訳(メタデータ) (2021-11-20T08:36:12Z) - BCNet: Learning Body and Cloth Shape from A Single Image [56.486796244320125]
SMPL上には層状衣服表現が提案され,ボディメッシュとは独立に衣服のスキンウェイトを新たに作成する。
既存の手法と比較して,本手法はより多くの衣服カテゴリーをサポートし,より正確な形状を復元することができる。
論文 参考訳(メタデータ) (2020-04-01T03:41:36Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。