論文の概要: Multi-Layered Unseen Garments Draping Network
- arxiv url: http://arxiv.org/abs/2304.03492v1
- Date: Fri, 7 Apr 2023 06:23:54 GMT
- ステータス: 処理完了
- システム内更新日: 2023-04-10 12:53:04.992486
- Title: Multi-Layered Unseen Garments Draping Network
- Title(参考訳): 多層無縫製衣服ドレーピングネットワーク
- Authors: Dohae Lee, In-Kwon Lee
- Abstract要約: 本稿では,トレーニングプロセス中に見つからない多層衣服のドレーピングモデルを提案する。
提案する枠組みは, 衣服の埋め込み, 単層布地, アンタングリングの3段階からなる。
提案モデルでは, 人体形状やポーズの多様さについて, 合成, 実際の衣服復元データの両方に強い性能を示す。
- 参考スコア(独自算出の注目度): 3.274290296343038
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: While recent AI-based draping networks have significantly advanced the
ability to simulate the appearance of clothes worn by 3D human models, the
handling of multi-layered garments remains a challenging task. This paper
presents a model for draping multi-layered garments that are unseen during the
training process. Our proposed framework consists of three stages: garment
embedding, single-layered garment draping, and untangling. The model represents
a garment independent to its topological structure by mapping it onto the $UV$
map of a human body model, allowing for the ability to handle previously unseen
garments. In the single-layered garment draping phase, the model sequentially
drapes all garments in each layer on the body without considering interactions
between them. The untangling phase utilizes a GNN-based network to model the
interaction between the garments of different layers, enabling the simulation
of complex multi-layered clothing. The proposed model demonstrates strong
performance on both unseen synthetic and real garment reconstruction data on a
diverse range of human body shapes and poses.
- Abstract(参考訳): 最近のAIベースのドレーピングネットワークは、人間の3Dモデルが着る服の外観をシミュレートする能力を大幅に進歩させているが、多層衣服の扱いは依然として難しい課題である。
本稿では,トレーニングプロセス中に目に見えない多層衣服のドレーピングモデルを提案する。
提案する枠組みは, 衣服の埋め込み, 単層布地, アンタングリングの3段階からなる。
このモデルは、人間の体モデルのUV$マップにマッピングすることで、トポロジカルな構造とは無関係な衣服を表現している。
単層ドレーピングフェーズでは、モデルはそれらの相互作用を考慮せずに、体上の各層のすべての衣服を順次滴下する。
アンタングリングフェーズはgnnベースのネットワークを利用して異なる層の衣服間の相互作用をモデル化し、複雑な多層衣服のシミュレーションを可能にする。
提案モデルでは, 人体形状やポーズの多様さについて, 合成, 実際の衣服復元データの両方に強い性能を示す。
関連論文リスト
- PocoLoco: A Point Cloud Diffusion Model of Human Shape in Loose Clothing [97.83361232792214]
PocoLocoは、ゆるい服を着た3D人間のための、テンプレートのない、ポイントベースの、ポーズ条件付き生成モデルである。
本研究では,アバター服の変形をデノナイズ拡散フレームワーク内の条件付き点雲生成タスクとして定式化する。
ゆるい服装でさまざまなポーズをとる2人の被験者のデータセットを、合計75K点の雲で公開する。
論文 参考訳(メタデータ) (2024-11-06T20:42:13Z) - Multi-Garment Customized Model Generation [3.1679243514285194]
マルチゲージカスタマイズモデル生成は、潜在拡散モデル(LDM)に基づく統合フレームワークである
本フレームワークは,脱結合型マルチガーメント機能融合による複数衣服の条件生成を支援する。
提案する衣料エンコーダは,他の拡張モジュールと組み合わせることができるプラグアンドプレイモジュールである。
論文 参考訳(メタデータ) (2024-08-09T17:57:33Z) - Better Fit: Accommodate Variations in Clothing Types for Virtual Try-on [25.550019373321653]
画像ベースの仮想試着は、ターゲットとなる服を着替えたモデル画像に転送することを目的としている。
トレーニングマスクを動的に調整する適応型マスクトレーニングパラダイムを提案する。
未ペアの試行検証のために、総合的なクロストライオンベンチマークを構築した。
論文 参考訳(メタデータ) (2024-03-13T12:07:14Z) - AniDress: Animatable Loose-Dressed Avatar from Sparse Views Using
Garment Rigging Model [58.035758145894846]
AniDressは、非常にスパースなマルチビュービデオを用いて、ゆるい服装でアニマタブルな人間のアバターを生成する新しい方法である。
身体運動と衣服運動の両方に条件付されたポーズ駆動型変形可能なニューラルラディアンス場を導入し、両方の部品を明示的に制御する。
本手法は,身体から高度に逸脱する自然の衣服のダイナミックスを描画し,目に見えない景色とポーズの両方に一般化することができる。
論文 参考訳(メタデータ) (2024-01-27T08:48:18Z) - DrapeNet: Garment Generation and Self-Supervised Draping [95.0315186890655]
私たちは、複数の衣服をドレープするために単一のネットワークをトレーニングするために、セルフスーパービジョンに依存しています。
これは、生成ネットワークの潜時符号に条件付けられた3次元変形場を予測することで達成される。
私たちのパイプラインは、以前は目に見えなかったトポロジの衣服を生成および描画することができます。
論文 参考訳(メタデータ) (2022-11-21T09:13:53Z) - Capturing and Animation of Body and Clothing from Monocular Video [105.87228128022804]
メッシュベース体とニューラル放射場を組み合わせたハイブリッドモデルであるSCARFを提案する。
メッシュをレンダリングに統合することで、モノクロビデオから直接SCARFを最適化できます。
本研究は,SCARFが従来の方法よりも高品質な衣服であり,身体のポーズや体型の変化とともに衣服が変形し,異なる被験者のアバター間で衣服の移動が成功できることを実証する。
論文 参考訳(メタデータ) (2022-10-04T19:34:05Z) - Fill in Fabrics: Body-Aware Self-Supervised Inpainting for Image-Based
Virtual Try-On [3.5698678013121334]
本稿では,FabricatorとSegmenter,Warper,Fuserから構成される自己教師型条件生成対向ネットワークベースのフレームワークを提案する。
布地は、仮装服を入力として設けたときに衣服イメージを再構築し、布地を充填して衣服の全体構造を学習する。
その後、仮想トライオンパイプラインは、学習した表現をFabricatorからWarperに転送して、ターゲットの服をワープして洗練させることでトレーニングされる。
論文 参考訳(メタデータ) (2022-10-03T13:25:31Z) - Arbitrary Virtual Try-On Network: Characteristics Preservation and
Trade-off between Body and Clothing [85.74977256940855]
本報告では,オールタイプの衣料品を対象としたArbitrary Virtual Try-On Network (AVTON)を提案する。
AVTONは、ターゲット服と参照者の特性を保存・交換することで、現実的な試行画像を合成することができる。
提案手法は,最先端の仮想試行法と比較して性能が向上する。
論文 参考訳(メタデータ) (2021-11-24T08:59:56Z) - SMPLicit: Topology-aware Generative Model for Clothed People [65.84665248796615]
SMPLicitは、身体のポーズ、形状、衣服の形状を共同で表現する新しい生成モデルである。
実験では,3dスキャンの装着や,服装者の画像の3d再構成にsmplicitが容易に利用できることを示す。
論文 参考訳(メタデータ) (2021-03-11T18:57:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。