論文の概要: ClothCombo: Modeling Inter-Cloth Interaction for Draping Multi-Layered
Clothes
- arxiv url: http://arxiv.org/abs/2304.03492v2
- Date: Thu, 30 Nov 2023 14:00:56 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-01 23:21:01.179500
- Title: ClothCombo: Modeling Inter-Cloth Interaction for Draping Multi-Layered
Clothes
- Title(参考訳): ClothCombo: 多層布のドレーピングのためのクラス間相互作用のモデル化
- Authors: Dohae Lee, Hyun Kang, In-Kwon Lee
- Abstract要約: 人間の3次元モデルに任意の服の組み合わせを描画するパイプラインであるClathComboを提示する。
本手法は,GNNに基づくネットワークを用いて,異なる階層の衣服間の相互作用を効率的にモデル化する。
- 参考スコア(独自算出の注目度): 3.8079353598215757
- License: http://creativecommons.org/licenses/by-nc-nd/4.0/
- Abstract: We present ClothCombo, a pipeline to drape arbitrary combinations of clothes
on 3D human models with varying body shapes and poses. While existing
learning-based approaches for draping clothes have shown promising results,
multi-layered clothing remains challenging as it is non-trivial to model
inter-cloth interaction. To this end, our method utilizes a GNN-based network
to efficiently model the interaction between clothes in different layers, thus
enabling multi-layered clothing. Specifically, we first create feature
embedding for each cloth using a topology-agnostic network. Then, the draping
network deforms all clothes to fit the target body shape and pose without
considering inter-cloth interaction. Lastly, the untangling network predicts
the per-vertex displacements in a way that resolves interpenetration between
clothes. In experiments, the proposed model demonstrates strong performance in
complex multi-layered scenarios. Being agnostic to cloth topology, our method
can be readily used for layered virtual try-on of real clothes in diverse poses
and combinations of clothes.
- Abstract(参考訳): 身体形状やポーズの異なる3d人体モデル上で,任意の服の組み合わせを描画するパイプラインである clothcombo を提案する。
既存の学習に基づく衣服のドレーピング手法は有望な成果を上げているが、衣服間の相互作用をモデル化するのは簡単ではないため、多層衣服は依然として困難である。
そこで本手法では,GNNベースのネットワークを用いて,異なる階層の衣服間の相互作用を効率的にモデル化し,多層衣服を実現する。
具体的には、まず、トポロジに依存しないネットワークを用いて、各布に特徴埋め込みを作成する。
そして、ドレーピングネットワークは、すべての衣服を変形させて、被服間相互作用を考慮せずに、対象の身体形状に適合させ、ポーズする。
最後に、脱線ネットワークは、衣服間の相互接続を解決する方法で、頂点ごとの変位を予測する。
実験では,複雑な多層シナリオにおいて高い性能を示す。
本手法は布のトポロジーによらず,多彩なポーズと衣服の組み合わせで実際の衣服の層状仮想試着に容易に使用できる。
関連論文リスト
- PocoLoco: A Point Cloud Diffusion Model of Human Shape in Loose Clothing [97.83361232792214]
PocoLocoは、ゆるい服を着た3D人間のための、テンプレートのない、ポイントベースの、ポーズ条件付き生成モデルである。
本研究では,アバター服の変形をデノナイズ拡散フレームワーク内の条件付き点雲生成タスクとして定式化する。
ゆるい服装でさまざまなポーズをとる2人の被験者のデータセットを、合計75K点の雲で公開する。
論文 参考訳(メタデータ) (2024-11-06T20:42:13Z) - Multi-Garment Customized Model Generation [3.1679243514285194]
マルチゲージカスタマイズモデル生成は、潜在拡散モデル(LDM)に基づく統合フレームワークである
本フレームワークは,脱結合型マルチガーメント機能融合による複数衣服の条件生成を支援する。
提案する衣料エンコーダは,他の拡張モジュールと組み合わせることができるプラグアンドプレイモジュールである。
論文 参考訳(メタデータ) (2024-08-09T17:57:33Z) - Better Fit: Accommodate Variations in Clothing Types for Virtual Try-on [25.550019373321653]
画像ベースの仮想試着は、ターゲットとなる服を着替えたモデル画像に転送することを目的としている。
トレーニングマスクを動的に調整する適応型マスクトレーニングパラダイムを提案する。
未ペアの試行検証のために、総合的なクロストライオンベンチマークを構築した。
論文 参考訳(メタデータ) (2024-03-13T12:07:14Z) - AniDress: Animatable Loose-Dressed Avatar from Sparse Views Using
Garment Rigging Model [58.035758145894846]
AniDressは、非常にスパースなマルチビュービデオを用いて、ゆるい服装でアニマタブルな人間のアバターを生成する新しい方法である。
身体運動と衣服運動の両方に条件付されたポーズ駆動型変形可能なニューラルラディアンス場を導入し、両方の部品を明示的に制御する。
本手法は,身体から高度に逸脱する自然の衣服のダイナミックスを描画し,目に見えない景色とポーズの両方に一般化することができる。
論文 参考訳(メタデータ) (2024-01-27T08:48:18Z) - DrapeNet: Garment Generation and Self-Supervised Draping [95.0315186890655]
私たちは、複数の衣服をドレープするために単一のネットワークをトレーニングするために、セルフスーパービジョンに依存しています。
これは、生成ネットワークの潜時符号に条件付けられた3次元変形場を予測することで達成される。
私たちのパイプラインは、以前は目に見えなかったトポロジの衣服を生成および描画することができます。
論文 参考訳(メタデータ) (2022-11-21T09:13:53Z) - Capturing and Animation of Body and Clothing from Monocular Video [105.87228128022804]
メッシュベース体とニューラル放射場を組み合わせたハイブリッドモデルであるSCARFを提案する。
メッシュをレンダリングに統合することで、モノクロビデオから直接SCARFを最適化できます。
本研究は,SCARFが従来の方法よりも高品質な衣服であり,身体のポーズや体型の変化とともに衣服が変形し,異なる被験者のアバター間で衣服の移動が成功できることを実証する。
論文 参考訳(メタデータ) (2022-10-04T19:34:05Z) - Fill in Fabrics: Body-Aware Self-Supervised Inpainting for Image-Based
Virtual Try-On [3.5698678013121334]
本稿では,FabricatorとSegmenter,Warper,Fuserから構成される自己教師型条件生成対向ネットワークベースのフレームワークを提案する。
布地は、仮装服を入力として設けたときに衣服イメージを再構築し、布地を充填して衣服の全体構造を学習する。
その後、仮想トライオンパイプラインは、学習した表現をFabricatorからWarperに転送して、ターゲットの服をワープして洗練させることでトレーニングされる。
論文 参考訳(メタデータ) (2022-10-03T13:25:31Z) - Arbitrary Virtual Try-On Network: Characteristics Preservation and
Trade-off between Body and Clothing [85.74977256940855]
本報告では,オールタイプの衣料品を対象としたArbitrary Virtual Try-On Network (AVTON)を提案する。
AVTONは、ターゲット服と参照者の特性を保存・交換することで、現実的な試行画像を合成することができる。
提案手法は,最先端の仮想試行法と比較して性能が向上する。
論文 参考訳(メタデータ) (2021-11-24T08:59:56Z) - SMPLicit: Topology-aware Generative Model for Clothed People [65.84665248796615]
SMPLicitは、身体のポーズ、形状、衣服の形状を共同で表現する新しい生成モデルである。
実験では,3dスキャンの装着や,服装者の画像の3d再構成にsmplicitが容易に利用できることを示す。
論文 参考訳(メタデータ) (2021-03-11T18:57:03Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。