論文の概要: ClothFit: Cloth-Human-Attribute Guided Virtual Try-On Network Using 3D
Simulated Dataset
- arxiv url: http://arxiv.org/abs/2306.13908v1
- Date: Sat, 24 Jun 2023 08:57:36 GMT
- ステータス: 処理完了
- システム内更新日: 2023-06-27 18:19:38.341874
- Title: ClothFit: Cloth-Human-Attribute Guided Virtual Try-On Network Using 3D
Simulated Dataset
- Title(参考訳): ClothFit: 3次元シミュレーションデータセットを用いた仮想トライオンネットワーク
- Authors: Yunmin Cho, Lala Shakti Swarup Ray, Kundan Sai Prabhu Thota, Sungho
Suh, Paul Lukowicz
- Abstract要約: そこで我々はClosFitと呼ばれる新しい仮想試行法を提案する。
被服の実際の大きさと人的属性に基づいて、被服の被服体上のドレーピング形状を予測することができる。
実験結果から,ClosFitはフォトリアリスティックな仮想試行実験において,既存の最先端手法を大幅に改善できることが示された。
- 参考スコア(独自算出の注目度): 5.260305201345232
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Online clothing shopping has become increasingly popular, but the high rate
of returns due to size and fit issues has remained a major challenge. To
address this problem, virtual try-on systems have been developed to provide
customers with a more realistic and personalized way to try on clothing. In
this paper, we propose a novel virtual try-on method called ClothFit, which can
predict the draping shape of a garment on a target body based on the actual
size of the garment and human attributes. Unlike existing try-on models,
ClothFit considers the actual body proportions of the person and available
cloth sizes for clothing virtualization, making it more appropriate for current
online apparel outlets. The proposed method utilizes a U-Net-based network
architecture that incorporates cloth and human attributes to guide the
realistic virtual try-on synthesis. Specifically, we extract features from a
cloth image using an auto-encoder and combine them with features from the
user's height, weight, and cloth size. The features are concatenated with the
features from the U-Net encoder, and the U-Net decoder synthesizes the final
virtual try-on image. Our experimental results demonstrate that ClothFit can
significantly improve the existing state-of-the-art methods in terms of
photo-realistic virtual try-on results.
- Abstract(参考訳): オンライン衣料品ショッピングはますます人気を博しているが、サイズや適合の問題によるリターン率の高さは依然として大きな課題である。
この問題を解決するために、仮想試着システムが開発され、より現実的でパーソナライズされた衣服試着方法を提供する。
本稿では,被服の実際のサイズと人的属性に基づいて,被服の被写体へのドレピング形状を予測できる新しい仮想試着法であるclotfitを提案する。
既存のトライオンモデルとは異なり、ClathFitは実際の人体の比率と衣料仮想化用の布のサイズを考えており、現在のオンラインアパレル・アウトレットに適している。
提案手法は,布と人的属性を組み込んだU-Netネットワークアーキテクチャを用いて,リアルな仮想トライオン合成を導く。
具体的には,自動エンコーダを用いて布画像から特徴を抽出し,ユーザの身長,重量,布の大きさから特徴を合成する。
これらの機能はU-Netエンコーダの機能と結合し、U-Netデコーダは最後の仮想試行画像を生成する。
実験結果から,ClosFitはフォトリアリスティックな仮想試行実験において,既存の最先端手法を大幅に改善できることが示された。
関連論文リスト
- Better Fit: Accommodate Variations in Clothing Types for Virtual Try-on [25.550019373321653]
画像ベースの仮想試着は、ターゲットとなる服を着替えたモデル画像に転送することを目的としている。
トレーニングマスクを動的に調整する適応型マスクトレーニングパラダイムを提案する。
未ペアの試行検証のために、総合的なクロストライオンベンチマークを構築した。
論文 参考訳(メタデータ) (2024-03-13T12:07:14Z) - AniDress: Animatable Loose-Dressed Avatar from Sparse Views Using
Garment Rigging Model [58.035758145894846]
AniDressは、非常にスパースなマルチビュービデオを用いて、ゆるい服装でアニマタブルな人間のアバターを生成する新しい方法である。
身体運動と衣服運動の両方に条件付されたポーズ駆動型変形可能なニューラルラディアンス場を導入し、両方の部品を明示的に制御する。
本手法は,身体から高度に逸脱する自然の衣服のダイナミックスを描画し,目に見えない景色とポーズの両方に一般化することができる。
論文 参考訳(メタデータ) (2024-01-27T08:48:18Z) - Capturing and Animation of Body and Clothing from Monocular Video [105.87228128022804]
メッシュベース体とニューラル放射場を組み合わせたハイブリッドモデルであるSCARFを提案する。
メッシュをレンダリングに統合することで、モノクロビデオから直接SCARFを最適化できます。
本研究は,SCARFが従来の方法よりも高品質な衣服であり,身体のポーズや体型の変化とともに衣服が変形し,異なる被験者のアバター間で衣服の移動が成功できることを実証する。
論文 参考訳(メタデータ) (2022-10-04T19:34:05Z) - Fill in Fabrics: Body-Aware Self-Supervised Inpainting for Image-Based
Virtual Try-On [3.5698678013121334]
本稿では,FabricatorとSegmenter,Warper,Fuserから構成される自己教師型条件生成対向ネットワークベースのフレームワークを提案する。
布地は、仮装服を入力として設けたときに衣服イメージを再構築し、布地を充填して衣服の全体構造を学習する。
その後、仮想トライオンパイプラインは、学習した表現をFabricatorからWarperに転送して、ターゲットの服をワープして洗練させることでトレーニングされる。
論文 参考訳(メタデータ) (2022-10-03T13:25:31Z) - Dressing Avatars: Deep Photorealistic Appearance for Physically
Simulated Clothing [49.96406805006839]
リアルな衣服の動態とリアルなデータから学んだフォトリアリスティックな外観の両方を示す衣服の明示的なモデリングを施したポーズ駆動アバターを紹介した。
我々の重要な貢献は物理的にインスパイアされた外観ネットワークであり、視界依存的かつダイナミックな影効果を持つ光リアルな外観を生成できる。
論文 参考訳(メタデータ) (2022-06-30T17:58:20Z) - FitGAN: Fit- and Shape-Realistic Generative Adversarial Networks for
Fashion [5.478764356647437]
本稿では,衣料の絡み合ったサイズと適合特性を考慮に入れた生成的敵モデルFitGANを提案する。
本モデルでは, ファッション記事の真の適合性や形状を反映したリアルな画像を生成する。
論文 参考訳(メタデータ) (2022-06-23T15:10:28Z) - Garment Avatars: Realistic Cloth Driving using Pattern Registration [39.936812232884954]
衣料品の乾式表現のためのエンドツーエンドパイプラインを提案する。
ガーメント・アバター(Garment Avatar)は、衣服の表現的かつ完全に駆動可能な幾何学モデルである。
リアルな仮想テレプレゼンスアプリケーションにおけるパイプラインの有効性を実証する。
論文 参考訳(メタデータ) (2022-06-07T15:06:55Z) - Arbitrary Virtual Try-On Network: Characteristics Preservation and
Trade-off between Body and Clothing [85.74977256940855]
本報告では,オールタイプの衣料品を対象としたArbitrary Virtual Try-On Network (AVTON)を提案する。
AVTONは、ターゲット服と参照者の特性を保存・交換することで、現実的な試行画像を合成することができる。
提案手法は,最先端の仮想試行法と比較して性能が向上する。
論文 参考訳(メタデータ) (2021-11-24T08:59:56Z) - Shape Controllable Virtual Try-on for Underwear Models [0.0]
そこで我々は,下着モデル用の衣服を着る形状制御可能な仮想トライオンネットワーク(SC-VTON)を提案する。
SC-VTONは、モデルと衣服の情報を統合し、歪んだ衣服画像を生成する。
本手法は, 詳細なテクスチャで高分解能な結果が得られる。
論文 参考訳(メタデータ) (2021-07-28T04:01:01Z) - Cloth Interactive Transformer for Virtual Try-On [106.21605249649957]
本稿では,仮想試行作業のための2段階のインタラクティブトランス (CIT) 手法を提案する。
第1段階では, CITマッチングブロックを設計し, 着物非依存者情報と着物内布情報との長距離相関関係を正確に把握することを目的とした。
第2段階では,人物表現のグローバルな相互相互依存関係を確立するためのCIT推論ブロック,整形衣料品,およびそれに対応する整形布マスクを作成した。
論文 参考訳(メタデータ) (2021-04-12T14:45:32Z) - Deep Fashion3D: A Dataset and Benchmark for 3D Garment Reconstruction
from Single Images [50.34202789543989]
Deep Fashion3Dは、これまでで最大の3D衣料品のコレクションだ。
3D機能ライン、3Dボディポーズ、対応するマルチビューリアルイメージなど、リッチなアノテーションを提供する。
一つのネットワークであらゆる種類の衣服を学習できる新しい適応型テンプレートが提案されている。
論文 参考訳(メタデータ) (2020-03-28T09:20:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。