論文の概要: Better Fit: Accommodate Variations in Clothing Types for Virtual Try-on
- arxiv url: http://arxiv.org/abs/2403.08453v1
- Date: Wed, 13 Mar 2024 12:07:14 GMT
- ステータス: 処理完了
- システム内更新日: 2024-03-14 14:43:42.866387
- Title: Better Fit: Accommodate Variations in Clothing Types for Virtual Try-on
- Title(参考訳): Better Fit: 仮想試着における衣服の種類の変化
- Authors: Xuanpu Zhang and Dan Song and Pengxin Zhan and Qingguo Chen and
Kuilong Liu and Anan Liu
- Abstract要約: 画像ベースの仮想試着は、ターゲットとなる服を着替えたモデル画像に転送することを目的としている。
トレーニングマスクを動的に調整する適応型マスクトレーニングパラダイムを提案する。
未ペアの試行検証のために、総合的なクロストライオンベンチマークを構築した。
- 参考スコア(独自算出の注目度): 25.550019373321653
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image-based virtual try-on aims to transfer target in-shop clothing to a
dressed model image, the objectives of which are totally taking off original
clothing while preserving the contents outside of the try-on area, naturally
wearing target clothing and correctly inpainting the gap between target
clothing and original clothing. Tremendous efforts have been made to facilitate
this popular research area, but cannot keep the type of target clothing with
the try-on area affected by original clothing. In this paper, we focus on the
unpaired virtual try-on situation where target clothing and original clothing
on the model are different, i.e., the practical scenario. To break the
correlation between the try-on area and the original clothing and make the
model learn the correct information to inpaint, we propose an adaptive mask
training paradigm that dynamically adjusts training masks. It not only improves
the alignment and fit of clothing but also significantly enhances the fidelity
of virtual try-on experience. Furthermore, we for the first time propose two
metrics for unpaired try-on evaluation, the Semantic-Densepose-Ratio (SDR) and
Skeleton-LPIPS (S-LPIPS), to evaluate the correctness of clothing type and the
accuracy of clothing texture. For unpaired try-on validation, we construct a
comprehensive cross-try-on benchmark (Cross-27) with distinctive clothing items
and model physiques, covering a broad try-on scenarios. Experiments demonstrate
the effectiveness of the proposed methods, contributing to the advancement of
virtual try-on technology and offering new insights and tools for future
research in the field. The code, model and benchmark will be publicly released.
- Abstract(参考訳): 画像ベースの仮想試着は、ターゲットの衣服を着替えたモデル画像に転送することを目的としており、その目的は、試着エリアの外のコンテンツを保存しつつ、ターゲットの服を自然に着、ターゲットの服とオリジナルの服のギャップを正しく塗ることである。
このポピュラーな研究エリアを促進するために、厳重な努力がなされてきたが、原着による試着エリアによる対象服の種類を維持することはできない。
本稿では,対象の衣服や原着が異なる仮想試着環境,すなわち実用シナリオに着目した。
試着領域と衣料品の相関関係を破り,適切な情報を塗り替えて学習させるため,トレーニングマスクを動的に調整する適応型マスクトレーニングパラダイムを提案する。
服のアライメントとフィット性を向上するだけでなく、バーチャルな試着体験の忠実度を大幅に向上させる。
さらに,スケレトンLPIPS (S-LPIPS) とセマンティックDensepose-Ratio (SDR) の2つの評価指標を初めて提案し,衣服の正しさと衣服のテクスチャの精度を評価する。
試行錯誤の検証を行うため,クロストライオンベンチマーク(Cross-27)を構築した。
提案手法の有効性を実証し,バーチャルトライオン技術の進歩に寄与し,今後の研究に新たな洞察とツールを提供する。
コード、モデル、ベンチマークが公開される。
関連論文リスト
- PocoLoco: A Point Cloud Diffusion Model of Human Shape in Loose Clothing [97.83361232792214]
PocoLocoは、ゆるい服を着た3D人間のための、テンプレートのない、ポイントベースの、ポーズ条件付き生成モデルである。
本研究では,アバター服の変形をデノナイズ拡散フレームワーク内の条件付き点雲生成タスクとして定式化する。
ゆるい服装でさまざまなポーズをとる2人の被験者のデータセットを、合計75K点の雲で公開する。
論文 参考訳(メタデータ) (2024-11-06T20:42:13Z) - MV-VTON: Multi-View Virtual Try-On with Diffusion Models [91.71150387151042]
画像ベースの仮想試着の目的は、与えられた衣服を自然に身に着けている対象者の画像を生成することである。
既存の方法は、前頭服を用いた正面試着のみに焦点をあてる方法である。
本稿では,服の複数ビューからドレッシング結果を再構築することを目的としたMulti-View Virtual Try-ON(MV-VTON)を紹介する。
論文 参考訳(メタデータ) (2024-04-26T12:27:57Z) - StableVITON: Learning Semantic Correspondence with Latent Diffusion
Model for Virtual Try-On [35.227896906556026]
衣服画像と人物画像が与えられた場合、画像ベースの仮想試行は、衣服画像の特徴を自然に正確に反映した、カスタマイズされた画像を生成することを目的としている。
本研究では,事前学習した拡散モデルの適用性を拡張し,仮想試行作業に独立して利用できるようにすることを目的とする。
提案するゼロ・クロスアテンションブロックは, 意味的対応を学習することで衣服の細部を保存できるだけでなく, ワープ過程における事前学習モデル固有の知識を利用して高忠実度画像を生成する。
論文 参考訳(メタデータ) (2023-12-04T08:27:59Z) - ClothFit: Cloth-Human-Attribute Guided Virtual Try-On Network Using 3D
Simulated Dataset [5.260305201345232]
そこで我々はClosFitと呼ばれる新しい仮想試行法を提案する。
被服の実際の大きさと人的属性に基づいて、被服の被服体上のドレーピング形状を予測することができる。
実験結果から,ClosFitはフォトリアリスティックな仮想試行実験において,既存の最先端手法を大幅に改善できることが示された。
論文 参考訳(メタデータ) (2023-06-24T08:57:36Z) - Learning Garment DensePose for Robust Warping in Virtual Try-On [72.13052519560462]
そこで我々は,学習したDensePoseに基づく仮想試行のための頑健なワープ手法を提案する。
提案手法は,仮想試行ベンチマークにおける最先端の等価性を実現する。
論文 参考訳(メタデータ) (2023-03-30T20:02:29Z) - Fill in Fabrics: Body-Aware Self-Supervised Inpainting for Image-Based
Virtual Try-On [3.5698678013121334]
本稿では,FabricatorとSegmenter,Warper,Fuserから構成される自己教師型条件生成対向ネットワークベースのフレームワークを提案する。
布地は、仮装服を入力として設けたときに衣服イメージを再構築し、布地を充填して衣服の全体構造を学習する。
その後、仮想トライオンパイプラインは、学習した表現をFabricatorからWarperに転送して、ターゲットの服をワープして洗練させることでトレーニングされる。
論文 参考訳(メタデータ) (2022-10-03T13:25:31Z) - Arbitrary Virtual Try-On Network: Characteristics Preservation and
Trade-off between Body and Clothing [85.74977256940855]
本報告では,オールタイプの衣料品を対象としたArbitrary Virtual Try-On Network (AVTON)を提案する。
AVTONは、ターゲット服と参照者の特性を保存・交換することで、現実的な試行画像を合成することができる。
提案手法は,最先端の仮想試行法と比較して性能が向上する。
論文 参考訳(メタデータ) (2021-11-24T08:59:56Z) - Shape Controllable Virtual Try-on for Underwear Models [0.0]
そこで我々は,下着モデル用の衣服を着る形状制御可能な仮想トライオンネットワーク(SC-VTON)を提案する。
SC-VTONは、モデルと衣服の情報を統合し、歪んだ衣服画像を生成する。
本手法は, 詳細なテクスチャで高分解能な結果が得られる。
論文 参考訳(メタデータ) (2021-07-28T04:01:01Z) - Cloth Interactive Transformer for Virtual Try-On [106.21605249649957]
本稿では,仮想試行作業のための2段階のインタラクティブトランス (CIT) 手法を提案する。
第1段階では, CITマッチングブロックを設計し, 着物非依存者情報と着物内布情報との長距離相関関係を正確に把握することを目的とした。
第2段階では,人物表現のグローバルな相互相互依存関係を確立するためのCIT推論ブロック,整形衣料品,およびそれに対応する整形布マスクを作成した。
論文 参考訳(メタデータ) (2021-04-12T14:45:32Z) - Neural 3D Clothes Retargeting from a Single Image [91.5030622330039]
本稿では,1枚のRGB画像で人物にフィットする3次元衣料テンプレートモデルの潜在的なポーズと変形を生成する方法を提案する。
この問題は、地上の真実データを取得することは不可能である、すなわち、異なる3D衣料品テンプレートモデルを全く同じポーズで身に着けている人々の画像として、基本的には不適切である。
そこで本研究では,3次元変形の物理的妥当性を検証するための半教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-29T20:50:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。