論文の概要: A Two-stage Personalized Virtual Try-on Framework with Shape Control and
Texture Guidance
- arxiv url: http://arxiv.org/abs/2312.15480v1
- Date: Sun, 24 Dec 2023 13:32:55 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-27 17:50:23.362479
- Title: A Two-stage Personalized Virtual Try-on Framework with Shape Control and
Texture Guidance
- Title(参考訳): 形状制御とテクスチャガイダンスを備えた2段階仮想試行フレームワーク
- Authors: Shufang Zhang, Minxue Ni, Lei Wang, Wenxin Ding, Shuai Chen, Yuhong
Liu
- Abstract要約: 本稿では,2段階(形状制御とテクスチャガイダンス)を用いて衣服属性を分離する,新しい仮想試行モデル(PE-VITON)を提案する。
提案モデルでは, 衣服の折り畳みの弱さ, 複雑な姿勢下での創出効果の低下, 衣服のぼやけた縁, 従来の試行法では不明瞭なテクスチャスタイルを効果的に解決することができる。
- 参考スコア(独自算出の注目度): 7.302929117437442
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: The Diffusion model has a strong ability to generate wild images. However,
the model can just generate inaccurate images with the guidance of text, which
makes it very challenging to directly apply the text-guided generative model
for virtual try-on scenarios. Taking images as guiding conditions of the
diffusion model, this paper proposes a brand new personalized virtual try-on
model (PE-VITON), which uses the two stages (shape control and texture
guidance) to decouple the clothing attributes. Specifically, the proposed model
adaptively matches the clothing to human body parts through the Shape Control
Module (SCM) to mitigate the misalignment of the clothing and the human body
parts. The semantic information of the input clothing is parsed by the Texture
Guided Module (TGM), and the corresponding texture is generated by directional
guidance. Therefore, this model can effectively solve the problems of weak
reduction of clothing folds, poor generation effect under complex human
posture, blurred edges of clothing, and unclear texture styles in traditional
try-on methods. Meanwhile, the model can automatically enhance the generated
clothing folds and textures according to the human posture, and improve the
authenticity of virtual try-on. In this paper, qualitative and quantitative
experiments are carried out on high-resolution paired and unpaired datasets,
the results show that the proposed model outperforms the state-of-the-art
model.
- Abstract(参考訳): 拡散モデルは、野生の画像を生成できる強力な能力を持つ。
しかし、このモデルはテキストの誘導によって不正確な画像を生成できるため、仮想試行シナリオにテキスト誘導生成モデルを直接適用することは極めて困難である。
そこで本研究では,2つの段階(形状制御とテクスチャガイダンス)を用いて衣料品属性を分離する,新しい仮想試行モデル(PE-VITON)を提案する。
具体的には、形状制御モジュール(scm)を介して衣服と人体部品とを適応的に一致させ、衣服と人体部品の誤認を緩和する。
入力された衣服の意味情報をテクスチャガイドモジュール(TGM)で解析し、そのテクスチャを方向案内により生成する。
そこで本モデルでは, 衣服の折り畳みの弱さ, 複雑な姿勢下における生成効果の低下, 衣服のぼやけた縁, 従来の試着方法の不明瞭なテクスチャスタイルを効果的に解決することができる。
また,人間の姿勢に応じて衣服の折り畳みやテクスチャを自動的に強化し,仮想試着の信頼性を向上させる。
本稿では,高分解能なペアとアンペアのデータセットに対して定性的かつ定量的な実験を行い,提案モデルが最先端モデルより優れていることを示す。
関連論文リスト
- Texture-Preserving Diffusion Models for High-Fidelity Virtual Try-On [29.217423805933727]
拡散モデルに基づくアプローチは,画像合成タスクに優れており,近年普及している。
本稿では,仮想試行のためのテクスチャ保存拡散(TPD)モデルを提案する。
第2に,被写体と参照衣料画像に基づいて,正確な塗布マスクを推定する拡散に基づく新しい手法を提案する。
論文 参考訳(メタデータ) (2024-04-01T12:43:22Z) - Improving Diffusion Models for Virtual Try-on [53.96244595495942]
本稿では,キュレートされた衣服を身に着けている人のイメージをレンダリングする,イメージベースの仮想試行について考察する。
衣服の忠実度を改善し,仮想試行画像を生成する新しい拡散モデルを提案する。
本稿では,一対の人着画像を用いたカスタマイズ手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T08:12:18Z) - StableVITON: Learning Semantic Correspondence with Latent Diffusion
Model for Virtual Try-On [35.227896906556026]
衣服画像と人物画像が与えられた場合、画像ベースの仮想試行は、衣服画像の特徴を自然に正確に反映した、カスタマイズされた画像を生成することを目的としている。
本研究では,事前学習した拡散モデルの適用性を拡張し,仮想試行作業に独立して利用できるようにすることを目的とする。
提案するゼロ・クロスアテンションブロックは, 意味的対応を学習することで衣服の細部を保存できるだけでなく, ワープ過程における事前学習モデル固有の知識を利用して高忠実度画像を生成する。
論文 参考訳(メタデータ) (2023-12-04T08:27:59Z) - Person Image Synthesis via Denoising Diffusion Model [116.34633988927429]
本研究では,高忠実度人物画像合成に拡散モデルをいかに応用できるかを示す。
2つの大規模ベンチマークとユーザスタディの結果は、挑戦的なシナリオ下で提案したアプローチのフォトリアリズムを実証している。
論文 参考訳(メタデータ) (2022-11-22T18:59:50Z) - Weakly Supervised High-Fidelity Clothing Model Generation [67.32235668920192]
本稿では,このシナリオに対応するために,DGP (Deep Generative Projection) と呼ばれる安価でスケーラブルな弱教師付き手法を提案する。
衣服と身体の粗いアライメントをStyleGAN空間に投影することで、フォトリアリスティックな着用結果が得られることを示す。
論文 参考訳(メタデータ) (2021-12-14T07:15:15Z) - Shape Controllable Virtual Try-on for Underwear Models [0.0]
そこで我々は,下着モデル用の衣服を着る形状制御可能な仮想トライオンネットワーク(SC-VTON)を提案する。
SC-VTONは、モデルと衣服の情報を統合し、歪んだ衣服画像を生成する。
本手法は, 詳細なテクスチャで高分解能な結果が得られる。
論文 参考訳(メタデータ) (2021-07-28T04:01:01Z) - Controllable Person Image Synthesis with Spatially-Adaptive Warped
Normalization [72.65828901909708]
制御可能な人物画像生成は、望ましい属性を持つ現実的な人間の画像を作成することを目的としている。
本稿では,学習フロー場とワープ変調パラメータを統合した空間適応型ワープ正規化(SAWN)を提案する。
本稿では,テクスチャ・トランスファータスクの事前学習モデルを洗練するための,新たな自己学習部分置換戦略を提案する。
論文 参考訳(メタデータ) (2021-05-31T07:07:44Z) - PISE: Person Image Synthesis and Editing with Decoupled GAN [64.70360318367943]
人像合成と編集のための新しい二段階生成モデルであるPISEを提案する。
ヒトのポーズ伝達では,まず対象のポーズに合わせた人間のパーシングマップを合成し,衣服の形状を表現する。
衣服の形状とスタイルを分離するため,地域ごとの符号化と正規化を共同で提案する。
論文 参考訳(メタデータ) (2021-03-06T04:32:06Z) - Neural 3D Clothes Retargeting from a Single Image [91.5030622330039]
本稿では,1枚のRGB画像で人物にフィットする3次元衣料テンプレートモデルの潜在的なポーズと変形を生成する方法を提案する。
この問題は、地上の真実データを取得することは不可能である、すなわち、異なる3D衣料品テンプレートモデルを全く同じポーズで身に着けている人々の画像として、基本的には不適切である。
そこで本研究では,3次元変形の物理的妥当性を検証するための半教師付き学習フレームワークを提案する。
論文 参考訳(メタデータ) (2021-01-29T20:50:34Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。