論文の概要: WG-VITON: Wearing-Guide Virtual Try-On for Top and Bottom Clothes
- arxiv url: http://arxiv.org/abs/2205.04759v1
- Date: Tue, 10 May 2022 09:09:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-12 18:45:18.332406
- Title: WG-VITON: Wearing-Guide Virtual Try-On for Top and Bottom Clothes
- Title(参考訳): WG-VITON:トップ・ボトムの仮想試着
- Authors: Soonchan Park, Jinah Park
- Abstract要約: 本稿では,WG-VITON(Wearing-Guide VITON,WG-VITON)を導入する。
実験の結果、WG-VITONは、与えられた上着と下着を装着したモデルのイメージを効果的に生成し、上着と下着に部分的にタッキングするといった複雑な着用スタイルを生成することがわかった。
- 参考スコア(独自算出の注目度): 1.9290392443571387
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Studies of virtual try-on (VITON) have been shown their effectiveness in
utilizing the generative neural network for virtually exploring fashion
products, and some of recent researches of VITON attempted to synthesize human
image wearing given multiple types of garments (e.g., top and bottom clothes).
However, when replacing the top and bottom clothes of the target human,
numerous wearing styles are possible with a certain combination of the clothes.
In this paper, we address the problem of variation in wearing style when
simultaneously replacing the top and bottom clothes of the model. We introduce
Wearing-Guide VITON (i.e., WG-VITON) which utilizes an additional input binary
mask to control the wearing styles of the generated image. Our experiments show
that WG-VITON effectively generates an image of the model wearing given top and
bottom clothes, and create complicated wearing styles such as partly tucking in
the top to the bottom
- Abstract(参考訳): 仮想トライオン(viton)の研究は、生成ニューラルネットワーク(generative neural network)を用いたファッション製品を仮想的に探索する効果が示されており、vitonの最近の研究は、複数の種類の衣服(例えば上着と下着)を身に着けて人間のイメージを合成しようと試みている。
しかし、対象の人間の上着と下着を交換する場合、服の特定の組み合わせで多数の着用スタイルが可能となる。
本稿では,モデルの上着と下着を同時に交換する際の着用スタイルの変化の問題に対処する。
本稿では,新たに入力された2値マスクを用いて生成画像の着付けスタイルを制御する,着付け案内ビトン(すなわちwgビトン)を紹介する。
実験の結果,wg-vitonは上着と下着を併用したモデルのイメージを効果的に生成し,上着と下着を併用するなどの複雑な着付けスタイルを創り出すことができた。
関連論文リスト
- Better Fit: Accommodate Variations in Clothing Types for Virtual Try-on [25.550019373321653]
画像ベースの仮想試着は、ターゲットとなる服を着替えたモデル画像に転送することを目的としている。
トレーニングマスクを動的に調整する適応型マスクトレーニングパラダイムを提案する。
未ペアの試行検証のために、総合的なクロストライオンベンチマークを構築した。
論文 参考訳(メタデータ) (2024-03-13T12:07:14Z) - Towards Squeezing-Averse Virtual Try-On via Sequential Deformation [18.224181158316057]
本稿では,最近の高分解能仮想試行法で観測された視覚的品質劣化問題について検討する。
問題の主な原因は、2つの一般的な損失であるトータル・バラツキ(TV)と敵の損失の間の勾配の衝突である。
出現フロー予測層をテレビの主観的な層とタスク共存層に分離する逐次変形(SD-VITON)を提案する。
論文 参考訳(メタデータ) (2023-12-26T03:02:01Z) - Learning Garment DensePose for Robust Warping in Virtual Try-On [72.13052519560462]
そこで我々は,学習したDensePoseに基づく仮想試行のための頑健なワープ手法を提案する。
提案手法は,仮想試行ベンチマークにおける最先端の等価性を実現する。
論文 参考訳(メタデータ) (2023-03-30T20:02:29Z) - Dressing in the Wild by Watching Dance Videos [69.7692630502019]
本稿では,現実の場面における仮想試行に参画し,現実性と自然性の向上をもたらす。
我々は,衣服の移動をより効果的に進める,wFlowと呼ばれる新しい生成ネットワークを提案する。
論文 参考訳(メタデータ) (2022-03-29T08:05:45Z) - Weakly Supervised High-Fidelity Clothing Model Generation [67.32235668920192]
本稿では,このシナリオに対応するために,DGP (Deep Generative Projection) と呼ばれる安価でスケーラブルな弱教師付き手法を提案する。
衣服と身体の粗いアライメントをStyleGAN空間に投影することで、フォトリアリスティックな着用結果が得られることを示す。
論文 参考訳(メタデータ) (2021-12-14T07:15:15Z) - Arbitrary Virtual Try-On Network: Characteristics Preservation and
Trade-off between Body and Clothing [85.74977256940855]
本報告では,オールタイプの衣料品を対象としたArbitrary Virtual Try-On Network (AVTON)を提案する。
AVTONは、ターゲット服と参照者の特性を保存・交換することで、現実的な試行画像を合成することができる。
提案手法は,最先端の仮想試行法と比較して性能が向上する。
論文 参考訳(メタデータ) (2021-11-24T08:59:56Z) - Data Augmentation using Random Image Cropping for High-resolution
Virtual Try-On (VITON-CROP) [18.347532903864597]
VITON-CROPは、既存の最先端仮想試行モデルと比較して、ランダムな作物増収と統合した場合、画像をより堅牢に合成する。
実験では,VITON-CROPがVITON-HDより質的,定量的に優れていることを示した。
論文 参考訳(メタデータ) (2021-11-16T07:40:16Z) - Apparel-invariant Feature Learning for Apparel-changed Person
Re-identification [70.16040194572406]
ほとんどのパブリックなReIDデータセットは、人の外観がほとんど変化しない短時間のウィンドウで収集される。
ショッピングモールのような現実世界の応用では、同じ人の服装が変化し、異なる人が同様の服を着ることがある。
着替えなどの場合や、類似の服を着ている場合などにおいて、アパレル不変の人物表現を学ぶことは極めて重要である。
論文 参考訳(メタデータ) (2020-08-14T03:49:14Z) - LGVTON: A Landmark Guided Approach to Virtual Try-On [4.617329011921226]
人物とモデルという2人のイメージから、モデルの服を着ている人の再考を生成する。
これは、ほとんどのeコマースウェブサイトでは、服のみのイメージが通常利用できないという事実を考えると便利である。
論文 参考訳(メタデータ) (2020-04-01T16:49:57Z) - Deep Fashion3D: A Dataset and Benchmark for 3D Garment Reconstruction
from Single Images [50.34202789543989]
Deep Fashion3Dは、これまでで最大の3D衣料品のコレクションだ。
3D機能ライン、3Dボディポーズ、対応するマルチビューリアルイメージなど、リッチなアノテーションを提供する。
一つのネットワークであらゆる種類の衣服を学習できる新しい適応型テンプレートが提案されている。
論文 参考訳(メタデータ) (2020-03-28T09:20:04Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。