論文の概要: WG-VITON: Wearing-Guide Virtual Try-On for Top and Bottom Clothes
- arxiv url: http://arxiv.org/abs/2205.04759v1
- Date: Tue, 10 May 2022 09:09:02 GMT
- ステータス: 処理完了
- システム内更新日: 2022-05-12 18:45:18.332406
- Title: WG-VITON: Wearing-Guide Virtual Try-On for Top and Bottom Clothes
- Title(参考訳): WG-VITON:トップ・ボトムの仮想試着
- Authors: Soonchan Park, Jinah Park
- Abstract要約: 本稿では,WG-VITON(Wearing-Guide VITON,WG-VITON)を導入する。
実験の結果、WG-VITONは、与えられた上着と下着を装着したモデルのイメージを効果的に生成し、上着と下着に部分的にタッキングするといった複雑な着用スタイルを生成することがわかった。
- 参考スコア(独自算出の注目度): 1.9290392443571387
- License: http://creativecommons.org/licenses/by-nc-sa/4.0/
- Abstract: Studies of virtual try-on (VITON) have been shown their effectiveness in
utilizing the generative neural network for virtually exploring fashion
products, and some of recent researches of VITON attempted to synthesize human
image wearing given multiple types of garments (e.g., top and bottom clothes).
However, when replacing the top and bottom clothes of the target human,
numerous wearing styles are possible with a certain combination of the clothes.
In this paper, we address the problem of variation in wearing style when
simultaneously replacing the top and bottom clothes of the model. We introduce
Wearing-Guide VITON (i.e., WG-VITON) which utilizes an additional input binary
mask to control the wearing styles of the generated image. Our experiments show
that WG-VITON effectively generates an image of the model wearing given top and
bottom clothes, and create complicated wearing styles such as partly tucking in
the top to the bottom
- Abstract(参考訳): 仮想トライオン(viton)の研究は、生成ニューラルネットワーク(generative neural network)を用いたファッション製品を仮想的に探索する効果が示されており、vitonの最近の研究は、複数の種類の衣服(例えば上着と下着)を身に着けて人間のイメージを合成しようと試みている。
しかし、対象の人間の上着と下着を交換する場合、服の特定の組み合わせで多数の着用スタイルが可能となる。
本稿では,モデルの上着と下着を同時に交換する際の着用スタイルの変化の問題に対処する。
本稿では,新たに入力された2値マスクを用いて生成画像の着付けスタイルを制御する,着付け案内ビトン(すなわちwgビトン)を紹介する。
実験の結果,wg-vitonは上着と下着を併用したモデルのイメージを効果的に生成し,上着と下着を併用するなどの複雑な着付けスタイルを創り出すことができた。
関連論文リスト
- M&M VTO: Multi-Garment Virtual Try-On and Editing [31.45715245587691]
M&M VTO(M&M VTO)は、複数の衣料品画像、衣服レイアウトのためのテキスト記述、人物のイメージを入力として利用する、ミックス・アンド・マッチ方式の仮想試行法である。
例としては、シャツのイメージ、ズボンのペアの画像、"ローリングスリーブ、シャツの入れ墨"、人物のイメージなどがある。
アウトプットは、その衣服(望ましいレイアウト)が特定の人にどのように見えるかを視覚化するものだ。
論文 参考訳(メタデータ) (2024-06-06T22:46:37Z) - MV-VTON: Multi-View Virtual Try-On with Diffusion Models [91.71150387151042]
画像ベースの仮想試着の目的は、与えられた衣服を自然に身に着けている対象者の画像を生成することである。
既存の方法は、前頭服を用いた正面試着のみに焦点をあてる方法である。
本稿では,服の複数ビューからドレッシング結果を再構築することを目的としたMulti-View Virtual Try-ON(MV-VTON)を紹介する。
論文 参考訳(メタデータ) (2024-04-26T12:27:57Z) - Better Fit: Accommodate Variations in Clothing Types for Virtual Try-on [25.550019373321653]
画像ベースの仮想試着は、ターゲットとなる服を着替えたモデル画像に転送することを目的としている。
トレーニングマスクを動的に調整する適応型マスクトレーニングパラダイムを提案する。
未ペアの試行検証のために、総合的なクロストライオンベンチマークを構築した。
論文 参考訳(メタデータ) (2024-03-13T12:07:14Z) - Learning Garment DensePose for Robust Warping in Virtual Try-On [72.13052519560462]
そこで我々は,学習したDensePoseに基づく仮想試行のための頑健なワープ手法を提案する。
提案手法は,仮想試行ベンチマークにおける最先端の等価性を実現する。
論文 参考訳(メタデータ) (2023-03-30T20:02:29Z) - Dressing in the Wild by Watching Dance Videos [69.7692630502019]
本稿では,現実の場面における仮想試行に参画し,現実性と自然性の向上をもたらす。
我々は,衣服の移動をより効果的に進める,wFlowと呼ばれる新しい生成ネットワークを提案する。
論文 参考訳(メタデータ) (2022-03-29T08:05:45Z) - Weakly Supervised High-Fidelity Clothing Model Generation [67.32235668920192]
本稿では,このシナリオに対応するために,DGP (Deep Generative Projection) と呼ばれる安価でスケーラブルな弱教師付き手法を提案する。
衣服と身体の粗いアライメントをStyleGAN空間に投影することで、フォトリアリスティックな着用結果が得られることを示す。
論文 参考訳(メタデータ) (2021-12-14T07:15:15Z) - Arbitrary Virtual Try-On Network: Characteristics Preservation and
Trade-off between Body and Clothing [85.74977256940855]
本報告では,オールタイプの衣料品を対象としたArbitrary Virtual Try-On Network (AVTON)を提案する。
AVTONは、ターゲット服と参照者の特性を保存・交換することで、現実的な試行画像を合成することができる。
提案手法は,最先端の仮想試行法と比較して性能が向上する。
論文 参考訳(メタデータ) (2021-11-24T08:59:56Z) - Data Augmentation using Random Image Cropping for High-resolution
Virtual Try-On (VITON-CROP) [18.347532903864597]
VITON-CROPは、既存の最先端仮想試行モデルと比較して、ランダムな作物増収と統合した場合、画像をより堅牢に合成する。
実験では,VITON-CROPがVITON-HDより質的,定量的に優れていることを示した。
論文 参考訳(メタデータ) (2021-11-16T07:40:16Z) - Apparel-invariant Feature Learning for Apparel-changed Person
Re-identification [70.16040194572406]
ほとんどのパブリックなReIDデータセットは、人の外観がほとんど変化しない短時間のウィンドウで収集される。
ショッピングモールのような現実世界の応用では、同じ人の服装が変化し、異なる人が同様の服を着ることがある。
着替えなどの場合や、類似の服を着ている場合などにおいて、アパレル不変の人物表現を学ぶことは極めて重要である。
論文 参考訳(メタデータ) (2020-08-14T03:49:14Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。