論文の概要: Dress Code: High-Resolution Multi-Category Virtual Try-On
- arxiv url: http://arxiv.org/abs/2204.08532v1
- Date: Mon, 18 Apr 2022 19:31:49 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-20 13:29:38.557773
- Title: Dress Code: High-Resolution Multi-Category Virtual Try-On
- Title(参考訳): ドレスコード:高解像度マルチカテゴリ仮想トライオン
- Authors: Davide Morelli, Matteo Fincato, Marcella Cornia, Federico Landi, Fabio
Cesari, Rita Cucchiara
- Abstract要約: Dress Codeは、イメージベースの仮想試行用データセットよりも3倍大きい。
我々は,画像レベルやパッチレベルではなく,ピクセルレベルでの予測を行うセマンティック・アウェア・ディスクリミネータを活用する。
- 参考スコア(独自算出の注目度): 30.166151802234555
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image-based virtual try-on strives to transfer the appearance of a clothing
item onto the image of a target person. Prior work focuses mainly on upper-body
clothes (e.g. t-shirts, shirts, and tops) and neglects full-body or lower-body
items. This shortcoming arises from a main factor: current publicly available
datasets for image-based virtual try-on do not account for this variety, thus
limiting progress in the field. To address this deficiency, we introduce Dress
Code, which contains images of multi-category clothes. Dress Code is more than
3x larger than publicly available datasets for image-based virtual try-on and
features high-resolution paired images (1024 x 768) with front-view, full-body
reference models. To generate HD try-on images with high visual quality and
rich in details, we propose to learn fine-grained discriminating features.
Specifically, we leverage a semantic-aware discriminator that makes predictions
at pixel-level instead of image- or patch-level. Extensive experimental
evaluation demonstrates that the proposed approach surpasses the baselines and
state-of-the-art competitors in terms of visual quality and quantitative
results. The Dress Code dataset is publicly available at
https://github.com/aimagelab/dress-code.
- Abstract(参考訳): イメージベースの仮想試行は、衣料品の外観を対象者のイメージに転送する試みである。
先行研究は主に上半身の服(tシャツ、シャツ、トップスなど)に重点を置いており、全身または下半身のアイテムを無視している。
イメージベースの仮想トライオン用の現在公開されているデータセットは、この多様性を考慮せず、フィールドの進歩を制限している。
この不足に対処するために,複数カテゴリの服の画像を含むドレスコードを導入する。
Dress Codeは、イメージベースの仮想試行用データセットよりも3倍大きく、フロントビューとフルボディ参照モデルを備えた高解像度のペアイメージ(1024 x 768)を備えている。
高画質で精細度に富んだhdトライオン画像を生成するために,細かな粒度の識別機能を学ぶことを提案する。
具体的には,イメージレベルやパッチレベルではなく,ピクセルレベルでの予測を行う意味認識判別器を活用する。
広汎な実験的評価は,提案手法が視覚的品質と定量的な結果の点で,ベースラインや最先端の競合に勝っていることを示している。
Dress Codeデータセットはhttps://github.com/aimagelab/dress-code.comで公開されている。
関連論文リスト
- Better Fit: Accommodate Variations in Clothing Types for Virtual Try-on [25.550019373321653]
画像ベースの仮想試着は、ターゲットとなる服を着替えたモデル画像に転送することを目的としている。
トレーニングマスクを動的に調整する適応型マスクトレーニングパラダイムを提案する。
未ペアの試行検証のために、総合的なクロストライオンベンチマークを構築した。
論文 参考訳(メタデータ) (2024-03-13T12:07:14Z) - Improving Diffusion Models for Virtual Try-on [57.893391816847405]
衣服の忠実度を改善し,仮想試行画像を生成する新しい拡散モデルを提案する。
IDM-VTONと呼ばれる本手法は,2つの異なるモジュールを用いて衣料画像の意味を符号化する。
本稿では,一対の人着画像を用いたカスタマイズ手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T08:12:18Z) - StableVITON: Learning Semantic Correspondence with Latent Diffusion
Model for Virtual Try-On [35.227896906556026]
衣服画像と人物画像が与えられた場合、画像ベースの仮想試行は、衣服画像の特徴を自然に正確に反映した、カスタマイズされた画像を生成することを目的としている。
本研究では,事前学習した拡散モデルの適用性を拡張し,仮想試行作業に独立して利用できるようにすることを目的とする。
提案するゼロ・クロスアテンションブロックは, 意味的対応を学習することで衣服の細部を保存できるだけでなく, ワープ過程における事前学習モデル固有の知識を利用して高忠実度画像を生成する。
論文 参考訳(メタデータ) (2023-12-04T08:27:59Z) - Clothes-Changing Person Re-identification with RGB Modality Only [102.44387094119165]
衣料無関係な特徴を元のRGB画像から抽出するために,CAL(Corthes-based Adrial Loss)を提案する。
ビデオには、よりリッチな外観と、適切な時間的パターンをモデル化するために使用できる追加の時間的情報が含まれている。
論文 参考訳(メタデータ) (2022-04-14T11:38:28Z) - Weakly Supervised High-Fidelity Clothing Model Generation [67.32235668920192]
本稿では,このシナリオに対応するために,DGP (Deep Generative Projection) と呼ばれる安価でスケーラブルな弱教師付き手法を提案する。
衣服と身体の粗いアライメントをStyleGAN空間に投影することで、フォトリアリスティックな着用結果が得られることを示す。
論文 参考訳(メタデータ) (2021-12-14T07:15:15Z) - Arbitrary Virtual Try-On Network: Characteristics Preservation and
Trade-off between Body and Clothing [85.74977256940855]
本報告では,オールタイプの衣料品を対象としたArbitrary Virtual Try-On Network (AVTON)を提案する。
AVTONは、ターゲット服と参照者の特性を保存・交換することで、現実的な試行画像を合成することができる。
提案手法は,最先端の仮想試行法と比較して性能が向上する。
論文 参考訳(メタデータ) (2021-11-24T08:59:56Z) - Shape Controllable Virtual Try-on for Underwear Models [0.0]
そこで我々は,下着モデル用の衣服を着る形状制御可能な仮想トライオンネットワーク(SC-VTON)を提案する。
SC-VTONは、モデルと衣服の情報を統合し、歪んだ衣服画像を生成する。
本手法は, 詳細なテクスチャで高分解能な結果が得られる。
論文 参考訳(メタデータ) (2021-07-28T04:01:01Z) - Toward Accurate and Realistic Outfits Visualization with Attention to
Details [10.655149697873716]
商用アプリケーションに必要な重要な視覚的詳細を捉えるために,アウトフィット・ビジュアライゼーション・ネットを提案する。
OVNetは,1)意味的レイアウト生成器と2)複数の協調ワープを用いた画像生成パイプラインから構成される。
この手法を利用した対話型インターフェースは,ファッションeコマースのウェブサイトに展開され,圧倒的に肯定的なフィードバックを受けている。
論文 参考訳(メタデータ) (2021-06-11T19:53:34Z) - VITON-HD: High-Resolution Virtual Try-On via Misalignment-Aware
Normalization [18.347532903864597]
仮想試行画像1024x768の合成に成功したVITON-HDという新しい仮想試行法を提案する。
本研究では,VITON-HDが質的にも量的にも合成画質のベースラインを超越していることを示した。
論文 参考訳(メタデータ) (2021-03-31T07:52:41Z) - Apparel-invariant Feature Learning for Apparel-changed Person
Re-identification [70.16040194572406]
ほとんどのパブリックなReIDデータセットは、人の外観がほとんど変化しない短時間のウィンドウで収集される。
ショッピングモールのような現実世界の応用では、同じ人の服装が変化し、異なる人が同様の服を着ることがある。
着替えなどの場合や、類似の服を着ている場合などにおいて、アパレル不変の人物表現を学ぶことは極めて重要である。
論文 参考訳(メタデータ) (2020-08-14T03:49:14Z) - Towards Photo-Realistic Virtual Try-On by Adaptively
Generating$\leftrightarrow$Preserving Image Content [85.24260811659094]
本稿では,適応コンテンツ生成・保存ネットワーク(ACGPN)という新しいビジュアル・トライオン・ネットワークを提案する。
ACGPNはまず、試行錯誤後に変更される参照画像のセマンティックレイアウトを予測する。
第二に、服のワープモジュールは、生成されたセマンティックレイアウトに従って衣服の画像をワープする。
第3に、コンテンツ融合のための塗装モジュールは、すべての情報(例えば、参照画像、セマンティックレイアウト、歪んだ衣服)を統合して、人間の身体の各意味部分を適応的に生成する。
論文 参考訳(メタデータ) (2020-03-12T15:55:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。