論文の概要: Disentangled Cycle Consistency for Highly-realistic Virtual Try-On
- arxiv url: http://arxiv.org/abs/2103.09479v2
- Date: Fri, 19 Mar 2021 08:08:17 GMT
- ステータス: 処理完了
- システム内更新日: 2021-03-22 12:21:45.879198
- Title: Disentangled Cycle Consistency for Highly-realistic Virtual Try-On
- Title(参考訳): 高現実性仮想トライオンにおける絡み合ったサイクル一貫性
- Authors: Chongjian Ge, Yibing Song, Yuying Ge, Han Yang, Wei Liu and Ping Luo
- Abstract要約: Image Virtual try-onは、人画像上の服を、希望する着物画像に置き換える。
既存の方法は、仮想トライオンをインペインティングまたはサイクル整合性として定式化する。
DCTON(Disentangled Cycle-consistency Try-On Network)の提案
- 参考スコア(独自算出の注目度): 34.97658860425598
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Image virtual try-on replaces the clothes on a person image with a desired
in-shop clothes image. It is challenging because the person and the in-shop
clothes are unpaired. Existing methods formulate virtual try-on as either
in-painting or cycle consistency. Both of these two formulations encourage the
generation networks to reconstruct the input image in a self-supervised manner.
However, existing methods do not differentiate clothing and non-clothing
regions. A straight-forward generation impedes virtual try-on quality because
of the heavily coupled image contents. In this paper, we propose a Disentangled
Cycle-consistency Try-On Network (DCTON). The DCTON is able to produce
highly-realistic try-on images by disentangling important components of virtual
try-on including clothes warping, skin synthesis, and image composition. To
this end, DCTON can be naturally trained in a self-supervised manner following
cycle consistency learning. Extensive experiments on challenging benchmarks
show that DCTON outperforms state-of-the-art approaches favorably.
- Abstract(参考訳): Image Virtual try-onは、人画像上の服を、希望する着物画像に置き換える。
人とショップ内服がペアリングされていないため、難しいです。
既存の方法は、仮想トライオンをインペイントまたはサイクル一貫性として定式化する。
これら2つの定式化は、世代ネットワークが自己監督的な方法で入力画像を再構築することを奨励する。
しかし、既存の方法は衣服や非着用地域を区別しない。
ストレートフォワード生成は、画像内容が重結合しているため、仮想試行品質を損なう。
本稿では,DCTON(Disentangled Cycle-Consistency Try-On Network)を提案する。
DCTONは、衣服のワープ、皮膚合成、画像合成を含む仮想トライオンの重要なコンポーネントをアンサングルすることで、高現実的な試行画像を生成することができる。
この目的のために、DCTONはサイクル整合学習の後、自然に自己指導的に訓練することができる。
挑戦的なベンチマークに関する大規模な実験は、DCTONが最先端のアプローチより優れていることを示している。
関連論文リスト
- OutfitAnyone: Ultra-high Quality Virtual Try-On for Any Clothing and Any Person [38.69239957207417]
OutfitAnyoneは、バーチャル衣料品のトライアルのために、高忠実でディテールに一貫性のある画像を生成する。
ポーズ、ボディシェイプ、広範囲な適用性など、スケーラビリティを規定する要因を自分自身と区別する。
さまざまなシナリオにおけるOutfitAnyoneのパフォーマンスは、実世界のデプロイに対する実用性と準備性を示している。
論文 参考訳(メタデータ) (2024-07-23T07:04:42Z) - Improving Diffusion Models for Virtual Try-on [53.96244595495942]
本稿では,キュレートされた衣服を身に着けている人のイメージをレンダリングする,イメージベースの仮想試行について考察する。
衣服の忠実度を改善し,仮想試行画像を生成する新しい拡散モデルを提案する。
本稿では,一対の人着画像を用いたカスタマイズ手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T08:12:18Z) - DI-Net : Decomposed Implicit Garment Transfer Network for Digital
Clothed 3D Human [75.45488434002898]
既存の2D仮想試行法は、各ピクセルの深さを知覚できないため、直接3Dに拡張することはできない。
本稿では,新たに試みられた3次元メッシュをシームレスに再構築可能な,分解型インプリシト衣服転送ネットワーク(DI-Net)を提案する。
論文 参考訳(メタデータ) (2023-11-28T14:28:41Z) - Street TryOn: Learning In-the-Wild Virtual Try-On from Unpaired Person Images [14.616371216662227]
仮想トライオンアプリケーションをサポートするためのStreetTryOnベンチマークを導入する。
また,一対のデータを必要とせず,一対の人物画像から直接仮想試行を学習する手法を提案する。
論文 参考訳(メタデータ) (2023-11-27T18:59:02Z) - OccluMix: Towards De-Occlusion Virtual Try-on by Semantically-Guided
Mixup [79.3118064406151]
Image Virtual try-onは、個人画像上の布を衣服画像(ホップ内服)に置き換えることを目的としている。
以前の方法では, 衣服のイメージの保存に成功していた。
隠蔽は、現実的なバーチャル試行に悪影響を及ぼす。
論文 参考訳(メタデータ) (2023-01-03T06:29:11Z) - Arbitrary Virtual Try-On Network: Characteristics Preservation and
Trade-off between Body and Clothing [85.74977256940855]
本報告では,オールタイプの衣料品を対象としたArbitrary Virtual Try-On Network (AVTON)を提案する。
AVTONは、ターゲット服と参照者の特性を保存・交換することで、現実的な試行画像を合成することができる。
提案手法は,最先端の仮想試行法と比較して性能が向上する。
論文 参考訳(メタデータ) (2021-11-24T08:59:56Z) - Data Augmentation using Random Image Cropping for High-resolution
Virtual Try-On (VITON-CROP) [18.347532903864597]
VITON-CROPは、既存の最先端仮想試行モデルと比較して、ランダムな作物増収と統合した場合、画像をより堅牢に合成する。
実験では,VITON-CROPがVITON-HDより質的,定量的に優れていることを示した。
論文 参考訳(メタデータ) (2021-11-16T07:40:16Z) - Cloth Interactive Transformer for Virtual Try-On [106.21605249649957]
本稿では,仮想試行作業のための2段階のインタラクティブトランス (CIT) 手法を提案する。
第1段階では, CITマッチングブロックを設計し, 着物非依存者情報と着物内布情報との長距離相関関係を正確に把握することを目的とした。
第2段階では,人物表現のグローバルな相互相互依存関係を確立するためのCIT推論ブロック,整形衣料品,およびそれに対応する整形布マスクを作成した。
論文 参考訳(メタデータ) (2021-04-12T14:45:32Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。