論文の概要: Towards Photo-Realistic Virtual Try-On by Adaptively
Generating$\leftrightarrow$Preserving Image Content
- arxiv url: http://arxiv.org/abs/2003.05863v1
- Date: Thu, 12 Mar 2020 15:55:39 GMT
- ステータス: 処理完了
- システム内更新日: 2022-12-24 15:53:09.830872
- Title: Towards Photo-Realistic Virtual Try-On by Adaptively
Generating$\leftrightarrow$Preserving Image Content
- Title(参考訳): 画像コンテンツの保存を適応的に行うフォトリアリスティックな仮想トライオン
- Authors: Han Yang, Ruimao Zhang, Xiaobao Guo, Wei Liu, Wangmeng Zuo, Ping Luo
- Abstract要約: 本稿では,適応コンテンツ生成・保存ネットワーク(ACGPN)という新しいビジュアル・トライオン・ネットワークを提案する。
ACGPNはまず、試行錯誤後に変更される参照画像のセマンティックレイアウトを予測する。
第二に、服のワープモジュールは、生成されたセマンティックレイアウトに従って衣服の画像をワープする。
第3に、コンテンツ融合のための塗装モジュールは、すべての情報(例えば、参照画像、セマンティックレイアウト、歪んだ衣服)を統合して、人間の身体の各意味部分を適応的に生成する。
- 参考スコア(独自算出の注目度): 85.24260811659094
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image visual try-on aims at transferring a target clothing image onto a
reference person, and has become a hot topic in recent years. Prior arts
usually focus on preserving the character of a clothing image (e.g. texture,
logo, embroidery) when warping it to arbitrary human pose. However, it remains
a big challenge to generate photo-realistic try-on images when large occlusions
and human poses are presented in the reference person. To address this issue,
we propose a novel visual try-on network, namely Adaptive Content Generating
and Preserving Network (ACGPN). In particular, ACGPN first predicts semantic
layout of the reference image that will be changed after try-on (e.g. long
sleeve shirt$\rightarrow$arm, arm$\rightarrow$jacket), and then determines
whether its image content needs to be generated or preserved according to the
predicted semantic layout, leading to photo-realistic try-on and rich clothing
details. ACGPN generally involves three major modules. First, a semantic layout
generation module utilizes semantic segmentation of the reference image to
progressively predict the desired semantic layout after try-on. Second, a
clothes warping module warps clothing images according to the generated
semantic layout, where a second-order difference constraint is introduced to
stabilize the warping process during training. Third, an inpainting module for
content fusion integrates all information (e.g. reference image, semantic
layout, warped clothes) to adaptively produce each semantic part of human body.
In comparison to the state-of-the-art methods, ACGPN can generate
photo-realistic images with much better perceptual quality and richer
fine-details.
- Abstract(参考訳): image visual try-onは、対象の衣料品画像を参照者に転送することを目的としており、近年ではホットな話題となっている。
先行芸術は通常、服装のイメージ(例えば、テクスチャ、ロゴ、刺青)を、任意の人間のポーズに合わせる際に保存することに焦点を当てる。
しかし、参照者には大きなオクルージョンと人間のポーズが提示される場合、写真リアルな試写画像を生成することは依然として大きな課題である。
そこで本研究では,適応コンテンツ生成・保存ネットワーク(ACGPN)という新しいビジュアル・トライオン・ネットワークを提案する。
特にACGPNは、トライオン後に変更される参照画像のセマンティックレイアウト(例えば、ロングスリーブシャツ$\rightarrow$arm, arm$\rightarrow$jacket)を最初に予測し、予測されたセマンティックレイアウトに従って画像の内容が生成されるか保存する必要があるかを判断し、フォトリアリスティックな試着とリッチな衣服の詳細をもたらす。
ACGPNは一般に3つの主要なモジュールを含む。
まず、セマンティックレイアウト生成モジュールは、参照画像のセマンティックセグメンテーションを利用して、試行錯誤後に所望のセマンティックレイアウトを段階的に予測する。
次に、服飾モジュールは、生成した意味的レイアウトに従って衣服画像をワープし、2階差分制約を導入してトレーニング中のワーププロセスを安定化させる。
第3に、コンテンツ融合のための塗装モジュールは、すべての情報(例えば、参照画像、セマンティックレイアウト、歪んだ衣服)を統合し、人間の身体の各意味部分を適応的に生成する。
最先端の手法と比較して、ACGPNはより優れた知覚品質とよりリッチな細部を持つ写真リアル画像を生成することができる。
関連論文リスト
- Decoupled Textual Embeddings for Customized Image Generation [62.98933630971543]
カスタマイズされたテキスト・ツー・イメージ生成は、ユーザが指定した概念を少数の画像で学習することを目的としている。
既存の方法は、通常、過剰な問題に悩まされ、学習された概念と対象と無関係な情報を絡み合わせる。
フレキシブルなテキスト・ツー・イメージ生成のための不整合概念の埋め込みを学習する新しいアプローチであるDETEXを提案する。
論文 参考訳(メタデータ) (2023-12-19T03:32:10Z) - StableVITON: Learning Semantic Correspondence with Latent Diffusion
Model for Virtual Try-On [35.227896906556026]
衣服画像と人物画像が与えられた場合、画像ベースの仮想試行は、衣服画像の特徴を自然に正確に反映した、カスタマイズされた画像を生成することを目的としている。
本研究では,事前学習した拡散モデルの適用性を拡張し,仮想試行作業に独立して利用できるようにすることを目的とする。
提案するゼロ・クロスアテンションブロックは, 意味的対応を学習することで衣服の細部を保存できるだけでなく, ワープ過程における事前学習モデル固有の知識を利用して高忠実度画像を生成する。
論文 参考訳(メタデータ) (2023-12-04T08:27:59Z) - DiffFashion: Reference-based Fashion Design with Structure-aware
Transfer by Diffusion Models [4.918209527904503]
そこで我々は,ファッションデザインの課題に焦点をあて,衣料品イメージへの参照外観画像の転送を目指す。
新たにデザインされたファッション画像には参照画像がないため、これは難しい課題である。
本稿では,新しい衣服を意味的に生成するための,新しい拡散モデルに基づく教師なし構造認識伝達手法を提案する。
論文 参考訳(メタデータ) (2023-02-14T04:45:44Z) - OccluMix: Towards De-Occlusion Virtual Try-on by Semantically-Guided
Mixup [79.3118064406151]
Image Virtual try-onは、個人画像上の布を衣服画像(ホップ内服)に置き換えることを目的としている。
以前の方法では, 衣服のイメージの保存に成功していた。
隠蔽は、現実的なバーチャル試行に悪影響を及ぼす。
論文 参考訳(メタデータ) (2023-01-03T06:29:11Z) - Style-Based Global Appearance Flow for Virtual Try-On [119.95115739956661]
本研究では, 新たなグローバルな外見フロー推定モデルを提案する。
仮想試行ベンチマークによる実験結果から,本手法が新たな最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2022-04-03T10:58:04Z) - Arbitrary Virtual Try-On Network: Characteristics Preservation and
Trade-off between Body and Clothing [85.74977256940855]
本報告では,オールタイプの衣料品を対象としたArbitrary Virtual Try-On Network (AVTON)を提案する。
AVTONは、ターゲット服と参照者の特性を保存・交換することで、現実的な試行画像を合成することができる。
提案手法は,最先端の仮想試行法と比較して性能が向上する。
論文 参考訳(メタデータ) (2021-11-24T08:59:56Z) - SPG-VTON: Semantic Prediction Guidance for Multi-pose Virtual Try-on [27.870740623131816]
イメージベースの仮想試着は、多様な人間のポーズの下で、ターゲットのインショップ服を基準人物に適合させることが難しい。
エンドツーエンドのセマンティック予測誘導多目的仮想トライオンネットワーク(SPG-VTON)を提案する。
提案手法を,最大規模の多目的データセット(MPV)とDeepFashionデータセットで評価する。
論文 参考訳(メタデータ) (2021-08-03T15:40:50Z) - Spatial Content Alignment For Pose Transfer [13.018067816407923]
衣服のテクスチャーのコンテンツ一貫性と人間の特性の詳細を高めるための新しいフレームワークを提案します。
まず,前もってターゲットポーズにエッジ内容の転送を行うことにより,空間的不整合を緩和する。
第二に、フォトリアリスティックな人物画像を順調に合成できる新しいContent-Style DeBlkを紹介します。
論文 参考訳(メタデータ) (2021-03-31T06:10:29Z) - PISE: Person Image Synthesis and Editing with Decoupled GAN [64.70360318367943]
人像合成と編集のための新しい二段階生成モデルであるPISEを提案する。
ヒトのポーズ伝達では,まず対象のポーズに合わせた人間のパーシングマップを合成し,衣服の形状を表現する。
衣服の形状とスタイルを分離するため,地域ごとの符号化と正規化を共同で提案する。
論文 参考訳(メタデータ) (2021-03-06T04:32:06Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。