論文の概要: PG-VTON: A Novel Image-Based Virtual Try-On Method via Progressive
Inference Paradigm
- arxiv url: http://arxiv.org/abs/2304.08956v2
- Date: Tue, 5 Dec 2023 03:04:12 GMT
- ステータス: 処理完了
- システム内更新日: 2023-12-06 20:19:46.648370
- Title: PG-VTON: A Novel Image-Based Virtual Try-On Method via Progressive
Inference Paradigm
- Title(参考訳): PG-VTON:プログレッシブ推論パラダイムによる新しい画像ベース仮想試行法
- Authors: Naiyu Fang, Lemiao Qiu, Shuyou Zhang, Zili Wang, Kerui Hu
- Abstract要約: プログレッシブ推論パラダイム(PGVTON)を用いた新しい仮想試行法を提案する。
形状案内として試着解析を応用し,ワープ・マッピング・コンポジションによる衣服試着を実装した。
実験により,本手法は2つの挑戦シナリオ下での最先端性能を示す。
- 参考スコア(独自算出の注目度): 6.929743379017671
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Virtual try-on is a promising computer vision topic with a high commercial
value wherein a new garment is visually worn on a person with a photo-realistic
effect. Previous studies conduct their shape and content inference at one
stage, employing a single-scale warping mechanism and a relatively
unsophisticated content inference mechanism. These approaches have led to
suboptimal results in terms of garment warping and skin reservation under
challenging try-on scenarios. To address these limitations, we propose a novel
virtual try-on method via progressive inference paradigm (PGVTON) that
leverages a top-down inference pipeline and a general garment try-on strategy.
Specifically, we propose a robust try-on parsing inference method by
disentangling semantic categories and introducing consistency. Exploiting the
try-on parsing as the shape guidance, we implement the garment try-on via
warping-mapping-composition. To facilitate adaptation to a wide range of try-on
scenarios, we adopt a covering more and selecting one warping strategy and
explicitly distinguish tasks based on alignment. Additionally, we regulate
StyleGAN2 to implement re-naked skin inpainting, conditioned on the target skin
shape and spatial-agnostic skin features. Experiments demonstrate that our
method has state-of-the-art performance under two challenging scenarios. The
code will be available at https://github.com/NerdFNY/PGVTON.
- Abstract(参考訳): 仮想試着は、フォトリアリスティック効果のある人に新しい衣服を視覚的に着用する、高い商業価値を持つ有望なコンピュータビジョンのトピックである。
従来の研究では, 単一スケールのワープ機構と, 比較的未熟な内容推論機構を用いて, 形状と内容推論を行っている。
これらのアプローチは、挑戦的な試着シナリオ下での衣服のゆらぎと肌の保温の観点から、最適以下の結果をもたらす。
これらの制限に対処するために,トップダウン推論パイプラインと一般的な衣服試着戦略を活用した,プログレッシブ推論パラダイム(pgvton)による新しい仮想試着法を提案する。
具体的には,意味カテゴリーの分離と一貫性の導入によるロバストなトライオン解析法を提案する。
形状誘導法として試着法を試作し, ワープ・マッピング・コンポジションを用いて試着法を実装した。
広い範囲の試用シナリオへの適応を容易にするために,より広範囲にカバーし,一つのウォーピング戦略を選択し,アライメントに基づいてタスクを明示的に区別する。
さらに,StyleGAN2は,ターゲット皮膚形状と空間認識性皮膚の特徴を条件に,再塗布の実施を規制している。
実験により,本手法は2つの挑戦シナリオ下での最先端性能を示す。
コードはhttps://github.com/NerdFNY/PGVTON.comで入手できる。
関連論文リスト
- High-Fidelity Virtual Try-on with Large-Scale Unpaired Learning [36.7085107012134]
VTON(Virtual try-on)は、ターゲットの衣服イメージを基準人物に転送する。
高忠実度試行のための大規模未経験学習を活用するための新しいフレームワークである textbfBoosted Virtual Try-on (BVTON) を提案する。
論文 参考訳(メタデータ) (2024-11-03T15:00:26Z) - GraVITON: Graph based garment warping with attention guided inversion for Virtual-tryon [5.790630195329777]
衣服のフローにおけるコンテキストの価値を強調する新しいグラフベースのワープ手法を提案する。
提案手法は,VITON-HDとDresscodeのデータセットで検証され,衣服のワープ,テクスチャ保存,および全体リアリズムの大幅な改善を示す。
論文 参考訳(メタデータ) (2024-06-04T10:29:18Z) - Wear-Any-Way: Manipulable Virtual Try-on via Sparse Correspondence Alignment [8.335876030647118]
Wear-Any-Wayは、仮想トライオンのためのカスタマイズ可能なソリューションである。
まず、標準仮想試着のための強力なパイプラインを構築し、単一/複数衣料試着とモデル・ツー・モデル設定をサポートする。
特定位置の生成を誘導するポイントベース制御を含むスパースアライメントアライメントを提案する。
論文 参考訳(メタデータ) (2024-03-19T17:59:52Z) - Improving Diffusion Models for Authentic Virtual Try-on in the Wild [53.96244595495942]
本稿では,キュレートされた衣服を身に着けている人のイメージをレンダリングする,イメージベースの仮想試行について考察する。
衣服の忠実度を改善し,仮想試行画像を生成する新しい拡散モデルを提案する。
本稿では,一対の人着画像を用いたカスタマイズ手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T08:12:18Z) - Single Stage Warped Cloth Learning and Semantic-Contextual Attention Feature Fusion for Virtual TryOn [5.790630195329777]
画像ベースの仮想試着は、ホップの衣服を着ている人の画像に合わせることを目的としている。
対象の衣服を人物画像の対応する身体部分と整列させるガーメント・ワープは、この目標を達成するための重要なステップである。
明示的な多段階学習なしに暗黙的に同じことを学習する新しいシングルステージフレームワークを提案する。
論文 参考訳(メタデータ) (2023-10-08T06:05:01Z) - Style-Based Global Appearance Flow for Virtual Try-On [119.95115739956661]
本研究では, 新たなグローバルな外見フロー推定モデルを提案する。
仮想試行ベンチマークによる実験結果から,本手法が新たな最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2022-04-03T10:58:04Z) - Arbitrary Virtual Try-On Network: Characteristics Preservation and
Trade-off between Body and Clothing [85.74977256940855]
本報告では,オールタイプの衣料品を対象としたArbitrary Virtual Try-On Network (AVTON)を提案する。
AVTONは、ターゲット服と参照者の特性を保存・交換することで、現実的な試行画像を合成することができる。
提案手法は,最先端の仮想試行法と比較して性能が向上する。
論文 参考訳(メタデータ) (2021-11-24T08:59:56Z) - Towards Scalable Unpaired Virtual Try-On via Patch-Routed
Spatially-Adaptive GAN [66.3650689395967]
本稿では,現実世界の仮想試行を支援するテクスチャ保存型終末ネットワークであるPAtch-routed SpaTially-Adaptive GAN (PASTA-GAN)を提案する。
PASTA-GANは、各衣服のスタイルと空間情報をアンタングルするために、革新的なパッチを外したアンタングルモジュールで構成されている。
論文 参考訳(メタデータ) (2021-11-20T08:36:12Z) - Cloth Interactive Transformer for Virtual Try-On [106.21605249649957]
本稿では,仮想試行作業のための2段階のインタラクティブトランス (CIT) 手法を提案する。
第1段階では, CITマッチングブロックを設計し, 着物非依存者情報と着物内布情報との長距離相関関係を正確に把握することを目的とした。
第2段階では,人物表現のグローバルな相互相互依存関係を確立するためのCIT推論ブロック,整形衣料品,およびそれに対応する整形布マスクを作成した。
論文 参考訳(メタデータ) (2021-04-12T14:45:32Z) - CharacterGAN: Few-Shot Keypoint Character Animation and Reposing [64.19520387536741]
本稿では,与えられた文字の少数のサンプルに対してのみトレーニング可能な生成モデルである characterGAN を紹介する。
我々のモデルはキーポイント位置に基づいて新しいポーズを生成し、インタラクティブなフィードバックを提供しながらリアルタイムで修正することができる。
提案手法は,近年のベースラインよりも優れており,多様なキャラクタに対してリアルなアニメーションを生成する。
論文 参考訳(メタデータ) (2021-02-05T12:38:15Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。