論文の概要: Towards Scalable Unpaired Virtual Try-On via Patch-Routed
Spatially-Adaptive GAN
- arxiv url: http://arxiv.org/abs/2111.10544v1
- Date: Sat, 20 Nov 2021 08:36:12 GMT
- ステータス: 処理完了
- システム内更新日: 2021-11-23 15:20:20.500258
- Title: Towards Scalable Unpaired Virtual Try-On via Patch-Routed
Spatially-Adaptive GAN
- Title(参考訳): パッチ制御空間適応ganによるスケーラブルなunpaired virtual try-onの実現
- Authors: Zhenyu Xie and Zaiyu Huang and Fuwei Zhao and Haoye Dong and Michael
Kampffmeyer and Xiaodan Liang
- Abstract要約: 本稿では,現実世界の仮想試行を支援するテクスチャ保存型終末ネットワークであるPAtch-routed SpaTially-Adaptive GAN (PASTA-GAN)を提案する。
PASTA-GANは、各衣服のスタイルと空間情報をアンタングルするために、革新的なパッチを外したアンタングルモジュールで構成されている。
- 参考スコア(独自算出の注目度): 66.3650689395967
- License: http://arxiv.org/licenses/nonexclusive-distrib/1.0/
- Abstract: Image-based virtual try-on is one of the most promising applications of
human-centric image generation due to its tremendous real-world potential. Yet,
as most try-on approaches fit in-shop garments onto a target person, they
require the laborious and restrictive construction of a paired training
dataset, severely limiting their scalability. While a few recent works attempt
to transfer garments directly from one person to another, alleviating the need
to collect paired datasets, their performance is impacted by the lack of paired
(supervised) information. In particular, disentangling style and spatial
information of the garment becomes a challenge, which existing methods either
address by requiring auxiliary data or extensive online optimization
procedures, thereby still inhibiting their scalability. To achieve a
\emph{scalable} virtual try-on system that can transfer arbitrary garments
between a source and a target person in an unsupervised manner, we thus propose
a texture-preserving end-to-end network, the PAtch-routed SpaTially-Adaptive
GAN (PASTA-GAN), that facilitates real-world unpaired virtual try-on.
Specifically, to disentangle the style and spatial information of each garment,
PASTA-GAN consists of an innovative patch-routed disentanglement module for
successfully retaining garment texture and shape characteristics. Guided by the
source person keypoints, the patch-routed disentanglement module first
decouples garments into normalized patches, thus eliminating the inherent
spatial information of the garment, and then reconstructs the normalized
patches to the warped garment complying with the target person pose. Given the
warped garment, PASTA-GAN further introduces novel spatially-adaptive residual
blocks that guide the generator to synthesize more realistic garment details.
- Abstract(参考訳): 画像ベースの仮想試行は、人間の中心的な画像生成の最も有望な応用の1つだ。
しかし、ほとんどの試着アプローチは、目標人物にスーツを装着するので、ペア化されたトレーニングデータセットの厳格で制限的な構築を必要とし、スケーラビリティを著しく制限します。
最近のいくつかの研究は、ペアのデータセットを収集する必要性を緩和して、衣服を別の人に直接転送しようとしているが、それらのパフォーマンスは、ペアの(監督された)情報の欠如によって影響を受ける。
特に衣料品の取り乱しや空間情報は課題となり、既存の手法では補助データや広範囲のオンライン最適化手続きが必要となり、スケーラビリティを阻害している。
そこで本研究では,現実世界の仮想試着を容易にする,テクスチャ保存型のSpaTially-Adaptive GAN(PAtch-routed SpaTially-Adaptive GAN, PASTA-GAN)を提案する。
具体的には、各衣服のスタイルと空間情報をアンタングルするために、PASTA-GANは、衣服のテクスチャと形状特性をうまく保持する革新的なパッチ付きアンタングルモジュールから構成される。
原点となる人物キーポイントにより誘導されたパッチ主導の異角形モジュールは、まず衣服を正規化パッチに分解し、服の固有空間情報を排除し、その後、対象者のポーズに合致した整った衣服の正規化パッチを再構築する。
PASTA-GANはさらに空間適応可能な新しい残留ブロックを導入し、より現実的な衣服の詳細を合成する。
関連論文リスト
- High-Fidelity Virtual Try-on with Large-Scale Unpaired Learning [36.7085107012134]
VTON(Virtual try-on)は、ターゲットの衣服イメージを基準人物に転送する。
高忠実度試行のための大規模未経験学習を活用するための新しいフレームワークである textbfBoosted Virtual Try-on (BVTON) を提案する。
論文 参考訳(メタデータ) (2024-11-03T15:00:26Z) - IMAGDressing-v1: Customizable Virtual Dressing [58.44155202253754]
IMAGDressing-v1は、固定された衣服とオプション条件で自由に編集可能な人間の画像を生成する仮想ドレッシングタスクである。
IMAGDressing-v1は、CLIPのセマンティック特徴とVAEのテクスチャ特徴をキャプチャする衣料UNetを組み込んでいる。
本稿では,凍結自己注意とトレーニング可能なクロスアテンションを含むハイブリッドアテンションモジュールを提案する。
論文 参考訳(メタデータ) (2024-07-17T16:26:30Z) - GraVITON: Graph based garment warping with attention guided inversion for Virtual-tryon [5.790630195329777]
衣服のフローにおけるコンテキストの価値を強調する新しいグラフベースのワープ手法を提案する。
提案手法は,VITON-HDとDresscodeのデータセットで検証され,衣服のワープ,テクスチャ保存,および全体リアリズムの大幅な改善を示す。
論文 参考訳(メタデータ) (2024-06-04T10:29:18Z) - GP-VTON: Towards General Purpose Virtual Try-on via Collaborative
Local-Flow Global-Parsing Learning [63.8668179362151]
仮想トライオン(Virtual Try-ON)は、ショップ内の衣服を特定の人に転送することを目的としている。
既存の手法では、異なる衣服部品の異方性変形をモデル化するために、グローバルなワーピングモジュールを使用している。
本稿では,革新的なローカルフロー・グローバル・パーシング(LFGP)ワーピングモジュールと動的グラディエント・トラニケーション(DGT)トレーニング戦略を提案する。
論文 参考訳(メタデータ) (2023-03-24T02:12:29Z) - PASTA-GAN++: A Versatile Framework for High-Resolution Unpaired Virtual
Try-on [70.12285433529998]
PASTA-GAN++は高解像度の仮想試行のための汎用システムである。
教師なしのトレーニング、任意の衣服カテゴリー、制御可能な衣服編集をサポートする。
論文 参考訳(メタデータ) (2022-07-27T11:47:49Z) - Style-Based Global Appearance Flow for Virtual Try-On [119.95115739956661]
本研究では, 新たなグローバルな外見フロー推定モデルを提案する。
仮想試行ベンチマークによる実験結果から,本手法が新たな最先端性能を実現することを示す。
論文 参考訳(メタデータ) (2022-04-03T10:58:04Z) - Arbitrary Virtual Try-On Network: Characteristics Preservation and
Trade-off between Body and Clothing [85.74977256940855]
本報告では,オールタイプの衣料品を対象としたArbitrary Virtual Try-On Network (AVTON)を提案する。
AVTONは、ターゲット服と参照者の特性を保存・交換することで、現実的な試行画像を合成することができる。
提案手法は,最先端の仮想試行法と比較して性能が向上する。
論文 参考訳(メタデータ) (2021-11-24T08:59:56Z) - SPG-VTON: Semantic Prediction Guidance for Multi-pose Virtual Try-on [27.870740623131816]
イメージベースの仮想試着は、多様な人間のポーズの下で、ターゲットのインショップ服を基準人物に適合させることが難しい。
エンドツーエンドのセマンティック予測誘導多目的仮想トライオンネットワーク(SPG-VTON)を提案する。
提案手法を,最大規模の多目的データセット(MPV)とDeepFashionデータセットで評価する。
論文 参考訳(メタデータ) (2021-08-03T15:40:50Z) - Shape Controllable Virtual Try-on for Underwear Models [0.0]
そこで我々は,下着モデル用の衣服を着る形状制御可能な仮想トライオンネットワーク(SC-VTON)を提案する。
SC-VTONは、モデルと衣服の情報を統合し、歪んだ衣服画像を生成する。
本手法は, 詳細なテクスチャで高分解能な結果が得られる。
論文 参考訳(メタデータ) (2021-07-28T04:01:01Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。