論文の概要: Style-Based Global Appearance Flow for Virtual Try-On
- arxiv url: http://arxiv.org/abs/2204.01046v1
- Date: Sun, 3 Apr 2022 10:58:04 GMT
- ステータス: 処理完了
- システム内更新日: 2022-04-06 08:32:48.283010
- Title: Style-Based Global Appearance Flow for Virtual Try-On
- Title(参考訳): 仮想トライオンのためのスタイルベースグローバル外観フロー
- Authors: Sen He, Yi-Zhe Song, Tao Xiang
- Abstract要約: 本研究では, 新たなグローバルな外見フロー推定モデルを提案する。
仮想試行ベンチマークによる実験結果から,本手法が新たな最先端性能を実現することを示す。
- 参考スコア(独自算出の注目度): 119.95115739956661
- License: http://creativecommons.org/licenses/by/4.0/
- Abstract: Image-based virtual try-on aims to fit an in-shop garment into a clothed
person image. To achieve this, a key step is garment warping which spatially
aligns the target garment with the corresponding body parts in the person
image. Prior methods typically adopt a local appearance flow estimation model.
They are thus intrinsically susceptible to difficult body poses/occlusions and
large mis-alignments between person and garment images (see
Fig.~\ref{fig:fig1}). To overcome this limitation, a novel global appearance
flow estimation model is proposed in this work. For the first time, a StyleGAN
based architecture is adopted for appearance flow estimation. This enables us
to take advantage of a global style vector to encode a whole-image context to
cope with the aforementioned challenges. To guide the StyleGAN flow generator
to pay more attention to local garment deformation, a flow refinement module is
introduced to add local context. Experiment results on a popular virtual try-on
benchmark show that our method achieves new state-of-the-art performance. It is
particularly effective in a `in-the-wild' application scenario where the
reference image is full-body resulting in a large mis-alignment with the
garment image (Fig.~\ref{fig:fig1} Top). Code is available at:
\url{https://github.com/SenHe/Flow-Style-VTON}.
- Abstract(参考訳): 画像ベースの仮想試着は、ショップの衣服を着ている人の画像に合わせることを目的としている。
これを実現するための鍵となるステップは、人物画像中の対象の衣服と対応する体部とを空間的に整列させる衣服ウォーピングである。
従来の手法は通常、局所的なフロー推定モデルを採用する。
したがって、それらは本質的には、難しい身体のポーズ/閉塞や、人や衣服のイメージ間の大きなミスアライメントに影響を受けやすい(図参照)。
~\ref{fig:fig1})。
この限界を克服するために,本研究では,新しいグローバルな外観フロー推定モデルを提案する。
外観フロー推定に初めてStyleGANベースのアーキテクチャが採用された。
これにより、グローバルなスタイルのベクトルを利用して、上記の課題に対処するための全体像コンテキストを符号化できる。
StyleGANフロージェネレータを誘導して局所的な衣服変形により多くの注意を払うため、局所的なコンテキストを追加するためにフローリファインメントモジュールが導入された。
仮想試行ベンチマークによる実験結果から,本手法が新たな最先端性能を実現することを示す。
特に、参照画像がフルボディであるような 'in-the-wild' のアプリケーションシナリオでは、衣料画像との大きなミスアライメントが生じる(図)。
~\ref{fig:fig1} top)。
コードは以下の通り。 \url{https://github.com/SenHe/Flow-Style-VTON}。
関連論文リスト
- GraVITON: Graph based garment warping with attention guided inversion for Virtual-tryon [5.790630195329777]
衣服のフローにおけるコンテキストの価値を強調する新しいグラフベースのワープ手法を提案する。
提案手法は,VITON-HDとDresscodeのデータセットで検証され,衣服のワープ,テクスチャ保存,および全体リアリズムの大幅な改善を示す。
論文 参考訳(メタデータ) (2024-06-04T10:29:18Z) - MoreStyle: Relax Low-frequency Constraint of Fourier-based Image Reconstruction in Generalizable Medical Image Segmentation [53.24011398381715]
MoreStyleと呼ばれるデータ拡張のためのPlug-and-Playモジュールを紹介します。
MoreStyleは、フーリエ空間の低周波制約を緩和することで、イメージスタイルを多様化する。
敵対的学習の助けを借りて、MoreStyleは潜在機能の中で最も複雑なスタイルの組み合わせを指差している。
論文 参考訳(メタデータ) (2024-03-18T11:38:47Z) - Improving Diffusion Models for Authentic Virtual Try-on in the Wild [53.96244595495942]
本稿では,キュレートされた衣服を身に着けている人のイメージをレンダリングする,イメージベースの仮想試行について考察する。
衣服の忠実度を改善し,仮想試行画像を生成する新しい拡散モデルを提案する。
本稿では,一対の人着画像を用いたカスタマイズ手法を提案する。
論文 参考訳(メタデータ) (2024-03-08T08:12:18Z) - PG-VTON: A Novel Image-Based Virtual Try-On Method via Progressive
Inference Paradigm [6.929743379017671]
プログレッシブ推論パラダイム(PGVTON)を用いた新しい仮想試行法を提案する。
形状案内として試着解析を応用し,ワープ・マッピング・コンポジションによる衣服試着を実装した。
実験により,本手法は2つの挑戦シナリオ下での最先端性能を示す。
論文 参考訳(メタデータ) (2023-04-18T12:47:26Z) - Learning Diverse Tone Styles for Image Retouching [73.60013618215328]
本稿では,フローベースアーキテクチャの標準化により,多様な画像のリタッチを学習することを提案する。
ジョイントトレーニングパイプラインは、スタイルエンコーダ、条件付きRetouchNet、イメージトーンスタイル正規化フロー(TSFlow)モジュールで構成される。
提案手法は最先端の手法に対して良好に動作し,多様な結果を生成するのに有効である。
論文 参考訳(メタデータ) (2022-07-12T09:49:21Z) - Controllable Person Image Synthesis with Spatially-Adaptive Warped
Normalization [72.65828901909708]
制御可能な人物画像生成は、望ましい属性を持つ現実的な人間の画像を作成することを目的としている。
本稿では,学習フロー場とワープ変調パラメータを統合した空間適応型ワープ正規化(SAWN)を提案する。
本稿では,テクスチャ・トランスファータスクの事前学習モデルを洗練するための,新たな自己学習部分置換戦略を提案する。
論文 参考訳(メタデータ) (2021-05-31T07:07:44Z) - Towards Photo-Realistic Virtual Try-On by Adaptively
Generating$\leftrightarrow$Preserving Image Content [85.24260811659094]
本稿では,適応コンテンツ生成・保存ネットワーク(ACGPN)という新しいビジュアル・トライオン・ネットワークを提案する。
ACGPNはまず、試行錯誤後に変更される参照画像のセマンティックレイアウトを予測する。
第二に、服のワープモジュールは、生成されたセマンティックレイアウトに従って衣服の画像をワープする。
第3に、コンテンツ融合のための塗装モジュールは、すべての情報(例えば、参照画像、セマンティックレイアウト、歪んだ衣服)を統合して、人間の身体の各意味部分を適応的に生成する。
論文 参考訳(メタデータ) (2020-03-12T15:55:39Z)
関連論文リストは本サイト内にある論文のタイトル・アブストラクトから自動的に作成しています。
指定された論文の情報です。
本サイトの運営者は本サイト(すべての情報・翻訳含む)の品質を保証せず、本サイト(すべての情報・翻訳含む)を使用して発生したあらゆる結果について一切の責任を負いません。